Warum Sorgfalt bei Top-Personalien unerlässlich ist

Klug gewählt statt vorschnell entschieden: Warum Sorgfalt bei Top-Personalien unerlässlich ist.

Gastbeitrag von Daniel Salamon

Nach Angaben des Institut für Wirtschaft berichtete rund die Hälfte der hiesigen Unternehmen im Jahr 2023 von zunehmenden Schwierigkeiten bei der Anstellung von Führungspersonen. Dass Beschäftigte die mit Leadership verbundene Verantwortung scheuen, greift dabei zu kurz. Die Gründe für verwaiste Chefsessel liegen woanders: Als wichtige Einflussfaktoren gelten beispielsweise die pragmatische Abwägung von Beruf mit Privatleben und Betriebsklima. Je mehr Führung mit einem steigenden Zeitaufwand verbunden ist, desto häufiger kommt es zu Besetzungsproblemen; zusätzlich befeuert durch den Fachkräftemangel. Trotz des schwierigen Marktes sollten sich Firmen nicht dazu hinreißen lassen, Kandidaten oder Kandidatinnen zu berufen, bei denen sie Zweifel haben. Denn jeder Fehlgriff auf C-Level-Ebene kann Unternehmen eine Summe in schwindelerregender Höhe kosten – im schlimmsten Fall ein Vielfaches des vereinbarten Jahresgehalts, noch dazu flankiert von Reputationsschäden. Wie vermeiden Personalverantwortliche Fehlbesetzungen in der Führungsetage? Die Frage beantwortet Daniel Salamon, Psychologe und Management-Diagnostiker mit C-Level-Schwerpunkt.

 

Daniel Salamon betont: „Viele Mittelständler und Konzerne lassen sich bei der Vergabe ihrer Spitzenpositionen von renommierten Namen oder beeindruckenden Lebensläufen blenden.“

 

Vorsicht, Falle!

Viele Mittelständler und Konzerne lassen sich bei der Vergabe ihrer Spitzenpositionen von renommierten Namen oder beeindruckenden Lebensläufen blenden. Hinzu kommen utopische und in ihrer Gesamtheit unerfüllbare Anforderungsprofile in Jobinseraten. In diesem Szenario stecken bereits die drei Hauptgründe für Fehlbesetzungen: überhöhte Ansprüche, fehlende Fokussierung und instinktbasierte Auswahl. Unermüdliche Überflieger mit bescheidenem Gehaltswunsch, die ihrer Jugend zum Trotz mit Weisheit führen – richten Verantwortliche unrealistische Erwartungen an die neue Führungskraft, reagieren Selbstbewusste mit Schönflunkerei, während Bescheidene darüber die Bewerbungslust verlieren. Bei weiblichen Personen zieht diese Art von Ausschreibung noch viel weniger. Sie neigen zu Downgrading; schätzen jedes Kriterium in einer Personalanzeige als unerlässlich ein und trauen sich nachweislich weniger zu.

Falsche oder gar keine Priorisierung von Kompetenzen stiftet Verwirrung. Steckt ein Unternehmen inmitten eines Turnarounds, braucht es Führungsstärke. In kollaborativ organisierten Teams stört direktive Führung mehrheitlich. Solche Bespiele verdeutlichen, dass Personalabteilungen Fertigkeiten wie unternehmerisches Denken, Analysefähigkeit und Kundenorientierung klar gewichten müssen, um Erwartungen transparent zu machen. Verwässerte Vakanzen hingegen schüren falsche Job-Vorstellungen und münden bei Neueinsteigern in herber Enttäuschung. Ferner lege ich HR-Verantwortlichen ans Herz, den persönlichen Wertekosmos der Anwärterin oder des Anwärters auf dem Schirm zu haben. Diskrepanzen in puncto Kultur erweisen sich gerade bei Top Managern als gravierend, weil sie Team, Workflow und Produktivität beeinflussen.

Besonders bei langjähriger Betriebszugehörigkeit vertrauen Entscheidungsträger zu stark ihrer Intuition. Dabei sind sie vor dem Confirmation Bias nicht gefeit. Unter Stress schleichen sich zusätzliche Urteilsfehler ein und der War of Talents führt oft zu vorschnellen, kompromissschwangeren Entscheidungen. Technisch gesehen begünstigen KI-gestützte Verfahren Fehleinschätzungen, weil die künstliche Intelligenz nur Fakten abklappert.

 

Lieber unbesetzt als fehlbesetzt

Kritische Kandidatenauslese anhand eines realistischen Anforderungsprofils erzielt gute Ergebnisse, dauert aber länger als halbherzige Anstellung. Halten sich HR-Verantwortliche strikt an die Leitlinien, heißt das im Umkehrschluss, auf Zugeständnisse zu verzichten – auch wenn das die Postenvergabe verzögert. Während einer ausgedehnten Suchphase leistet eine im Kollegenkreis geschätzte Interimskraft aus den eigenen Reihen gute Dienste. Sie kennt sich aus, bringt Motivation mit und hegt ein persönliches Interesse an gutem Fortkommen. Externe C-Level-Akteure erwarten in der Regel langfristige Verträge von mindestens drei Jahren. Bricht diese Person vorzeitig mit dem Unternehmen, verursacht das größere Schäden als eine Personallücke. Arbeitsplatzkultur und Mitarbeiterzufriedenheit leiden; Unmut über die Fehlentscheidung heizt die Gerüchteküche an und untergräbt das Vertrauen in die Leitungsebene. Die Konsequenzen reichen von Motivations- über Produktivitäts- bis hin zu Wissensverlust – das Arbeitgeberimage bekommt Risse und bei börsennotierten Unternehmen sinkt der Aktienkurs. Mediale Berichterstattung über eine steigende Kündigungsrate belastet das Employer Branding. Zudem fallen erhebliche Kosten an: von Recruiting-Ausgaben über Gehälter und Abfindungen bis hin zu Headhunter-Gebühren. Letztere belaufen sich auf etwa 30 % des Jahresgehalts – unabhängig davon, ob die verpflichtete Person tatsächlich zum Unternehmen passt. Headhunter setzen mehrheitlich und primär auf den quantitativen Abgleich von Anforderungen. Meist fehlt ihnen eine spezifische Eignungsdiagnostik nach DIN 33 34, was die Auswahlqualität beeinflusst.

 

Versierte Eignungsdiagnostik

Eignungsdiagnostische Auswahlprozesse sorgen dafür, dass Kandidatinnen oder Kandidaten nicht nur auf dem Papier, sondern auch in der Praxis langfristig überzeugen. Transparenz, Klarheit, Wertschätzung, Vier-Augen-Prinzip und Ruhe bilden die Grundlage. Der Prozess startet mit einer detaillierten Anforderungsanalyse, die Fachwissen, Soft Skills, Werte und strategische Unternehmensziele berücksichtigt. Eine enge Abstimmung zwischen Human Resources, Fachabteilung, C-Level-Vertretung und Mitarbeitenden gewährleistet dabei Multiperspektivität.  Anschließend erfolgt eine Vorauswahl auf Basis von Lebensläufen und Zeugnissen. Psychometrische Verfahren verfeinern diesen Schritt, indem sie psychische Merkmale hervorheben, die hinter beobachtetem Verhalten stecken. Seriöse, fachlich fundierte Fähigkeits- und Persönlichkeitstests runden die Vorauswahl ab.

Mit der gründlich gesiebten Vorauswahl geht es in den Diagnostic Day. Über die Dauer eines kompletten Arbeitstages lernen sich Fragende und Befragte sowohl über standardisierte als auch situative Szenarien kennen. Interviews, Fallstudien, simulierte Gespräche mit Mitarbeitenden oder Präsentationen testen die Fertigkeiten der Anwärterinnen und Anwärter auf Herz und Niere. Jede Fähigkeit wird mindestens zweimal überprüft, um Fehleinschätzungen zu vermeiden. Testverfahren wie das Bochumer Inventar zur berufsbezogenen Persönlichkeit erlauben tiefergehende Blicke. Kognitive Leistungstests geben Aufschluss über den IQ, der bei hohem Wert einen guten Prädikator für Erfolg darstellt. Ein absolutes No Go: stresserzeugende Assessment Center. Außer Unwohlsein und Einschüchterung bringen sie nichts. Stattdessen sorgt ein respektvolles und transparentes Verhalten für authentische Interaktion. Klare Instruktionen und Reflexionsrunden nach jeder Übung bekunden Wertschätzung und steigern das Engagement. Wer sich allerdings selbst inszeniert und wenig Interesse an Teamarbeit zeigt, bleibt auch in jedem noch so wohlwollenden Assessment unnahbar.

Im letzten Schritt fließen alle Ergebnisse zusammen. Zwei geschulte Beobachter analysieren die Eindrücke wertfrei und tauschen sich aus. Das Vier-Augen-Prinzip verhindert Beurteilungsfehler und schützt vor dem Primacy-Recency-Effekt – also dem Festhalten an ersten oder letzten Eindrücken.

 

Willkommen an Bord!

Steht die Idealbesetzung fest, folgt ein profundes Onboarding. In verfrühter Sicherheit wiegen sollten sich Unternehmen an diesem Punkt nicht. Wird in der Einarbeitungsphase grob gepfuscht, kann selbst der Traumkandidat oder die Traumkandidatin zum Schreckgespenst mutieren. Ein gut strukturierter Fahrplan, abgestimmt auf das Anforderungs- und Persönlichkeitsprofil des Neuankömmlings, navigiert die Führungskraft zuverlässig durch ihre ersten Wochen. Dabei müssen Kolleginnen und Kollegen sowie Vorgesetze der Person, ungeachtet ihres hohen Arbeitspensums, genügend Zeit einräumen, um Abläufe, Teamdynamiken und die Unternehmenskultur zu verstehen. Höhere Positionen wecken oft die Illusion, erfahrene Führungskräfte könnten sofort alles durchschauen und direkt loslegen. Ein Irrtum, der Potenzial verschwendet und Frustration riskiert. Regelmäßige Check-ins beschleunigen die Eingliederung und stärken das Commitment.

 

Diagnostik mit Weitblick

Vereiteln begrenzte Budgets den Einsatz professioneller Management-Diagnostiker, definieren HR-Verantwortliche zuerst die nötigen Job-Kompetenzen und priorisieren diese auf einer Skala von 1 bis 5. Im Gespräch sorgen durchdachte Fragenkataloge für Vergleichbarkeit, während das Ranking eine objektivere Bewertung ermöglicht. Verhaltensanker auf Stufe 1? Erfüllt. Kompetenz auf Level 3? Durchschnittlich. Bewertungsbögen reduzieren Wahrnehmungsverzerrungen. Ergänzend dazu liefern kompakte Assessments aufschlussreiche Erkenntnisse – etwa durch simulierte Kundengespräche oder Teamaufgaben. Neben persönlichen Treffen schenken Referenzen von Ex-Arbeitgebenden wertvolle Einblicke. Und auch hier gilt: Investment in einen durchdachten Onboarding-Prozess spart langfristig Kosten.

 

Über den Autor:

Daniel Salamon ist ein langjährig erfahrener Management-Diagnostiker und Karriere-Enabler mit C-Level-Schwerpunkt. Die von ihm gegründete und geführte Personalberatung Better People Decisions fokussiert sich auf Management Diagnostics. Executive Coaching-Angebote für Führungskräfte auf der Schwelle zum C-Level und Leadership Pioniere vor dem Karrierewandel runden das Portfolio ab. Der Psychologe lehrt am Institute of Executive Capabilities der Steinbeis-Hochschule sowie der CBS International Business School.

Fünf KI-Trends für 2025

Von Scott Zoldi, KI-Visionär und Chief Analytics Officer bei FICO
1. Erkenntnis in Unternehmen reift: Nicht jede KI ist eine GenAI
Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.
Auch wenn Unternehmen nun über einen ganzen Werkzeugkasten an KI-Tools verfügen – sie sollten nicht versuchen, eine Holzschraube mit einem Gummihammer einzuschlagen. Für die Auswahl der richtigen KI-Tools sind Datenwissenschaftler erforderlich, die die jeweiligen geschäftlichen und operativen Anforderungen verstehen, kritisch durchleuchten und die Stärken und Schwächen von KI oder GenAI einschätzen können. „Human in the loop“-Prozesse bewerten, ob ein Geschäftsproblem deterministische Entscheidungen, interpretierbares maschinelles Lernen, Überprüfbarkeit oder sonstige operative Anforderungen erfordert. Die Wahl des richtigen KI- oder GenAI-Pfads wird immer mehr derSchlüssel zu erfolgreichen KI-Investitionen.
2. Datenbereichsspezifische GenAI-Anwendungsfälle florieren
Unternehmen, die Large Language Models (LLMs) und andere generative Techniken auf verantwortungsvolle, wertorientierte Weise nutzen wollen, werden dies auf der Grundlage von Responsible AI tun – und das beginnt mit der Beherrschung der eigenen Daten. Damit Unternehmen KI gut nutzen können, brauchen sie genaue, relevante und gut strukturierte Daten – dafür bedarf es wiederum Fachkräfte, die diese Daten zu interpretieren wissen.
GenAI-Programme basieren immer mehr auf aktiv kuratierten Daten, die für bestimmte Geschäftsbereiche relevant sind. Unternehmen kuratieren und bereinigen Daten, aus denen das LLM lernen soll, und entfernen große Mengen an Daten, die es nicht verwenden soll. Dies ist ein erster Schritt zur verantwortungsvollen KI-Nutzung und zur Erzielung eines geschäftlichen Nutzens. Die Schulungsdaten müssen repräsentativ für die Entscheidungen sein, die auf ihnen beruhen. Durch ihre Datenstrategien für die LLM-Erstellung können sich Unternehmen wertvolle Differenzierungsmerkmale verschaffen – denn ein LLM ist nur ein Abbild der Daten, auf denen es basiert.
3. Unternehmen erstellen ihre eigenen kleinen und fokussierten Sprachmodelle und sorgen so für die Legitimierung von Agentic-AI
Immer mehr Unternehmen erstellen ihre eigenen kleinen Sprachmodelle (SLMs). Wir erleben einen Anstieg von fokussierten Sprachmodellen (FLMs), die den am meisten unterminierenden Aspekt von LLMs – Halluzination – mit spezifischen Domain-Daten und Wissensankern adressieren. So stellen sie sicher, dass aufgabenbasierte FLM-Antworten auf der Wahrheit beruhen. Diese FLMs werden dazu beitragen, Agentic AI-Anwendungen zu legitimieren, die noch in den Kinderschuhen stecken, aber fokussierte und aufgabenspezifische LLMs erfordern, die mit einem hohen Maß an Genauigkeit und Kontrolle arbeiten.
Der weit verbreitete Einsatz von FLMs kann ein weiteres positives Ergebnis bringen: die Verringerung der Umweltauswirkungen von GenAI. Branchenschätzungen zufolge verbraucht eine einzige ChatGPT-Anfrage zwischen 10 und 50 Mal mehr Energie als eine Google-Suchanfrage. Der jüngste Bericht der Vereinten Nationen über die Digitalwirtschaft legt nahe, dass allein die von Google, Amazon, Meta, Apple und Microsoft (GAMAM) betriebenen Rechenzentren mehr als 90 Terawattstunden an Energie verbrauchen – mehr als einzelne Länder wie Finnland, Belgien, Chile oder die Schweiz. Da Unternehmen nach Möglichkeiten suchen, ihre Nachhaltigkeitsziele auf andere Weise als durch den Kauf von Emissionszertifikaten zu erreichen, können FLMs hier an Bedeutung gewinnen und einen wertvollen Beitrag leisten.
Sie sind für spezifische Aufgaben optimiert, erfordern weniger Rechenleistung als große, generelle Modelle wie ChatGPT und tragen somit dazu bei, den Energieverbrauch signifikant zu senken.
4. AI-Trust-Scores machen es einfacher, GenAI zu vertrauen
AI-Trust-Scores, wie jene, die mit FLMs assoziiert sind, machen es einfacher, GenAI zu vertrauen. Sekundäre, unabhängige, risikobasierte AI-Trust-Scores und darauf basierende Strategien ermöglichen es, GenAI in großem Umfang und mit messbarer Genauigkeit operativ einzusetzen.
AI-Trust-Scores reflektieren dabei drei Punkte:
– Die Wahrscheinlichkeit, dass wichtige kontextbezogene Daten (z. B. Produktdoku-mentationen), auf denen das aufgabenspezifische FLM trainiert wurde, für die Antwort verwendet werden.
– Das Vertrauen des AI-Trust-Modells, dass der Output des FLM auf ausreichender statistischer Relevanz beruht. LLMs arbeiten mit Wahrscheinlichkeitsverteilungen. Wenn es nicht genügend Trainingsdaten gibt, um eine statistisch signifikante Verteilung oder eine Anzahl von brauchbaren Alternativen zu erstellen, wird der AI-Trust-Score kein Vertrauen in die Antwort haben.
– Die Ausrichtung auf echte Fakten im Gegensatz zu Daten. Wahrheit vs. Daten ist eine der hartnäckigsten Herausforderungen von LLM-Technologie und KI insgesamt.
AI-Trust-Scores können in einem risikobasierten System effektiv eingesetzt werden, um Unternehmen bei der Entscheidung zu unterstützen, ob sie der Antwort eines FLMs vertrauen können
5. Der operative Einsatz von KI wird zunehmend einfacher
Abstrakte konzeptionelle Ideen in messbare Ergebnisse umzuwandeln, wird systematisch erreicht, wenn KI- und GenAI-Systeme auf wiederholbare, messbare Weise implementiert werden – durch eine optimierte Kombination von Menschen, Prozessen und Technologie.
Bisher wussten viele Unternehmen nicht, wie sie KI operativ einsetzen oder wo sie anfangen sollen. Fünf Voraussetzungen bilden den Rahmen für jede KI-Implementierung:
– Ein Weltklasse-Team: Der Einsatz von KI muss von erstklassigen Data-Science-Experten strategisch geplant und durchgeführt werden, die nicht nur über die passenden akademischen Qualifikationen, sondern auch über die praktische Erfahrung verfügen. Nur so löst KI Herausforderungen im Business, die in der Regel komplexer sind, als sie auf den ersten Blick erscheinen.
– KI muss eine Zielbranche ansprechen oder einen Bedarf erfüllen: Neben dem Data-Science-Team sollte das gesamte Unternehmen KI-Lösungen für eine Zielerreichung mit Mehrwert nutzen. Dazu muss zunächst der Business-Need ermittelt werden. Seine Erfüllung erfordert oft neue Algorithmen.
– KI-Algorithmen so entwickeln, dass eine effiziente Softwarebereitstellung möglich ist: Für einen erfolgreichen Einsatz von KI müssen Experten für maschinelles Lernen und KI in den Softwareentwicklungsprozess einbezogen werden. Denn sie verstehen die Anforderungen und die auf ihre Algorithmen angewendeten Beschränkungen.
– Niedrige Latenzzeiten und hohe Durchsatzraten in Echtzeit: Auf der Basis gut konzipierter Cloud-Computing-Ressourcen können KI-Lösungen entsprechend der Anforderungen am besten operativ arbeiten. Insbesondere die Anforderung in Echtzeit Ergebnisse zu liefern, erfordert ein sorgfältiges Verständnis der gesamten Kette von Datenfluss, Vorverarbeitung, Streaming-Analysen, NoSQL-Speichern, Systemredundanz und anderen Ressourcen.
– Verantwortungsbewusste KI: Damit KI einen geschäftlichen Nutzen bringt, muss sie ethisch vertretbar, erklärbar und überprüfbar sein. Das sind die Schlüsselkonzepte verantwortungsvoller KI mit einer Reihe von Prinzipien und Praktiken, um mit KI innerhalb wichtiger ethischer und rechtlicher Grenzen wirkungsvolle Geschäftsergebnisse zu erzielen.
Rechenschaftspflicht und Erklärbarkeit sind für verantwortungsvolle KI von zentraler Bedeutung und können durch den Einsatz unveränderlicher Blockchain-Technologie erreicht werden, um jeden Aspekt der KI-Modellentwicklung zu kodifizieren. Dieselbe KI-Governance-Blockchain kann verwendet werden, um KI im Einsatz zu überwachen. So lässt sich auch außerhalb des Data-Science-Labors ein Mehrwert erzielen.

25 Jahre Innovation: Wie Technologie aus München europaweit die Resilienz in Unternehmen stärkt

boo.com, webvan oder Govworsk: Sie alle scheiterten mit dem Platzen der Dotcom-Blase – und stehen damit stellvertretend für eine lange Liste von Unternehmen, die es nicht geschafft haben, die Möglichkeiten der rapiden Verbreitung des Internets in den 2000ern langfristig zu nutzen. Doch es gibt auch die andere Seite: Abseits der großen US-amerikanischen Internetfirmen gibt es eine Reihe weiterer, weniger bekannter Erfolgsgeschichten. Heimische Unternehmen, die sich die technologischen Potenziale der Nullerjahre durch kluge Strategien und beherzte Entscheidungen zunutze machten. Eines davon: die F24 AG.

Vor 25 Jahren hat es das Münchner Unternehmen geschafft, eine digitale Lösung als Software-as-a-Service-Modell zu verkaufen, noch bevor es dieses Modell so richtig gab. Heute ist F24 der führende SaaS-Anbieter für Resilienzlösungen in Europa. Im Interview mit der TREND REPORT-Redaktion spricht Eske Ofner, Head of Sales bei F24, über technologische Meilensteine, den richtigen Umgang mit NIS-2 und verrät, mit welchen Tipps Unternehmen ihre digitale Resilienz sofort stärken können.

 

TREND REPORT: Frau Ofner, Angriffe auf Unternehmensnetzwerke nehmen weiter zu. Gleichzeitig verpflichtet die NIS-2-Richtlinie europäische Unternehmen bis März 2025 zu verstärkter Cybersicherheit. Wie gut sind Unternehmen auf die neuen Anforderungen vorbereitet?

Eske Ofner, Head of Sales bei F24 betont: „Der größte Risikofaktor bleibt der Mensch. Phishing, Social Engineering oder einfache Nachlässigkeit bei der Passwortsicherheit sind nach wie vor die häufigsten Einfallstore für Angreifer.“    Bildnachweis: © F24 AG

 

F24: Viele haben längst erkannt, dass Cybersicherheit nicht mehr nur ein IT-Thema ist, sondern eine zentrale Managementaufgabe ist. Trotzdem zeigt sich in der Praxis: Die Umsetzung von NIS-2 ist für viele Firmen eine Herausforderung. Sie kämpfen noch immer mit der Frage, wie sie die umfangreichen Anforderungen in ihre Prozesse integrieren können – von der Erkennung von Sicherheitsvorfällen über die schnelle Reaktion bis hin zur rechtssicheren Dokumentation.

TREND REPORT: Welche Fehler machen Unternehmen, wenn es um ihre Cybersicherheit geht?

F24: Der größte Risikofaktor bleibt der Mensch. Phishing, Social Engineering oder einfache Nachlässigkeit bei der Passwortsicherheit sind nach wie vor die häufigsten Einfallstore für Angreifer. Zudem fehlt es oft an einem strukturierten Krisenmanagement. Viele Unternehmen haben zwar IT-Sicherheitslösungen implementiert, aber keinen klaren Plan, wie sie bei einem Angriff reagieren müssen. Dabei ist eine schnelle, koordinierte Reaktion entscheidend, um Schäden zu minimieren.

TREND REPORT: Wie kann Technologie dabei helfen, diese Herausforderungen zu meistern?

F24: Technologie ist der Schlüssel zu mehr Resilienz. Ein Beispiel sind automatisierte Alarmierungs- und Krisenmanagementlösungen wie unsere SaaS-Plattform. Sie ermöglichen es Unternehmen, im Ernstfall alle relevanten Personen in Echtzeit zu informieren, Krisenteams zu koordinieren und Maßnahmen sofort umzusetzen. Gleichzeitig lassen sich alle Schritte lückenlos dokumentieren, was für die Einhaltung regulatorischer Vorgaben wie der von NIS-2 essenziell ist. Ein Beispiel: Die Richtlinie fordert unter anderem, dass Unternehmen einen Plan für das Incident Response Management haben und Meldeprozesse etabliert sind. Auch ein systematisches Risikomanagement ist Bestandteil der Vorgaben. Digitale Lösungen helfen genau an dieser Stelle, die Vorgaben effizient umzusetzen.

TREND REPORT: F24 ist ein Paradebeispiel für „Technologie aus Deutschland“. Wie hat sich das Unternehmen in den letzten 25 Jahren entwickelt? Welche Lektionen haben Sie in dieser Zeit über die deutsche Unternehmenslandschaft und ihre Beziehung zum Thema Krise gelernt?

F24: Als F24 im Jahr 2000 gegründet wurde, lag der Fokus noch auf der digitalen Alarmierung – also der schnellen und sicheren Benachrichtigung einer großen Zahl von Personen im Krisenfall. Damals war das ein Pionieransatz: Automatisierte SaaS-basierte Alarmierungssysteme gab es kaum. Im Laufe der Jahre wurde die Lösung kontinuierlich weiterentwickelt und wandelte sich von einer reinen Alarmierungsplattform zu einer ganzheitlichen Lösung für digitales Krisenmanagement und Resilienz. Heute unterstützten unsere Lösungen Unternehmen nicht nur dabei, auf Krisen zu reagieren, sie helfen auch, sich proaktiv vorzubereiten und Risiken zu minimieren. Diesen Anspruch haben auch unsere Kunden: Es geht mehr und mehr um eine systematische Vorbereitung auf Ernst- und Krisenfälle, die die Widerstandsfähigkeit der Betriebe stärkt. Denn in Zeiten von Polykrisen kann es sich niemand mehr leisten, einfach aus dem Bauch heraus zu entscheiden. Das Zusammenspiel aus Risikomanagement, Business Continuity Management, Alarmierung und Krisenmanagement wird mehr denn je zum Erfolgsfaktor für Unternehmen.

TREND REPORT: War das Bewusstsein dafür Anfang der 2000er schon vorhanden?

F24: Jein. Potenzielle Kunden vom Bedarf für software-basierte Alarmierungssysteme und unserem Angebot zu überzeugen, war zu Beginn nicht ganz einfach – so erzählt es unser Gründer Christian Götz. In den Nullerjahren begegneten viele der Idee software-basierter Lösungen noch mit Skepsis. Eine technologische Lösung dieser Art, und dann auch noch „as-a-Service“ war ja wirklich Neuland und ein bahnbrechender Schritt. Da waren wir Pionier nicht nur in Deutschland, sondern auch europaweit. Am Ende war der erste Kunde direkt ein großer Account, der auch bis heute noch zu unserem Kundenstamm gehört: Der Flughafen Köln-Bonn.

TREND REPORT: Heute zählen Sie gut die Hälfte der DAX 40 Unternehmen und mehr als 40 Prozent der STOXX Europe 50 Unternehmen zu Ihren Kunden. Seit 25 Jahren treibt Sie schon das Thema Resilienz. Welche Erfahrungen haben Sie in dieser Zeit gesammelt?

F24: Eine der wichtigsten Erkenntnisse ist: Krisen verlaufen nie nach Schema F. Ob Cyberangriff, Naturkatastrophe oder Produktionsausfall – Unternehmen müssen flexibel reagieren können. Deshalb setzen wir bei unseren Lösungen auf Automatisierung, aber auch auf intuitive Bedienbarkeit. Denn in einer Stresssituation zählt jede Sekunde. Wir haben aus vielen realen Einsätzen gelernt, was funktioniert und was nicht. Diese Erkenntnisse fließen neben unserer langjährigen Erfahrung bei der Umsetzung von Sicherheitsrichtlinien in unsere Plattform-Lösung ein.

TREND REPORT: Zum Abschluss noch ein Tipp bitte: Was müssen Unternehmen tun, um sich besser auf Cybervorfälle vorzubereiten?

F24: Erstens: Sensibilisieren Sie Ihre Mitarbeiter regelmäßig für Cybersicherheitsrisiken. Zweitens: Definieren Sie klare Notfallprozesse und testen Sie diese in regelmäßigen Übungen. Drittens: Nutzen Sie digitale Tools, um im Ernstfall schnell und effizient handeln zu können. NIS-2 mag wie eine regulatorische Hürde erscheinen, aber letztlich geht es darum, die eigene Widerstandsfähigkeit zu stärken – und das ist für jedes Unternehmen von Vorteil.

TREND REPORT: Vielen Dank für das Gespräch.

 

Über F24:

F24 ist der führende Software-as-a-Service (SaaS) Anbieter Resilienz in Europa. Die digitalen Lösungen unterstützen Kunden entlang ihrer gesamten Wertschöpfungskette – von der hochvolumigen Geschäftskommunikation bis hin zu digitalen Lösungen im Bereich Governance, Risk und Compliance (GRC).

https://f24.com/de/

 

Über die Autorin

Eske Ofner ist Expertin im Bereich Alarmierung und Krisenmanagement und Head of Sales bei F24, dem europaweit führenden Software-as-a-Service-Anbieter für Resilienz.


Bildnachweis: © F24 AG

Trump und Musk suchen das US-Gold, wo ist das deutsche Gold?

Auszug aus dem Marktkommentar von Markus Blaschzok, Chefanalyst der SOLIT Gruppe

Der Goldpreis ist in dieser Woche leicht auf aktuell 2.913 US-Dollar je Feinunze gefallen, wobei der Aufwärtstrend kurzfristig getestet wurde. Es gelang nicht, die psychologisch wichtige Marke von 3.000 US-Dollar zu erreichen, was als Warnsignal gilt. Viele Investoren nehmen Gewinne mit, was den Preis drückt. Silber ist ebenfalls gefallen, von 33,30 US-Dollar auf 31,73 US-Dollar, was die Schwäche des Marktes zeigt. Sollte sich die Korrektur beim Goldpreis fortsetzen, dürfte Silber womöglich sogar stärker weiter korrigieren. Der kurzfristige Aufwärtstrend bei Silber wurde aktuell bereits gebrochen, was ein kurzfristiges Warnsignal ist.

Bisher scheiterte der Goldpreis an der runden Marke von 3.000 US-Dollar

Trump und Musk planen Inspektion der Goldbestände in Fort Knox

Am vergangenen Wochenende bekräftigte Donald Trump auf einer Veranstaltung seine Absicht, gemeinsam mit Elon Musk das Gold in Fort Knox zu inspizieren und einer Prüfung zu unterziehen. Zudem scheint sich eine ähnliche Überprüfung für die Federal Reserve anzubahnen.

Wäre es nicht schrecklich, wenn wir die Türen öffnen und kein Gold mehr da wäre?“ fragte Trump.

US-Senator Rand Paul veröffentlichte am vergangenen Freitag einen Brief an Scott Bessent, in dem er offiziell eine Prüfung des Goldes in Fort Knox beantragte. Laut Paul wurde die dort gelagerte Hälfte der gesamten US-Goldreserven seit 1974 keiner offiziellen Überprüfung mehr unterzogen. Es gibt sogar historisches Filmmaterial von der letzten Öffnung der Tresore im Jahr 1974, das belegt, dass damals tatsächlich Gold vorhanden war. Doch die Frage bleibt: Wie sieht es heute aus?

Elon Musk äußerte sich ebenfalls zum Thema Fort Knox und betonte, dass das dort gelagerte Gold öffentliches Eigentum sei – und jeder Bürger das Recht habe, es zu sehen.

Womöglich keine vollständige Prüfung

Neben der geplanten Überprüfung in Fort Knox könnte auch das Gold der Federal Reserve einer Inspektion unterzogen werden. Das New Yorker Goldlager der Fed soll über 13 Millionen Feinunzen Gold enthalten. Kritiker befürchten jedoch, dass Gold einfach von anderen Standorten nach Fort Knox verlegt werden könnte, um eine vorübergehende Vollständigkeit vorzutäuschen.

Die Vereinigten Staaten besitzen insgesamt etwa 8.133,5 Tonnen Gold, was die weltweit größte nationale Goldreserve darstellt. Diese Menge hat sich seit Jahrzehnten kaum verändert, da die USA weder bedeutende Käufe noch Verkäufe von Gold tätigen. Die Lagerung erfolgt vor allem in Fort Knox (4.580 Tonnen), West Point (1.700 Tonnen) und Denver (1.364 Tonnen). Die Federal Reserve Bank of New York verwahrt hingegen fast ausschließlich ausländisches Gold (6.331 Tonnen) und lediglich 418 Tonnen US-Gold.

Es gibt zudem Spekulationen über einen möglichen geheimen Tunnel zwischen den Tresoren der Federal Reserve in New York und denen der JP Morgan Bank, die sich nur durch eine Straße getrennt gegenüberliegen. In den letzten Jahren wurden große Mengen Golds aus London und der Schweiz in die USA transportiert. Besonders seit der US-Wahl gab es massive Goldverlagerungen aus London nach New York – mysteriöse Käufer trieben den Goldpreis kürzlich auf fast 3.000 Dollar.

Sollte sich herausstellen, dass das Gold in Fort Knox oder der Federal Reserve nicht mehr im Besitz der USA ist, sondern als Sicherheit für andere Verpflichtungen hinterlegt wurde, wäre das ein politischer und wirtschaftlicher Skandal. Ob das Gold tatsächlich noch dort ist und wem es wirklich gehört, könnte in den kommenden Wochen geklärt werden – jedoch ist nicht zu erwarten, dass dies zu einem großen Skandal führen wird.

Aufgrund des zunehmenden Drucks für eine Überprüfung der Reserven stehen Trump und Musk unter Zugzwang. Sie müssen nun eine öffentlichkeitswirksame Inspektion durchführen. Falls sich herausstellen sollte, dass die Bestände teilweise fehlen, weil sie beispielsweise verliehen wurden, dürfte es wohl im Eigeninteresse von Trump und Musk liegen, dieses Geheimnis zu bewahren. Ein öffentliches Bekanntwerden könnte starke Auswirkungen auf den Goldpreis, den US-Dollar und die Inflation haben. Dies könnte wiederum steigende Zinsen nach sich ziehen und eine bereits angeschlagene US-Wirtschaft weiter belasten – was letztlich auch Trumps wirtschaftspolitischen Erfolg gefährden würde.

Sollte Gold fehlen, gäbe es zahlreiche Möglichkeiten, um die Lücken vorübergehend zu füllen – etwa durch die Verlagerung von Gold aus ausländischen Beständen oder aus den Lagern in West Point oder Denver. Es ist daher denkbar, dass eine Inspektion unter medialer Begleitung organisiert wird, um sicherzustellen, dass das Gold zum Zeitpunkt der Überprüfung vollständig erscheint. Eine tatsächlich lückenlose Kontrolle aller Lagerstätten, inklusive der ausländischen Bestände, wäre notwendig, um eine Manipulation auszuschließen.

Wo ist das deutsche Bundesbank-Gold?

Die deutschen Goldreserven entstanden in den 1950er und 1960er Jahren durch die Exportüberschüsse der Bundesrepublik, insbesondere in die USA. Damals wurde der US-Dollar im Bretton-Woods-System zu einem festen Kurs von 35 US-Dollar pro Feinunze Gold umgetauscht, wodurch die Bundesbank bis 1971 über 3.400 Tonnen Gold ansammelte. Ein Großteil dieses Bestands wurde in wichtigen Finanzzentren wie New York, London und Paris gelagert, um internationale Geschäfte abzusichern.

Nach dem Ende des Goldstandards 1971 wurde die Notwendigkeit dieser Lagerung zunehmend hinterfragt. Während die Bundesbank lange an der Praxis festhielt, verstärkten sich nach der Finanzkrise 2008 Forderungen nach einer Rückführung der deutschen Goldreserven. Kritiker argumentierten, dass das Gold im Ausland dem politischen Zugriff unterliegen könnte. Infolgedessen holte die Bundesbank zwischen 2013 und 2017 674 Tonnen Gold aus New York und Paris zurück. Dennoch befinden sich weiterhin 1.236 Tonnen in New York und 432 Tonnen in London, was fast 50 % der deutschen Goldreserven ausmacht. Skeptiker befürchten, dass Deutschland im Krisenfall nicht uneingeschränkt über diese Bestände verfügen könnte.

Ein zentrales Argument der Skeptiker ist, dass das deutsche Gold möglicherweise nie vollständig in den Tresoren der Federal Reserve Bank of New York (FRBNY) eingelagert wurde. Deutschland stand in den 1950er Jahren als besiegter und besetzter Staat unter Kontrolle der USA, weshalb fraglich ist, ob solch große Mengen tatsächlich dort verwahrt wurden. Zudem ließ sich die Bundesrepublik über Jahrzehnte keinen einzigen Barren physisch nachweisen, was Zweifel an der tatsächlichen Existenz des Goldes aufkommen ließ.

Ein weiteres Indiz für diese Skepsis ist die lange Dauer der Repatriierung: Zwischen 2013 und 2017 wurden nur 300 Tonnen aus den USA zurückgeführt – eine geringe Menge, wenn tatsächlich 1.536 Tonnen dort lagerten. Wenn das Gold jederzeit verfügbar gewesen wäre, hätte der Transport schneller erfolgen können. Doch die Bundesbank erklärte, dass man den Prozess nicht „überstürzen“ wolle – eine Formulierung, die womöglich auf eine nachträgliche Beschaffung hindeutet. Zudem gibt es keine öffentlich zugänglichen Beweise, dass die FRBNY deutsche Goldbarren mit klarer Seriennummer an die Bundesbank übergab. Erst 2015 veröffentlichte die Bundesbank eine Bestandsliste – Jahrzehnte nach der ersten Einlagerung.

Diese Unsicherheiten verstärken die Zweifel, insbesondere angesichts historischer Fälle, in denen die USA oder Großbritannien Gold anderer Staaten blockierten. So verweigerte die Bank of England 2019 die Herausgabe venezolanischer Goldreserven. 2022 wurden etwa 300 Milliarden US-Dollar an russischen Vermögenswerten, darunter auch Goldbestände, in Europa, den USA und Großbritannien eingefroren. Womöglich befindet sich die Bundesrepublik Deutschland in einer ähnlichen Lage, da das Gold möglicherweise nie vollständig existierte oder über Jahrzehnte anderweitig genutzt wurde. Sollte dies zutreffen, wäre das offizielle Narrativ über die deutsche Goldlagerung nichts weiter als eine diplomatische Fassade, um das Vertrauen in die Bundesbank und die Finanzmärkte zu wahren. Ein möglicher Verkauf der deutschen Goldreserven in der Zukunft könnte als eine strategische Entscheidung verkauft werden, um Staatsschulden zu reduzieren, wodurch eine genaue Überprüfung der tatsächlichen Bestände dauerhaft vermieden werden könnte.

Schwache Gegenargumente

Die Verfechter der Existenz der Goldbestände behaupten, dass die lange Dauer der Repatriierung zwischen 2013 und 2017 unter anderem auf den Ausbau der Tresorräume in Deutschland zurückzuführen sei. Diese mussten vermeintlich erst den hohen Sicherheitsstandards entsprechend ausgebaut werden, um das zusätzliche Gold aufnehmen zu können. 674 Tonnen Gold nehmen jedoch nur etwa 35 m³ Platz ein – das ist weniger als ein kleiner LKW-Laderaum. Aufgrund der hohen Dichte von Gold wäre es also physisch problemlos möglich gewesen, solche Mengen sicher zu lagern oder zu transportieren.

Ein weiteres Argument besagt, dass viele der zurückgeholten Goldbarren vor dem Transport angeblich umgeschmolzen werden mussten, da sie nicht den von der Bundesbank geforderten Standards entsprachen. Dies soll erklären, warum die Rückführung mehr Zeit in Anspruch nahm. Allerdings spricht dagegen, dass allein die Schweiz über Raffineriekapazitäten von bis zu 3.000 Tonnen Gold pro Jahr verfügt. Das Gold hätte somit jederzeit problemlos in Europa umgeschmolzen werden können, weshalb auch dieses Argument wenig stichhaltig erscheint.

Letztlich bleibt nur das Argument der 2015 von der Bundesbank veröffentlichten Barrenliste mit über 110.000 Barren, die keine nachweisbaren logischen Fehler enthielt und seither auf der Website der Bundesbank einsehbar ist und jährlich aktualisiert wird.

Die herrschende Skepsis in Deutschland sowie in den USA scheint berechtigt zu sein. Ich glaube jedoch nicht, dass der Besuch von Trump und Musk einen möglichen Betrug aufdecken wird. Im Gegenteil könnte dieser mediale Event dazu genutzt werden, um die offizielle Geschichte zu untermauern.

Steht die Bundesbank nach einem Verlust von 20 Mrd. Euro am finanziellen Abgrund?

Die Deutsche Bundesbank verzeichnete für das Jahr 2024 einen historischen Bilanzverlust von 19,2 Milliarden Euro. Ohne die Auflösung der verbliebenen Rücklagen hätte das Minus sogar fast 20 Milliarden Euro erreicht. Es ist das erste Mal seit 1979, dass die Bundesbank Verluste schreibt – und zugleich der größte finanzielle Rückschlag in ihrer Geschichte. Diese Entwicklung unterstreicht die drastischen Folgen der expansiven Geldpolitik der vergangenen Jahre und wirft selbst in der Öffentlichkeit nun ernste Fragen zur langfristigen Stabilität des Euro-Systems auf.

Letzte Woche hatte bereits die Europäische Zentralbank (EZB) mitgeteilt, 2024 einen Verlust von knapp 8 Milliarden Euro erlitten zu haben. Vor allem das deutsche Gold rettet die Bundesbank aktuell vor einem Totalschaden. Allein im Geschäftsjahr 2024 wertete das deutsche Gold um beeindruckende 69 Milliarden Euro auf. Wäre dieses sprichwörtliche Relikt in der Bilanz der Bundesbank nicht vorhanden, hätten der Euro und die damit verbundenen Rettungsmaßnahmen die einst so angesehene Institution spätestens jetzt in den finanziellen Ruin getrieben. Die expansiven geldpolitischen Maßnahmen der Vergangenheit – insbesondere das von Mario Draghi propagierte „Whatever it takes“ – präsentieren nun ihre teure Rechnung. Diese Rechnung ist mittlerweile so hoch, dass selbst die Bundesbank sie nicht mehr begleichen kann. Ein privatwirtschaftliches Unternehmen müsste in einer solchen Situation Insolvenz anmelden. Die Bundesbank jedoch verschleiert das weit negative Eigenkapital durch einen sogenannten Verlustvortrag, der de facto eine finanzielle Notlage kaschiert.

Hauptursache dieser Verluste sind die enormen Wertpapierkäufe der vergangenen Jahre, die zu einer massiven Überschussliquidität führten. Während die Notenbanken große Mengen niedrig verzinster Staatsanleihen erworben haben, müssen sie die kurzfristigen Einlagen der Geschäftsbanken nun zu erheblich höheren Zinssätzen verzinsen. Dies führt zu einer finanziellen Schieflage, die langfristig die gesamte Stabilität der Währungsunion gefährden könnte.

Der Euro am Scheideweg – Das erneute Versagen der Notenbanken

Ein entschlossenes Umsteuern der Europäischen Zentralbank (EZB) und der angeschlossenen Notenbanken wäre dringend geboten. Vor allem die Veräußerung der rechtswidrig gehaltenen Anleiheportfolios sollte sofort in Angriff genommen werden. Doch ein solcher Kurswechsel ist im aktuellen Eurosystem kaum vorstellbar. Mittelfristig wird der Euro daher scheitern und in einem solchen Szenario wird Deutschlands Gold, das womöglich nicht vollständig existiert, erneut eine entscheidende Rolle spielen.

Die Österreichische Schule der Nationalökonomie argumentiert, dass staatliche Eingriffe in Geld- und Finanzmärkte langfristig mehr Schaden anrichten als Nutzen bringen. Notenbanken, die durch künstlich niedrige Zinsen und expansive Geldpolitik Marktmechanismen verzerren, führen zwangsläufig zu Blasenbildungen und Finanzkrisen. Statt wirtschaftliche Stabilität zu gewährleisten, untergraben sie die Kaufkraft des Geldes und schaffen Fehlanreize, die nachhaltiges Wachstum behindern.

Daher betrachtet die Österreichische Schule die Existenz von Notenbanken als überflüssig und sogar schädlich für eine stabile und prosperierende Wirtschaft. Ein freier Markt ohne staatliche Eingriffe würde durch das Zusammenspiel von Angebot und Nachfrage für eine natürliche Geldwertstabilität sorgen. Historische Beispiele, insbesondere die Zeit des Goldstandards von 1871 bis 1914, zeigen, dass wirtschaftlicher Wohlstand ohne zentrale Steuerung durch Notenbanken möglich ist. Sollte das Euro-Experiment scheitern, wäre eine Rückkehr zu einem durch Gold gedeckten Währungssystem, das staatliche Manipulation von Geldmengen und Zinssätzen verhindert, eine notwendige Konsequenz.

Da das deutsche Gold womöglich nicht gänzlich vorhanden ist, sollte man seine Altersvorsorge nicht dem Staat überlassen, sondern selbst in inflationsgeschützte Vermögenswerte wie Gold und Silber investieren, solange der Euro noch einen Restwert besitzt.

Der Euro hat gegenüber Gold in den letzten 25 Jahren um 90 % abgewertet – eine ernüchternde Bilanz für die Geldpolitik der Europäischen Zentralbank

 Technische Analyse zu Platin: Platinpreis keilt sich zunehmend ein – wann erfolgt der Ausbruch?

Terminmarkt: CoT-Report

Der CoT-Report wird immer freitags seitens der US-Terminmarktaufsicht (CFTC) veröffentlicht, wobei der Stichtag der Datenerhebung der Schlusskurs vom Dienstag ist. Die CoT-Daten werden also immer mit einer Verzögerung von drei Tagen veröffentlicht. Premium Abonnenten von Blaschzok Research erhalten vor Handelsschluss am Freitag ein Blitzupdate mit Analysen zu Gold, Silber und Platin. Die CoT-Daten ermöglichen einen Blick in die Zukunft, da sie einerseits ein Sentiment-Indikator sind und andererseits eine gute Einschätzung des Angebots und der Nachfrage am physischen Markt ermöglichen. Mit ihnen hat man einen Vorteil im Trading am Rohstoffmarkt.

CoT-Daten für Platin vom 21. Februar

Der Platinpreis fiel zur Vorwoche um 27 US-Dollar, während die Spekulanten mit 1 Tsd. Kontrakten Short gingen. Das ist nicht viel und zeigt eine minimale Schwäche im Markt. Der CoT-Index verbesserte sich dementsprechend nur um 2 Punkte auf 31 Punkte, während sich der CoT-Index, um das Open Interest adjustiert, um 6 Punkte auf 34 Punkte verbesserte.

Insgesamt bleiben die Terminmarktdaten weiterhin im bärischen Bereich, auch wenn sich in der letzten Woche zumindest eine leichte Verbesserung zeigte. Im letzten Monat waren die Daten jedoch neutral bis leicht schwach, was angesichts des starken Anstiegs des Goldpreises wenig überrascht.

Sollte der Goldpreis die Marke von 3.000 US-Dollar überwinden, könnte der Platinpreis kurzfristig auf 1.100 US-Dollar ansteigen. Dies könnte dann eine sehr gute Short-Chance bieten, besonders wenn der Goldpreis anschließend wieder eine Korrektur einleitet.

Es ist möglich, dass der Markt zunächst die 3.000 US-Dollar-Marke im Gold „abarbeitet“, bevor eine Korrektur einsetzten könnte. Sollte dies eintreten, würde sich im Bereich von 1.100 US-Dollar bei Platin ein stark überkaufter Markt zeigen, der eine attraktive Short-Möglichkeit bieten würde.

Mittelfristiger Ausblick

Seit anderthalb Jahren handelt der Platinpreis in einer engen Handelsspanne von etwa 150 US-Dollar, wobei die CoT-Daten (Commitments of Traders) bereits frühzeitig auf diese trendlose Phase hinwiesen. Angesichts dieser Signale habe ich seitdem dazu geraten, eine vorsichtige und abwartende Haltung einzunehmen, da sich keine guten Chancen ergaben für mittelfristige Investments. Lediglich Daytrader fanden in den Preisspitzen immer wieder neue Chancen für kurzweilige Short-Trades.

Trotz der historischen Rallye des Goldpreises konnte der Platinpreis im letzten Jahr praktisch nicht davon profitieren. Im Gegenteil herrschte in diesem Zeitraum vorwiegend ein leichtes Überangebot, das in Verbindung mit einer drohenden Rezession weiterhin die Gefahr eines starken Abverkaufs auf 550 US-Dollar birgt. Auch am Terminmarkt wäre aktuell noch weiteres Abwärtspotenzial vorhanden.

Solange die Notenbanken keine neuen QE-Programme ankündigen, überwiegen weiterhin die Risiken am Platinmarkt auf kurz bis mittelfristige Sicht. Langfristig könnten jedoch bestimmte Faktoren die Wende bringen. Ein drastischer Preisrückgang infolge einer Rezession, gepaart mit neuen QE-Programmen (quantitative Lockerung) zur Bekämpfung von Deflation oder größeren wirtschaftlichen oder politischen Krisen, würde die Chance für einen Kauf auf mittel- bis langfristige Sicht bieten. Erst solche Entwicklungen würden ein klares Signal für eine nachhaltige Erholung des Platinpreises senden. Bis dahin bleibt Vorsicht geboten.

Kurzfristige Technische Analyse

Obwohl der Goldpreis zuletzt noch einmal ansteigen konnte, blieb der Platinpreis nahezu unverändert, wobei der Terminmarkt aktuell bereits wieder leicht überkauft ist. Im letzten Jahr war jeder Preisanstieg eine erneute Chance für einen Short-Trade. Der Platinpreis reagierte nicht mit auf einen

Anstieg des Goldpreises, doch könnte dieser sehr wohl mit einer Korrektur des Goldpreises fallen, insbesondere dann, wenn dieser sich in einem deflationären Umfeld einer Rezession abspielt.

Die enge Handelsspanne von gerade einmal 150 US-Dollar, die wir seit über einem Jahr am Platinmarkt haben, brachte nur sehr wenige Tradingmöglichkeiten. Wie folgender Chart zeigt, hatten wir in all den Jahren davor immer gute Swing-Trading-Signale auf der Long- und der Shortseite. Seit dem Beginn der Goldrallye bleiben diese Signale jedoch aus und nur Daytrader fanden kurzweilige Chancen in diesem Markt. Man sollte nicht handeln, wenn man keinen Edge (Vorteil) im Markt hat und es keine gute oder sehr gute Chance auf sichere Gewinne gibt. Ich riet im letzten Jahr zwar stets dazu, die Preisspitzen am Platinmarkt zu shorten, doch waren dies lediglich Signale für Daytrader. Ein gutes Swing-Trading Signal auf mittelfristige Sicht gab es jedoch nie.

Der Preis keilt sich weiterhin zwischen 900 US-Dollar auf der Unterseite und etwa 1.050 US-Dollar auf der Oberseite ein. Eine längst überfällige Rezession würde den Preis stark unter Druck bringen, wogegen geldpolitische Eingriffe zu einem Ausbruch darüber führen könnten. Erst nach einem Einbruch oder nach einem starken irrationalen Anstieg würde es wieder eine gute Chance für einen Long- bzw. Shorttrade geben. Bis dahin können kurzfristig agierende Trader Preisspitzen nach Trendbrüchen shorten. Mehr Chancen gibt dieser Markt aktuell, ebenso wie im letzten Jahr, nicht her.

Langfristige Analyse

Platin könnte langfristig im Bereich zwischen 800 und 500 US-Dollar eine stabile Unterstützungszone finden. Für Anleger mit einem mittel- bis langfristigen Anlagehorizont bieten Rücksetzer in diese Region attraktive Kaufgelegenheiten. Auch kurzfristig orientierte Trader können hier auf ein interessantes Chance-Risiko-Verhältnis stoßen – vorausgesetzt, es ergibt sich ein klares Handelssignal, wenn der Markt stark überverkauft ist.

Historische Daten zeigen, dass Rezessionen häufig mit abrupten, kurzfristigen Rückgängen der Platin- und Palladiumpreise einhergehen. Daher ist es für kurzfristige Händler essenziell, eine konsequente Stop-Loss-Strategie anzuwenden. Sollte der Preis in einer Rezession oder infolge massiver Verkaufswellen auf 600 US-Dollar absinken, würde dies trotz der panikartigen Marktbewegung eine Gelegenheit für antizyklische Käufe darstellen.

Ein möglicher Katalysator für steigende Platinpreise könnte eine deutliche Verknappung des Angebots sein – beispielsweise durch eine Energiekrise in Südafrika, die sich durch politische Unsicherheiten in dem zunehmend instabilen Land weiter verschärfen könnte. Solche Entwicklungen sind jedoch schwer vorherzusagen, während das Risiko einer globalen Rezession deutlich greifbarer ist.

Sollten die Notenbanken als Reaktion auf eine Rezession oder externe Schocks geldpolitische Lockerungsmaßnahmen wie neue QE-Programme ergreifen, könnten sich daraus klare Aufwärtschancen für Platin ergeben. Allerdings ist der optimale Zeitpunkt für ein Engagement auf steigende Preise erst dann gegeben, wenn solche expansiven Maßnahmen tatsächlich angekündigt werden. Bis dahin bleibt Vorsicht geboten, da eine bevorstehende Rezession den Platinpreis weiter unter Druck setzen könnte.

Wie in der Vergangenheit ist bei einer Rezession ein nochmaliger starker Preiseinbruch möglich, es sei denn, es gibt davor schon ein neues QE-Programm

Zum Autor:
Markus Blaschzok, Dipl.-Betriebswirt (FH), CFTe, ist ein Analyst, Trader sowie Ökonom der Österreichischen Schule der Nationalökonomie. Seit 2009 publiziert er einen bekannten wöchentlichen Marktkommentar mit dem Schwerpunkt auf Edelmetalle und Rohstoffe sowie Austrian Economics. Neben seinen Analysen als Chefökonom für die SOLIT Gruppe in Wiesbaden, ist er seit 2010 Gründer und Inhaber von Blaschzok Research. Er hält Vorträge zu den Themen der Österreichischen Schule, Trading an den Finanzmärkten und ist bekannt für seine treffenden Prognosen. In 2019 hatte er bereits die aktuelle Stagflation, die Zinswende und die Reaktion der Märkte darauf in Artikeln, Vorträgen und Videos als einsamer Rufer in der Wüste faktisch nahezu exakt vorhergesagt.

 

Ominibus-Verfahrens für weniger EU-Regulierungen

Heute will die EU-Kommission eine sogenannte Omnibus-Verordnung vorstellen, um Bürokratie abzubauen und die Umsetzung von Gesetzen des Green Deals zu vereinfachen.

Gastbeitrag von Marie-Christine Ostermann:

„Endlich wird Frau von der Leyen im Bürokratieabbau konkret und knöpft sich mit CSDDD, CSRD und Taxonomie drei schlechtgemachte Vorschriften der jüngeren Vergangenheit vor. Das ist gut. Ihre vorgeschlagenen Vereinfachungen gehen zumindest in die richtige Richtung. Der Wegfall zivilrechtlicher Haftung und die Beschränkung auf direkte Lieferbeziehungen brächten substanzielle Verbesserungen. Mehr leider aber auch nicht, denn aus Mist ist halt kein Gold zu machen.

  Jegliche Abstriche aber an diesem überlebensnotwendigen Bürokratieabbau muss Frau von der Leyen mit Führungsstärke abwehren. Ihr Mandat und Auftrag sind eindeutig: Weg mit den selbstangelegten Fesseln. Gelingt ihr dies durchzusetzen jetzt nicht, geht die Investitions- und Unternehmensflucht aus Europa ungebremst weiter.

Vor den Beratungen im EU-Parlament und im Rat muss allen in Brüssel eines klar sein: Die praxisfernen Detailregulierung haben den Wirtschaftsstandort Europa in den vergangenen fünf Jahre schwer beschädigt. Sie waren gespeist aus massivem Misstrauen gegenüber allen europäischen Unternehmen.

Das jetzt vorgelegte Omnibusverfahren muss als Auftakt für weitere Anpassungen von Vorschriften an die Wirklichkeit in den Mitgliedstaaten und Betrieben zünden. Dies gilt nicht nur für den Bestand von Regulierungen, sondern auch für die ungebremste Produktion immer neuer widersinniger Vorschriften, wie etwa der Green Claims Directive.

Jede Verwässerung des Bürokratieabbaus – vor allem durch das Parlament – wäre jetzt fatal. Der bloße Aufschub von Stichtagen oder die Anhebung von betroffenen Unternehmensgrößen machen schlecht gemachte Vorschriften weder schlanker noch besser. Das Problem der Abwälzung von Berichtpflichten von großen Unternehmen auf kleinere und mittelgroße Zulieferer bliebe weiter bestehen.

Für die Sozialdemokraten und deren deutsche Vertreter bietet sich hierbei vielleicht die letzte Gelegenheit, sich aus der grünen ideologischen Umklammerung zu lösen und endlich europäische Politik für Arbeitnehmer und Arbeitsplätze in Europa zu machen. Eine Ablehnung der Erleichterungen wäre ein schwerer Schlag für alle wichtigen EU-Projekte.“

Gastbeitrag von Marie-Christine Ostermann, Präsidentin des Verbands DIE FAMILIENUNTERNEHMER:

Vermögensteuer im Faktencheck

Gastbeitrag von Prof. Dr. Christoph Juhn

Notwendig für die soziale Gerechtigkeit oder Ausdruck einer Neiddebatte und verfassungswidrig?

Reiche werden reicher, Arme werden ärmer – und das auch hierzulande. So oder so ähnlich lassen sich unter anderem die Ergebnisse einer BCG-Untersuchung 2023, einer Studie der Schweizer Bank UBS und von Oxfams Bericht zur sozialen Ungerechtigkeit 2024 zusammenfassen. Kein Wunder also, dass laut ARD-DeutschlandTrend gut drei Viertel der Deutschen die Unterschiede zwischen Arm und Reich als größtes Problem für das Zusammenleben in Deutschland sehen. Eine Vermögensteuer, wie sie etwa Thomas Piketty in Kapital und Ideologie forderte, könnte Ungleichheiten regulieren. Seit 1997 wird eine solche Abgabe jedoch in der Bundesrepublik pausiert. Stattdessen belasten Steuern und Abgaben hierzulande – so die OECD – vor allem Arbeitseinkommen, was laut Bericht vor allem Familien trifft und nicht zuletzt auch Fehlanreize schaffen kann. Kein Wunder, dass sich vergangenen Sommer in einer Forsa-Umfrage eine Mehrheit der Menschen in Deutschland (62 Prozent) für die Wiedereinführung der Vermögensteuer ausgesprochen hat. Aber geht das überhaupt so einfach bei einer vermeintlich verfassungswidrigen Steuer?

Verhärtete Fronten

Bei der Vermögensteuer gibt es keine halben Sachen – in manch hitzigen Debatten noch nicht einmal Nuanciertheit. Es gibt Befürworter, die im Sinne der sozialen Gerechtigkeit, der Vermögensumverteilung und der Reichenbesteuerung auf eine Wiedereinführung pochen – etwa um klamme Länder und Gemeinden zu entlasten. Schließlich führte der Verzicht auf die 1997 ausgesetzte Vermögensteuer bislang zu 380 Milliarden Euro an Mindereinnahmen. Gleichzeitig steigt nicht nur das Privatvermögen der Deutschen jährlich – 2024 auf insgesamt 9 Billionen Euro –, auch die Ungleichheit nimmt zu. Mit Berufung auf EZB-Daten stellt das Bundesministerium für Wirtschaft und Klimaschutz 2023 fest, dass die oberen 10 Prozent der Bevölkerung rund 61,2  Prozent des Gesamtvermögens besitzen, während die unteren 50  lediglich 2,3 Prozent halten.

Auf der anderen Seite stehen die Gegner, die mit Steuer- oder Kapitalflucht und dem internationalen Steuerwettbewerb argumentieren. Und empirische Studien scheinen das zu belegen. Ein Beispiel aus der Schweiz zeigt, dass eine Erhöhung der Vermögensteuer um 0,1 Prozentpunkte zu einem Rückgang des ausgewiesenen Vermögens um 3,4 Prozent führen kann, was auf Kapitalabflüsse hindeutet. Henley & Partners sprach in diesem Zusammenhang von einer beispiellosen Vermögens- und Investitionsmigration, die vor allem für Niedrigsteuerländer wie die Vereinigten Arabischen Emirate eine Chance darstellt. Allein im letzten Jahr, so die Studienmacher, sollen sich 6.700 Millionäre weltweit auf den Weg in dieses Steuerparadies gemacht haben.

Hinzu kommt speziell hierzulande der bürokratische Aufwand, der laut ifo Institut jährlich bis zu 146 Milliarden Euro an Wirtschaftsleistung verschlingt. Die zentrale Herausforderung? Eine genaue und gerechte Bewertung von Vermögenswerten erhöht den administrativen Aufwand und sorgt aufgrund unterschiedlicher Modelle für Unsicherheiten, so das Argument des ifo Instituts. Entsprechend lehnen die Gegner der Vermögensteuer sie kategorisch als Ausdruck einer Neiddebatte, als Zeichen überbordender Bürokratie und überhaupt als verfassungswidrig ab.

Vermögensteuer vs. Verfassung

Vor allem der vermeintliche Verstoß gegen das Grundgesetz wird in Debatten häufig als Totschlagargument vorgebacht – rhetorisch wirksam, aber nicht 100 Prozent faktisch korrekt. 1995 entschied das Bundesverfassungsgericht in einem konkreten Fall – nicht über das Gesetz selbst. Dabei ging es inhaltlich um die steuerliche Ungleichbehandlung von bestimmten Vermögenswerten. Steuerpflichtige, die Vermögensteuer auf Unternehmenswerte zahlen sollten, sahen sich gegenüber jenen benachteiligt, die Abgaben auf Immobilienwerte leisten mussten. Mit Verweis auf den Gleichbehandlungsgrundsatz aus Artikel 3 GG entschieden die Richter damals, dass die Vermögensteuer in Bezug auf die Bewertung von Immobilien verfassungswidrig sei. Der Grund: Ein veraltetes Bewertungsverfahren schuf eine Bemessungsgrundlage für Immobilienbesitz, die Werte weit unter dem Marktwert ergab. Dadurch wurden Aktien, Unternehmensbeteiligungen und andere Vermögenswerte im Verhältnis mit deutlich höheren Steuern belastet, während Immobilieninvestoren einen Vorteil genossen. An dieser Stelle hätte die Legislative das Vermögensteuergesetz an die neue Rechtsprechung anpassen müssen – etwa durch die Änderung der Bemessungsgrundlage für Immobilienwerte. Die damalige Regierung – das Kabinett Kohl V – unterließ eine solche Änderung jedoch, vor dem Hintergrund interner parteipolitischer Divergenzen, technischer und administrativer Herausforderungen sowie der sich ändernden wirtschaftlichen Rahmenbedingungen. Post Wiedervereinigung schien eine Reform des Vermögensteuergesetzes politisch zu riskant und organisatorisch zu komplex. Stattdessen wurde das Vermögensteuergesetz 1997 insgesamt als verfassungswidrig ausgesetzt und seitdem nicht mehr angewendet.

Pausiert, aber nicht gecancelt

Trotz immer wieder aufflammender Debatten verharrt die Vermögensteuergesetzgebung in der BRD seit etwa 30 Jahren in der Wartehaltung. Sie kann zwar jederzeit wieder reaktiviert werden, bisher bleibt der Pausenknopf jedoch noch gedrückt, obwohl etwa das Bewertungsgesetz in diesem Zeitraum modernisiert wurde, sodass eine der neuen Bewertungsmethoden für Immobilien Pate stehen könnte, um das Vermögensteuergesetz verfassungskonform anzupassen. Außerdem wurde kürzlich auch die Wegzugsbesteuerung mit dem Ziel verschärft, Steuervermeidung durch Abwanderung zu verhindern und versteckte Unternehmenswerte zu besteuern. Anders als bisher betrifft die Neuregelung daher nicht mehr nur im Privatvermögen gehaltene Anteile an Kapitalgesellschaften sowie Genossenschaftsanteile ab einer Beteiligungshöhe von 1 Prozent. Künftig gilt: Halten Steuerpflichtige Anteile an Investmentfonds im Privatvermögen, unterliegen die in dem Investmentanteil ruhenden stillen Reserven bei einem Wegzug aus Deutschland der Wegzugsbesteuerung. Voraussetzung dafür ist, dass der Steuerpflichtige innerhalb der letzten 5 Jahre mindestens 1 Prozent der ausgegebenen Investmentanteile gehalten hat oder die Anschaffungskosten mindestens 500.000 Euro betragen haben. Zwar ist hier das letzte Wort noch nicht gesprochen, Kritiker werfen der Regierung aber vor, die neuen Regeln würden über das Ziel hinausschießen und in der Praxis auch Fälle betreffen, die nicht missbräuchlich sind. Besonders problematisch sei die Verknüpfung mit den Anschaffungskosten, wobei grundsätzliche Zweifel bestehen, ob die neuen Vorschriften mit EU-Recht vereinbar sind.

Steuern im Standortwettbewerb

Mit Blick auf die bevorstehende Bundestagswahl fordern einige Parteien zwar die Wiedereinführung einer Vermögensteuer, allerdings muss auch die nächste Regierung abwägen. Der Eigentumsschutz (Art. 14 GG) sowie der Gleichheitsgrundsatz (Art. 3 GG) spielen hier eine wesentliche Rolle. Zudem gilt es das Prinzip der progressiven Besteuerung, das der sozialen Gerechtigkeit dient, auch im internationalen Kontext zu bewerten. Hohe Abgaben können den Anreiz zur Reinvestition von Gewinnen schwächen, was langfristig zu einer verminderten Wettbewerbsfähigkeit und zu einem Rückgang des Wirtschaftswachstums führt. Das zeigen nicht nur Studien des ifo Instituts und Berichte der OECD, sondern auch die aktuellen Zahlen des Bundesministeriums für Wirtschaft und Klimaschutz. Zum Jahresende 2024 konstatierte die Behörde, dass die hiesige Wirtschaft in der Stagnation verharrt. Das Bruttoinlandsprodukt ging im vierten Quartal um 0,1 Prozent zurück, sodass das vorläufige BIP für das Jahr 2024 einen preisbereinigten Rückgang um 0,2 Prozent aufweist. Angesichts dieser wirtschaftlichen Rahmenbedingungen braucht es also, ähnlich wie in den 1990er-Jahren, gezielte Reformen, um wirtschaftliches Wachstum zu fördern und Investitionen nicht unnötig zu erschweren. Ziel sollte es sein, einen Ausgleich zu finden, der fiskalisch notwendige Einnahmen generiert, aber zugleich Investitionsanreize und die Wettbewerbsfähigkeit sicherstellt. Neben der Prüfung der Verhältnismäßigkeit und des Grundrechtsschutzes müssen dabei auch internationale steuerrechtliche Rahmenbedingungen und die wirtschaftlichen Auswirkungen in den Mittelpunkt der Überlegungen rücken.

Weitere Informationen unter: https://www.youtube.com/watch?v=vnJBmZW7qtU

Zum Autor:

Prof. Dr. Christoph Juhn ist Professor für Steuerrecht, Steuerberater und besitzt einen Master of Laws. Seine Schwerpunkte in der Gestaltungsberatung liegen auf Umwandlungen und Umstrukturierungen, Unternehmen- und Konzernsteuerrecht, internationalem Steuerrecht, Unternehmenstransaktionen (M&A), Beratung für Berater sowie der laufenden Steuerberatung. Nachdem er 2011 seinen LL.M. an der Universität zu Köln erwarb, wurde er 2013 zum Steuerberater bestellt. Im Jahr 2020 promovierte er zum Dr. jur. im internationalen Unternehmen- & Umwandlungssteuerrecht und wurde noch im selben Jahr zum Professor für Steuerrecht an der FOM Hochschule Bonn berufen. Parallel dazu gründete er – nach Anstellungen in zwei Steuerberatungsgesellschaften – im Jahr 2015 die JUHN Partner GmbH und 2017 die JUHN BESAU GmbH. Außerdem betreibt der Steuerprofi unter @juhnsteuerberater einen erfolgreichen YouTube-Kanal.

Studie bestätigt: Gastwelt ist Treiber lebendiger Innenstädte

Studie bestätigt: Gastwelt ist Treiber lebendiger Innenstädte

  • Denkfabrik Zukunft der Gastwelt fordert gezielte politische Maßnahmen zur Stärkung der Branche
  • Appell an die nächste Bunderegierung: Wirtschaftspolitisches Impulspapier

Berlin, 19. Februar 2025 – Die aktuelle Studie „Vitale Innenstädte 2024“ des Instituts für Handelsforschung (IFH) Köln unterstreicht die wachsende Bedeutung der Gastronomie für Stadtzentren. Laut der Untersuchung, die auf knapp 69.000 Interviews in 107 deutschen Innenstädten basiert, nennen 40 Prozent der Besucher gastronomische Angebote als Hauptgrund für ihren Aufenthalt. Die Denkfabrik Zukunft der Gastwelt (DZG) sieht darin ein klares Signal: Wer über die Zukunft der Innenstädte spricht, muss die Gastwelt (Tourismus, Travel, Hospitality, Foodservice & Freizeit) als entscheidenden Faktor mitdenken.

Die Untersuchung macht deutlich, dass Restaurants, Cafés und Bars längst nicht nur ergänzende Angebote sind, sondern Innenstädten Identität und Aufenthaltsqualität geben. Zugleich besteht eine enge Wechselwirkung mit Handel, Kultur und Freizeitwirtschaft. „Die Gastwelt ist das Rückgrat lebendiger Stadtzentren, aber auch ein wirtschaftlicher Stabilitätsanker für ländliche Regionen“, sagt Dr. Marcel Klinge, Vorstandsvorsitzender der DZG. „Wer die Zukunft der Städte sichern will, muss jetzt wirtschaftliche Rahmenbedingungen verbessern.

Kurz vor der Bundestagswahl richtet die Denkfabrik deshalb einen klaren Appell an die Parteien: Die Gastwelt muss in den Koalitionsverhandlungen als zentrales wirtschafts- und gesellschaftspolitisches Thema berücksichtigt werden. Dazu gehören eine dauerhafte Reduzierung der Umsatzsteuer auf 7 Prozent für Speisen und alkoholfreie Getränke, gezielte Investitionen in gastronomische und touristische Infrastruktur sowie bessere Finanzierungsmöglichkeiten durch eine spezialisierte Förderbank. Notwendig ist zudem eine Kostenfirewall, die steigende Betriebskosten begrenzt – durch die Senkung der Stromsteuer auf den EU-Mindestwert und ein Maut-Moratorium bis 2029.

„Die 6,2 Millionen Beschäftigten der Gastwelt verdienen eine politische Stimme und verlässliche wirtschaftliche Rahmenbedingungen. Ohne entschlossenes Handeln drohen Standortverluste und wirtschaftlicher Schaden“, so Klinge. „Die Branche braucht eine klare Perspektive – Wer lebendige Kommunen und Innenstädte möchte, muss sich in den kommenden Koalitionsverhandlungen für die Gastwelt einsetzen.

+++ Zur Denkfabrik: Die 2021 gegründete Denkfabrik Zukunft der Gastwelt (DZG) vernetzt Politik, Verbände und hochkarätige Vertreter*innen aller Wertschöpfungssektoren der Tourismus-, Hospitality- und Foodservice-Industrie (wie z.B. Radeberger Gruppe, Deutsche Bahn, Unilever Food, Motel One, Transgourmet, Metro, Center Parcs, Dorint, Bioland, Dussmann, NordCap, Centro Hotels, Best Reisen, Rational, Gerolsteiner). Der interdisziplinäre Thinktank kümmert sich inhaltlich vor allem um strategische Zukunftsthemen – wie Mitarbeitergewinnung, Nachhaltigkeit, Digitalisierung und Ernährungswende – und entwickelt praxisnahe Maßnahmen zur effektiveren Krisen-Bewältigung.

Die Mitgliedsunternehmen der Denkfabrik beschäftigen zusammen über 665.000 Mitarbeitende in allen Regionen Deutschlands. +++ www.zukunft-gastwelt.de

 

Sofortprogramm für die Wohnwende gefordert

IVD-Präsident Wohltorf fordert Sofortprogramm für die Wohnwende: „Die neue Bundesregierung darf keinen Tag mehr verlieren“

Berlin, 19. Februar 2025 – „Die neue Bundesregierung muss in den ersten Wochen nach der Regierungsbildung handeln. Aufgrund der falschen und oft ideologischen Weichenstellungen der vergangenen Jahre rollt schon jetzt eine Wohnraumkrise auf uns zu, die kaum noch zu verhindern ist!“ Mit diesem eindringlichen Appell fordert Dirk Wohltorf, Präsident des Immobilienverbands Deutschland IVD, wenige Tage vor der Bundestagswahl am 23. Februar ein Sofortprogramm für eine konsequente Wohnwende.

„Selbst wenn jetzt sofort die richtigen Maßnahmen eingeleitet werden, wird sich der Wohnungsmarkt erst in zwei bis drei Jahren stabilisieren. Bis dahin stehen uns 2025 und 2026 noch die schlimmsten Jahre mit einem massiven Rückgang der Fertigstellungen bevor – das unvermeidliche ‘Tal der Tränen’“, warnt Wohltorf. Denn im vergangenen Jahr sind mit 215.900 Wohnungen noch einmal 16,8 Prozent weniger Baugenehmigungen erteilt worden als in 2023. Die Zahl der Baugenehmigungen sank damit im dritten Jahr in Folge und befindet sich auf dem niedrigsten Stand seit 2010, wie das Statistische Bundesamt jetzt mitteilte. Besonders betroffen ist der Bau von Ein- und Zweifamilienhäusern. „Der neue Bundeskanzler muss die Krise im Wohnungsbau umgehend nach Amtsübernahme zur Chefsache machen und noch im Sommer 2025 zu einem Wohn-Gipfel ins Kanzleramt einladen.“

Als Sofortmaßnahmen für mehr Wohnraum und Eigentum fordert der IVD:

„Meins statt Miete“ – Wohneigentum fördern, statt immer wieder Mietrecht!

„Die Politik muss endlich umdenken: Statt das Mietrecht einseitig zulasten der Vermieter zu regulieren, sollten wir mehr Mietern den Eigentumserwerb ermöglichen“, fordert Wohltorf. Laut einer repräsentativen Forsa-Umfrage aus dem Januar 2025 wünschen sich zwei Drittel der Mieter eine eigene Immobilie, doch vor allem die hohe Besteuerung macht den Schritt unmöglich. „Die Lösung ist klar: Grunderwerbsteuer für selbstgenutztes Wohneigentum abschaffen – finanziert durch den Bund, der hier eine Priorität in seinem Haushalt setzen muss, damit die Länder keine Einnahmeausfälle erleiden. Eigentum ist der beste Mieterschutz und die beste Altersvorsorge!“

Baustandards senken – niedrigere Baustandards gewährleisten noch immer hohen Wohnstandard

„Die Kosten für den Wohnungsbau sind in den letzten Jahren regelrecht explodiert – und das nicht wegen steigender Grundstückspreise, sondern durch immer schärfere und oft überzogene Bauvorschriften“, so Wohltorf. Der IVD fordert daher eine sofortige Rückkehr zu praxistauglichen Baustandards sowie die Wiedereinführung der EH55-Förderfähigkeit, um den Neubau wieder rentabel zu machen.

Das Bauen beschleunigen – keine verlorene Zeit mehr!

„Um den Wohnungsbau zu beschleunigen, muss die Bundesregierung dringend den geplanten ‚Bau-Turbo‘ im Rahmen der immer noch ausstehenden Novelle des Baugesetzbuchs umsetzen. Der neu eingeführte Paragraf 246e BauGB sieht vor, dass in Gebieten mit angespanntem Wohnungsmarkt Wohnbauvorhaben auch ohne gesonderten Bebauungsplan genehmigt werden können – sofern die Kommune zustimmt. Damit könnten Verfahren deutlich verkürzt und bürokratische Hürden abgebaut werden. Ohne Turbo-Tempo droht der Wohnungsbau noch weiter ins Stocken zu geraten“, sagt Wohltorf.

Wohltorf: „Jetzt oder nie – der Wohnungsmarkt steuert auf eine massive Unterversorgung zu!“

„Wenn die Bundesregierung nicht in der ersten Woche ein starkes Signal sendet, wird der Wohnungsbau endgültig einbrechen“, warnt Wohltorf. „Die Baukrise wird 2025 und 2026 mit voller Wucht zuschlagen – und was dann fehlt, kann nicht kurzfristig nachgeholt werden. Wer jetzt nicht handelt, riskiert eine jahrelange Wohnungsnot mit dramatischen Folgen für Mieter, Käufer und die gesamte Wirtschaft.“

Die vollständigen Positionen des IVD finden Sie unter: www.ivd.net/bundesverband/bundestagswahl-2025-die-10-kernforderungen-des-ivd/

Umfrage: Ingenieure fordern Innovationsschub und weniger Bürokratie

Umfrage zur Bundestagswahl im Rahmen der Initiative Zukunft Deutschland 2050

Wie kann Deutschland seine Zukunft als Innovations- und Industriestandort sichern? Der VDI hat seine rund 130.000 Mitglieder zu ihrer Einschätzung der zentralen Transformationsfelder im Zuge der Bundestagswahl 2025 befragt. Die Umfrage wurde im Rahmen der VDI-Initiative Zukunft Deutschland 2050 durchgeführt und zeigt klare Prioritäten auf: Innovationsfähigkeit stärken, Bürokratie abbauen und die industrielle Basis sichern.

Innovation muss Priorität auf der politischen Agenda haben. Unsere Mitglieder halten ein unabhängiges Expertengremium für erforderlich, welches technische Fachexpertise in die politische Entscheidungsfindung einbringt. Damit Deutschland zum Innovationsmotor wird, braucht es den Abbau von Bürokratie und die unkomplizierte Förderung von Forschung und Entwicklung sowie wettbewerbsfähige Standortfaktoren für die Produktion,“ sagt VDI-Präsident Prof. Lutz Eckstein.

Den dringendsten Handlungsbedarf für die kommende Bundesregierung zur Stärkung des Technologiestandorts Deutschlands sehen die befragten Ingenieurinnen und Ingenieure bei diesen sieben Punkten:

  • Innovationsfähigkeit fördern: 96 Prozent der Befragten sehen in einer gestärkten Innovationskraft den entscheidenden Schlüssel zur Sicherung der industriellen Basis Deutschlands.
  • Bürokratie abbauen: Über 90 Prozent der Befragten fordern eine spürbare Entlastung der Verwaltung, um Innovationen schneller auf den Markt zu bringen.
  • Energieversorgung sicherstellen: Zuverlässige und bezahlbare Energie bleibt für eine große Mehrheit der Befragten ein zentraler Standortfaktor.
  • Nachhaltige Verkehrsinfrastruktur ausbauen: Mehr als 90 Prozent der befragten VDI-Mitglieder befürworten die Sanierung und den Ausbau der Bahninfrastruktur als Schlüssel zur Mobilitätswende.
  • Fachkräftemangel bewältigen: Neben der Förderung der Vereinbarkeit von Familie und Beruf setzen die Befragten auf die Anerkennung von Berufserfahrung bei Quereinsteigenden und eine bessere Ausschöpfung des Potenzials älterer Beschäftigter. Zur Anwerbung ausländischer Fachkräfte sehen sie insbesondere Sprachkurse und betriebliche Mentoring-Programme als wirksame Maßnahmen.
  • KI-Förderung: Eine klare Mehrheit wünscht sich eine stärkere politische Förderung von Künstlicher Intelligenz (KI) in Forschung, Bildung und Weiterbildung. Der AI-Act sollte Vertrauen in europäische KI-Produkte schaffen, jedoch mit möglichst wenig Bürokratie, um international wettbewerbsfähig zu bleiben.
  • Wunsch nach faktenbasierten politischen Entscheidungen: Die Mehrheit der Ingenieurinnen und Ingenieure ist überzeugt, dass politische Entscheidungen zu oft auf Meinungen statt auf Fakten beruhen.

Mit der Umfrage, an der rund 10.000 VDI-Mitglieder teilgenommen haben, liefert der VDI einen wichtigen Impuls für die politische Diskussion und bringt die Perspektiven von Ingenieurinnen und Ingenieure aktiv in den gesellschaftlichen Dialog ein. Die Initiative Zukunft Deutschland 2050 will weiter einen Innovationskompass für ein nachhaltiges und wettbewerbsfähiges Deutschland schaffen. Diese Thematik steht auch beim Deutschen Ingenieurtag (DIT) am 15. Mai in Düsseldorf im Fokus, bei dem die multidisziplinäre VDI-Community mit Vordenkerinnen und Vordenkern aus Wirtschaft, Wissenschaft, Politik und Gesellschaft über aktuelle Herausforderungen und technische Lösungen diskutieren wird.

 

 

Fachliche Ansprechpartnerin:
Dr. Bita Fesidis, Projektleitung „Zukunft Deutschland 2050“
Telefon: +49 211 6214-649
E-Mail: fesidis@vdi.de

2025 wird Jahr der KI im Vertrieb

Interim Manager Eckhart Hilgenstock: „Die erfolgreichen Unternehmen setzen KI-Tools für das Business Development ein, die anderen wissen nicht einmal, warum sie Geschäft verlieren.“

„2025 wird sich beim Business Development die Spreu vom Weizen trennen“, sagt der Vertriebsexperte Eckhart Hilgenstock. Er führt aus: „Die erfolgreichen Unternehmen nutzen KI-Tools, um Neukunden zu gewinnen und die Zufriedenheit von Bestandskunden zu stärken. Die anderen werden Marktanteile verlieren und häufig nicht einmal die Ursachen für ihren geschäft­lichen Niedergang begreifen.“

Das Spektrum der KI-Tools, die für die Geschäftsentwicklung nützlich sind, ist breit, gibt der Vertriebs­profi seine Erfahrungen weiter. Neben den gängigen Tools wie ChatGPT, Gemini, Co-Pilot oder Claude nennt er konkret Cognism, Lavender, HeyGen, Acto, HubSpot, Apollo AI und Einstein GPT. Zudem verfügten die Systeme für Customer Relationship Management (CRM) zunehmend über nützliche KI-Funktionen, hat der Business Development-Stratege festgestellt. Vieles an der CRM-KI sei heute noch „Spielerei“, aber im Laufe dieses Jahres werde die KI-Funktionalität der CRM-Systeme „massiv zulegen“, wagt Eckhart Hilgenstock eine Prognose.

Mittelstand hinkt den Großen bei KI hinterher

Großunternehmen haben das Potenzial Künstlicher Intelligenz zur Umsatzsteigerung längst erkannt und Maßnahmen zur Umsetzung eingeleitet, weiß Eckhart Hilgenstock aus zahlreichen Projekten. „Aber beim Mittelstand hapert es häufig“ hat er feststellen müssen. Er differenziert: „Das Bewusstsein für die Bedeutung der KI ist auch im Mittelstand vorhanden, aber in vielen Fällen brennen andere Herausforderungen etwa im Bereich ESG-Reporting oder Cyberresilienz noch mehr auf den Nägeln, so dass die KI-Umsetzung nach hinten verschoben wird.“ Doch das hält Eckhart Hilgenstock für „grund­falsch“. Er ist überzeugt: „Die zukunftsorientierten Unternehmen schaffen es 2025, ihre Produktivität im Vertrieb durch Künstliche Intelligenz signifikant zu steigern und sich dadurch in vielen Fällen eine Vormachtstellung in ihrem Markt zu verschaffen.“

Eckhart Hilgenstock betont: „Die KI-Einführung im Vertrieb lohnt sich erfahrungsgemäß binnen weniger Monate – und zwar völlig losgelöst von einer eventuellen firmenweiten KI-Strategie. Wenn ein Unter­nehmen auch nur darüber nachdenkt, Künstliche Intelligenz für sich zu nutzen, dann stellt Business Development die schnellste Möglichkeit dar, davon konkret und nachweislich zu profitieren.“

Datenschutz ist die Haupthürde beim KI-Einsatz

Als Haupthürde beim KI-Einsatz für das Business Development bezeichnet der Vertriebsprofi die Datenschutz-Grundverordnung (DSGVO). Er berichtet: „Wenn ich engagiert werde für eine KI-Einführung im Vertrieb, steht zunächst einmal eine Schulung in Sachen Datenschutz an. Denn die Beschäftigten müssen verstehen, was gesetzlich erlaubt ist und was nicht – selbst, wenn es noch so verlockend ist.“ Doch auch bei strikter Beachtung der DSGVO lassen sich KI-Tools wie ein „Vertriebsturbo“ einsetzen, sagt Eckhart Hilgenstock. Er gibt Beispiele: Informationen über Kunden und Zielgruppen finden, Texte überprüfen oder formulieren, Recherchen vornehmen, Ansprechpartner herausfinden.

Neben der Identifizierung und Ansprache potenzieller Neukunden hilft die KI den Mitarbeitenden im Vertrieb vor allem auch bei der Bewältigung repetitiver Aufgaben und schafft damit mehr Freiraum für die Kerntätigkeit“, hat Eckhart Hilgenstock bei vielen Projekten festgestellt. Er betont: „Es geht in keinem meiner Projekte darum, Vertriebsbeauftragte zu ersetzen, sondern ganz im Gegenteil darum, diese effizienter, produktiver und letztlich erfolgreicher zu machen.“

Alternative Intelligenz als Sparring Partner

Einwände über die Unzulänglichkeiten von KI-Systemen lässt der Vertriebsprofi nicht gelten. Er spricht gerne von „Alternativer Intelligenz“ und erklärt: „Es geht weniger darum, ob die KI in jedem Fall alles hundertprozentig richtig weiß, sondern darum, sie für Denkanstöße zu nutzen, Szenarien durch­zuspielen, sich von Ideen inspirieren zu lassen, auf die man selbst nicht kommt, und einen Sparring Partner zum Reflektieren der eigenen Strategien an der Seite zu haben.“

Eine Ablehnung des KI-Einsatzes im Vertrieb von Seiten der Betroffenen hat Eckhart Hilgenstock eigenen Angaben zufolge in seinen Projekten noch nicht erlebt. „Ich lese natürlich von den KI-Ängsten, aber im Vertrieb werden die Chancen, dank KI beruflich erfolgreicher zu sein, offenbar deutlich höher eingeschätzt.“ Die mit Business Development Beschäftigten wollten in der Regel so konkret wie möglich wissen, wie sie KI-Tools einsetzen können, um potenzielle Neukunden zu identifizieren, sie am besten zu kontaktieren und letztlich einen Abschluss herbeizuführen. „Der Wissensdurst, die Lern­bereitschaft und die Experimentierfreudigkeit ist in Bezug auf KI-Tools überwiegend außerordentlich hoch“, hat Eckhart Hilgenstock festgestellt.

 

Eckhart Hilgenstock zählt zu den meistgefragten Interim Managern in Deutschland. Unternehmen holen ihn regelmäßig als Führungskraft auf Zeit in den Betrieb, wenn es um die Themen profitables Wachstum und Vertrieb sowie Digitalisierung und den KI-Einsatz in Organisationen geht. „Eckhart Hilgenstock gilt als Vorzeigetyp der Branche“, schrieb die WirtschaftsWoche über ihn. Seine Erfahrungen hat er u.a. gesammelt als General Manager EMEA bei Microsoft sowie zuvor als Managing Director DACH bei Lotus Development und IBM Deutschland. Eckhart Hilgenstock ist Mitglied im Diplomatic Council, einer globalen Denkfabrik mit Beraterstatus bei den Vereinten Nationen (UN)

Direktkontakt: Eckhart Hilgenstock,
https://hilgenstock-hamburg.de

Weltweit größte Cybercrime-Foren abgeschaltet

Die Generalstaatsanwaltschaft Frankfurt am Main – Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) – und das Bundeskriminalamt (BKA) sind im Zeitraum vom 28.-30.01.2025 gemeinsam mit Strafverfolgungsbehörden aus den USA, Australien, Spanien, Griechenland, Rumänien, Italien und Frankreich gegen die beiden größten Handelsplattformen für Cybercrime im Internet vorgegangen. Hierbei handelte es sich um die Webseiten „nulled.to“ und „cracked.io“, die als Foren für Cybercrime-Dienstleistungen aufgebaut waren und damit wichtige Einstiegspunkte in die als „Underground Economy“ bezeichnete Schattenwirtschaft des Phänomenbereichs Cybercrime darstellten.

Im Rahmen der international abgestimmten Operation „Talent“ unter Führung der deutschen Behörden und Beteiligung von Europol wurden insgesamt sieben Durchsuchungsmaßnahmen durchgeführt, 67 Geräte, darunter 17 Server, zwölf Accounts und zwölf kriminell genutzte Domains in zehn Ländern beschlagnahmt sowie die Plattformen abgeschaltet. Zudem wurden ein Zahlungsdienstleister sowie ein Hosting-Dienst vom Netz genommen, die unmittelbar zum Wirtschaftsgeflecht der Plattformen gehörten.

Die Webseiten „nulled.to“ und „cracked.io“ waren seit 2015 bzw. 2018 mit jeweils rund fünf Millionen registrierten Nutzerkonten die beiden größten Handelsplattformen der Underground Economy im Internet. Die Plattformen waren durch gleiche Administratoren miteinander verbunden, was sich in einem ähnlichen technischen und strukturellen Aufbau zeigte. Beide Webseiten waren als Forum organisiert, auf dem kriminelle Angebote in den Kategorien DDoS (Distributed-Denial-of-Service), Malware, Cracking- & Hackingtools oder Leaks geschaltet und abgerufen werden konnten. Häufig gehandelt wurden beispielsweise Programme, die für die Vorbereitung oder Durchführung von Hacking-Angriffen oder für die Veröffentlichung ausgespähter Daten von Institutionen und Unternehmen verwendet werden können. Zusätzlich boten diese Foren KI-basierte Tools und Skripte an, die automatisiert Sicherheitslücken aufspüren oder Angriffe optimieren konnten. Zudem wurden auch Phishing-Techniken geteilt, bei denen KI zur Erstellung personalisierter Nachrichten eingesetzt wurde. Mit dem Betrieb der beiden Plattformen setzten die Beschuldigten zuletzt mehr als eine Million Euro jährlich um.

Im Zuge der seit März 2024 laufenden Ermittlungen wurden insgesamt acht Personen identifiziert, die unmittelbar am Betrieb der kriminellen Handelsplattformen mitgewirkt haben sollen, darunter zwei deutsche Staatsbürger im Alter von 29 und 32 Jahren mit Lebensmittelpunkt in dem Kreis Segeberg (Schleswig-Holstein) und in Valencia (Spanien). Gegen die beiden deutschen Beschuldigten besteht der Verdacht des gewerbsmäßigen Betreibens krimineller Handelsplattformen im Internet gemäß § 127 des Strafgesetzbuches, der für den Fall einer Verurteilung eine Freiheitsstrafe von sechs Monaten bis zu zehn Jahren vorsieht. Die weiteren Beschuldigten, eine Frau im Alter von 27 Jahren sowie Männer im Alter von 21 bis 29 Jahren, werden sich in Verfahren der amerikanischen, spanischen, griechischen und italienischen Strafverfolgungsbehörden nach dortigem Recht verantworten müssen. Insgesamt wurden zwei Personen, darunter ein deutscher Staatsbürger, festgenommen. Zudem konnten Vermögenswerte im mittleren sechsstelligen Bereich gesichert werden.

Im Zuge der Maßnahmen der Strafverfolgungsbehörden wurden auch die IT-Infrastrukturen der kriminellen Plattformen sichergestellt. Die sichergestellten Daten wie E-Mail-Adressen, IP-Adressen und Kommunikationsverläufe der rund 10 Millionen registrierten Nutzerkonten sind Grundlage für weitere internationale Ermittlungen gegen kriminelle Verkäufer und Nutzer der Plattformen.

Weitere Informationen zur Operation Talent sind unter folgendem Link auf der BKA-Webseite abrufbar: www.bka.de/nulled-cracked

Auf den Webseiten der sichergestellten Dienste wurde das nachfolgende Sicherstellungsbanner veröffentlicht:

Schutz vor Fahrraddiebstahl

Welche Präventionsmaßnahmen Besitzer ergreifen können

Jahr für Jahr gibt es Hunderttausende Fahrraddiebstähle. Für Geschädigte ist das ein großes Ärgernis, hinzu kommen die oft beträchtlichen Kosten. Wie Fahrradbesitzer ihren Drahtesel oder ihr E-Bike gegen Diebe schützen, was zu tun ist, wenn das eigene Fahrrad verschwunden ist, und welche Versicherung bei Diebstahl leistet, weiß Janna Poll.

Ohne Schloss kein Schutz
Die wichtigste Maßnahme, um Fahrraddiebstahl vorzubeugen, ist ein hochwertiges Schloss. Die größte Schutzwirkung bieten Ketten-, Falt- und Bügelschlösser. „Günstige Schlösser können geübte Kriminelle mit passendem Werkzeug in Sekundenschnelle knacken“, warnt Janna Poll, Versicherungsexpertin von ERGO. „Zweiradbesitzer sollten nicht an der falschen Stelle sparen und in ein Schloss investieren, das etwa zehn Prozent vom Anschaffungspreis des Fahrrads kostet.“ Es gibt inzwischen auch smarte Schlösser, die sich nur per Smartphone-App öffnen lassen. Das fehlende Schlüsselloch nimmt Tätern die Möglichkeit, den Schließmechanismus mit einem Spezialwerkzeug zu knacken. Einen anderen Weg gehen Alarmschlösser: Sie geben einen lauten Warnton ab, wenn jemand versucht, sie unsachgemäß aufzubrechen. Gerade bei besonders teuren Fahrrädern oder E-Bikes empfiehlt Poll ein zusätzliches Schloss einer anderen Bauart. „Denn Fahrraddiebe spezialisieren sich häufig auf einen Schlosstyp“, so die Expertin.

Anschließen statt nur abschließen
Viele Zweiradfahrer sichern ihr Gefährt zwar mit einem stabilen Schloss, schließen es aber nicht an einen Fahrradständer, Laternenmasten oder einen anderen befestigten Gegenstand an. „Diebe haben dann leichtes Spiel und können das Fahrrad mitsamt Schloss wegtragen oder in einen Transporter laden“, so Poll. „Auch leicht zu entfernende Teile wie das Vorderrad oder Gepäckträgertaschen sollten stets gesichert sein.“ Die Expertin rät, das Rad darüber hinaus nur an belebten Plätzen zu parken und den Abstellort regelmäßig zu wechseln. „Wer sein Fahrrad jeden Tag zur selben Zeit für mehrere Stunden an derselben Stelle anschließt, etwa am S-Bahnhof, liefert Kriminellen ungewollt wertvolle Hinweise auf eine günstige Gelegenheit“, warnt Poll. Fahrrad- und E-Bike-Besitzer sollten sich zudem einen sogenannten Fahrradpass zulegen, der beispielsweise bei der Polizei oder bei Versicherungen kostenlos erhältlich ist und ein Foto, die Rahmennummer und weitere Merkmale des Rads enthält. „Der Fahrradpass schützt zwar nicht gegen Diebstahl, kann der Polizei aber dabei helfen, das Diebesgut wiederzufinden und dem rechtmäßigen Besitzer zuzuordnen“, so die ERGO Expertin. „Gleiches gilt auch für im Rahmen versteckte GPS-Tracker.“

Was im Fall eines Diebstahls zu tun ist
Kommt es trotz aller Vorsichtsmaßnahmen zu einem Fahrraddiebstahl, heißt es: innerhalb von 48 Stunden bei der Polizei Anzeige erstatten. Das geht vielerorts online. „Je mehr Informationen Betroffene zum Fahrrad und zur Tat selbst angeben können, desto größer die Chancen, dass die Polizei das Gefährt findet“, weiß Poll. Anschließend gilt es, die Versicherung zu informieren. Die meisten Anbieter leisten, wenn das Fahrrad drei Wochen verschwunden ist. „Es kann auch sinnvoll sein, sich beim örtlichen Fundbüro zu vergewissern, dass das Fahrrad nicht wieder aufgetaucht ist. Diebstahlsopfer können das gestohlene Zweirad auch auf speziellen Online-Plattformen eintragen“, so ein weiterer Rat der Versicherungsexpertin. „Die Erfolgsaussichten sind hierbei jedoch gering. Es lohnt sich daher, Vorbeugungsmaßnahmen zu treffen und es den Dieben so schwer wie möglich zu machen.“

Welche Versicherung leistet bei Fahrraddiebstahl?
Was viele nicht wissen: Fahrräder sind in der Hausratversicherung gegen Einbruchdiebstahl versichert. „Ein solcher liegt vor, wenn Kriminelle in einen verschlossenen Raum einbrechen und das Fahrrad entwenden“, erklärt Poll. Gegen Diebstahl im Freien oder aus nicht abgeschlossenen Gemeinschaftsräumen sichert ein Zusatzbaustein in der Hausratversicherung ab. Anbieter stellen dann häufig spezielle Anforderungen an die Sicherung des Fahrrades, die es zu beachten gilt. In manchen Verträgen gibt es zudem eine sogenannte Nachtklausel. Dann ist ein Diebstahl nur zwischen 6 und 22 Uhr abgedeckt. Die Hausratversicherung erstattet den Neuwert des Fahrrads, also die Summe, die ein gleichwertiges Modell kostet. „Voraussetzung ist allerdings, dass die Versicherungssumme hoch genug ist. Gerade bei teuren E-Bikes kann es schnell zu einer Unterversicherung kommen“, so die ERGO Expertin. Sie empfiehlt, beim Versicherer nachzufragen und die Versicherungssumme gegebenenfalls anzupassen. Auch eine eigenständige Fahrradversicherung kann sich übrigens lohnen: Sie leistet nicht nur bei Diebstahl, sondern übernimmt beispielsweise auch Reparaturkosten nach einem Unfall – ähnlich wie eine Kfz-Vollkaskoversicherung.

Janna Poll arbeitet als Versicherungsexpertin bei der ERGO Group AG.

Robotik-Forschung: Wie Asien, Europa und Amerika investieren

Robotik-Forschung: Wie Asien, Europa und Amerika investieren

  • “World Robotics R&D Programs” veröffentlicht

Volkswirtschaften in aller Welt investieren in Robotik, um Industrie und Gesellschaft zu unterstützen. Die staatlichen Forschungs- und Entwicklungsprogramme (F&E) verfolgen allerdings ganz unterschiedliche Strategien: Die International Federation of Robotics analysiert mit dem Report „World Robotics R&D Programs 2025“ offizielle Förderprogramme in Asien, Europa und Amerika.

„Die vierte Auflage des Reports “World-Robotics-R&D-Programs“ berichtet über die jüngsten Entwicklungen in den Förderprogrammen, inklusive der Aktualisierungen für 2024″, sagt Prof. Dr. Jong-Oh Park, stellvertretender Vorsitzender des IFR-Forschungsausschusses und Mitglied des Executive Boards. „Wir haben insgesamt 13 Länder analysiert, wobei Singapur und Kanada zum ersten Mal in dieser Publikation ausführlich vorgestellt werden.“

Forschungs- und Entwicklungsprogramme im Überblick: China, Japan, Korea, EU, Deutschland, USA

In China läuft der “14th Five-Year Plan für die Entwicklung der Roboterindustrie noch bis Ende 2025. Das Programm konzentriert sich auf die Förderung von Innovationen. Das Ministerium für Industrie und Informationstechnologie (MIIT) hatte den Startschuss im Dezember 2021 gegeben. Ziel ist es, China zu einer weltweit führenden Nation im Bereich der Robotertechnologie und der industriellen Entwicklung zu machen. Das “Key Special Program on Intelligent Robots“ wurde im Juli 2024 aktualisiert. Die Entwicklung unabhängiger Schlüsselsektoren für die Volkswirtschaft soll mit einem Budget von rund 45,2 Millionen USD (ca. 329 Millionen CNY) gefördert werden. Zu den Hauptzielen gehören grundlegende Spitzentechnologien, wie beispielsweise das Training generativer KI-Modelle.

Wie das jüngste statistische Jahrbuch “World Robotics der IFR zeigt, hat China in der verarbeitenden Industrie eine Roboterdichte von 470 Einheiten pro 10.000 Arbeiter erreicht: Damit liegt das Land im Jahr 2023 weltweit auf Platz 3. China ist erst 2019 in die Top-10-Liste aufgestiegen und hat es geschafft, seine Roboterdichte innerhalb von vier Jahren zu verdoppeln.

In Japan zielt die “New Robot Strategy” darauf ab, das Land zum weltweit führenden Zentrum für Roboterinnovationen zu machen. Zu den Schlüsselsektoren gehören unverändert das verarbeitende Gewerbe, Pflege und Medizin sowie die Landwirtschaft. Das 2020 ins Leben gerufene Moonshot Research and Development Program“ wird bis 2050 laufen und mit einem Budget von 440 Millionen US-Dollar (25 Milliarden JPY) ausgestattet sein. Zehn definierte Moonshot-Ziele in den Bereichen Gesellschaft, Umwelt und Wirtschaft sollen das „menschliche Wohlergehen“ fördern. Dazu gehören beispielsweise Herausforderungen, mit denen das Land in Zukunft konfrontiert sein wird: Die Überalterung der Bevölkerung und die Erderwärmung. Das Programm fördert gezielt KI-Projekte, in denen Roboter autonom lernen, sich an ihre Umgebung anpassen, ihre künstliche Intelligenz weiterzuentwickeln und mit Menschen zusammenarbeiten.

Laut des statistischen IFR-Jahrbuches World Robotics“ ist Japan der weltweit führende Hersteller von Industrierobotern. Bei der Roboterdichte rangiert das Land mit 419 Einheiten pro 10.000 Arbeitern weltweit auf dem fünften Platz.

Die Regierung in Südkorea kündigte im Januar 2024 den „4th Basic Plan on Intelligent Robots“ mit einer Fördersumme von 128 Millionen USD (180 Milliarden KRW) und einer Laufzeit bis 2028 an. Der Plan zielt darauf ab, die Robotik als Kernindustrie der vierten industriellen Revolution zu entwickeln sowie Innovationen in der Fertigung und im Dienstleistungssektor zu fördern. Die koreanische Robotikindustrie soll mit verbesserter Technologie wettbewerbsfähiger werden. Darüber hinaus will das Land die strategische Kooperation von Unternehmen und die internationale und interregionale Zusammenarbeit in der Robotikindustrie stärken.

Das statistische Jahrbuch World Robotics“ der IFR führt Korea mit 1.012 Robotern pro 10.000 Beschäftigte als weltweiten Spitzenreiter beim Einsatz von Industrierobotern auf. Die Roboterdichte hat sich seit 2018 jedes Jahr um durchschnittlich 5 % erhöht.

Horizon Europe ist mit einem Budget von 100 Milliarden USD (95,5 Milliarden EUR) und einer Laufzeit bis 2027 das wichtigste Rahmenprogramm für Forschung und Innovation der EU. Die wichtigsten Ziele sind: Stärkung der wissenschaftlichen und technologischen Grundlagen der EU sowie Förderung der Innovationskapazität und Wettbewerbsfähigkeit. Für das auf Robotik bezogene Arbeitsprogramm 2023 bis 2025 stellt die Europäische Kommission insgesamt 183,5 Millionen USD (174 Millionen EUR) bereit. Fokussiert wird auf eine industrielle Führungsposition in den Bereichen KI, Daten und Robotik, eine saubere Energiewende und innovative Gesundheitsinitiativen, um nur einige Beispiele zu nennen.

Die Europäische Union hat laut IFR-Statistik “World Robotics“ eine Roboterdichte von 219 Einheiten pro 10.000 Beschäftigte. Deutschland, Schweden, Dänemark und Slowenien zählen dabei zu den Top-10 automatisierten Volkswirtschaften weltweit.

Die deutsche Hightech-Strategie 2025 (HTS) hat mit einem Gesamtbudget von 369,2 Millionen USD (350 Millionen EUR) eine Laufzeit bis 2026. Der „Aktionsplan Robotikforschung“ soll die Vernetzung von Forschungszentren als Robotics Institute Germany“ (RIG) unterstützen, Fachkräfte fördern und Robotik-Forschungsergebnisse in die Anwendung bringen.

Deutschland ist laut World Robotics“ Statistik der größte Robotermarkt in Europa – die Roboterdichte liegt mit 429 Robotern pro 10.000 Beschäftigten weltweit an vierter Stelle.

In den USA gehören zu den öffentlichen Förderprogrammen im Bereich Robotik in erster Linie die Grundlagenforschung zu intelligenten Robotern und autonomen Systemen der National Science Foundation (NSF), die Weltraumrobotik der NASA und das Programm „Military Robotics and Autonomous Vehicles“ des Verteidigungsministeriums (DoD). Nach dem Mars-Erkundungsprogramm startete die NASA im Mai 2019 das Projekt Artemis, um Astronauten auf die Mondoberfläche zu schicken und neue Fähigkeiten für Marsmissionen nach 2024 zu entwickeln. Das Gesamtbudget für Artemis beträgt für die Haushaltsjahre 2021 bis 2025 insgesamt 53 Milliarden USD. Die NSF-Forschungsprogramme unterstützen Entwicklung und Einsatz von Robotern am Arbeitsplatz, in Krankenhäusern, in Gemeinden und in Haushalten. Das für 2024 beantragte Budget beläuft sich auf rund 70 Millionen USD. Der Haushalt 2023 des US-Verteidigungsministeriums beinhaltete für Robotik und autonome Technologien insgesamt 10,3 Milliarden USD.

Im internationalen Vergleich rangieren die USA laut IFR-Statistik „World Robotics“ mit einer Roboterdichte von 295 Einheiten pro 10.000 Beschäftigte weltweit auf Rang 10. Bei den jährlichen Installationen von Industrierobotern liegen die USA weltweit auf dem 3. Platz.

Downloads

Über die IFR
Die International Federation of Robotics ist das Sprachrohr der weltweiten Robotikindustrie. IFR vertritt nationale Roboterverbände, Forschungseinrichtungen sowie Roboterhersteller aus mehr als zwanzig Ländern. IFR wurde 1987 als nicht gewinnorientierte Organisation gegründet. Mehr auf: www.ifr.org

Das IFR Statistical Department stellt Branchendaten für folgende statistische Jahrbücher bereit:

World Robotics – Industrieroboter: Dieser einzigartige Bericht liefert weltweite Statistiken über

Industrieroboter in einheitlichen Tabellen und ermöglicht aussagefähige Ländervergleiche. Er enthält statistische Daten aus circa 40 Ländern, aufgeschlüsselt nach Anwendungsbereichen, Industriesektoren, Roboterarten und anderen technischen und wirtschaftlichen Aspekten. Für ausgewählte Länder sind Produktions-, Export- und Importdaten aufgeführt. Mit der Roboterdichte, d.h. der Anzahl von Robotern je 10.000 Beschäftigten, wird zudem ein Maß für den Automationsgrad angeboten.

World Robotics – Serviceroboter: Dieser einzigartige Bericht beschreibt marktfähige Produkte,

Aufgaben, Herausforderungen und neue Entwicklungen zur Anwendung von Servicerobotern. Der Bericht enthält die Ergebnisse der jährlichen IFR-Serviceroboter-Erhebung zum weltweiten Absatz von professionell und privat genutzten Servicerobotern sowie eine Branchenstrukturanalyse mit einer vollständigen Liste aller dem IFR bekannten Serviceroboterhersteller. Die Studie wird gemeinsam mit den Robotik-Experten des Fraunhofer IPA, Stuttgart, erstellt.

Mit KI kreislauffähige Produkte entwickeln und produzieren

Mit Data Science und künstlicher Intelligenz kreislauffähige Produkte entwickeln und produzieren

Schwerpunktprogramm der Deutschen Forschungsgemeinschaft ist unter der Leitung der Universität Paderborn erfolgreich gestartet

Heutige technische Systeme sind interdisziplinär, komplex und miteinander vernetzt. Neben der hohen Produktkomplexität müssen die Forderungen nach Nachhaltigkeit und Kreislauffähigkeit erfüllt werden. Doch wie gelingt dies bei Produkten, die nicht nur heute, sondern auch in vielen Jahren den Prinzipien der nachhaltigen Ressourcennutzung gerecht werden sollen? Bereits während der Entwicklung müssen Ingenieur*innen Entscheidungen treffen, die den gesamten Lebenszyklus eines Produkts beeinflussen – von der ersten Idee über die Nutzung bis zur Rückführung. Um die Leistungsfähigkeit der interdisziplinären Produktentstehung zu erhöhen, hat die Deutsche Forschungsgemeinschaft (DFG) unter der Leitung der Universität Paderborn das Schwerpunktprogramm „Hybride Entscheidungsunterstützung in der Produktentstehung“ gestartet. So sollen die komplexen Herausforderungen der Kreislaufwirtschaft, globaler Abhängigkeiten und der digitalen Transformation im Maschinen- und Anlagenbau gemeistert werden. Im Kern betreiben die beteiligten Wissenschaftler*innen Grundlagenforschung zum Einsatz von Data Science und künstlicher Intelligenz (KI) in der Produktentstehung. Das Schwerpunktprogramm umfasst sechs Forschungsprojekte, die durch insgesamt elf Universitäten und mehr als 40 Forscher*innen aus ganz Deutschland bearbeitet werden. Sie werden über eine Dauer von zunächst drei Jahren mit rund sechs Millionen Euro gefördert.

Herausforderungen in der Produktentstehung meistern

Prof. Dr.-Ing. Iris Gräßler, Leiterin der Fachgruppe Produktentstehung am Heinz Nixdorf Institut (HNI) der Universität Paderborn, koordiniert das Schwerpunktprogramm. Sie erläutert: „In den Projekten erforschen wir, wie wir durch die systematische Einbeziehung von Daten und KI Herausforderungen im Bereich der Produktentstehung überwinden können.“ Eine besondere Schwierigkeit liegt in der Verfügbarkeit der auszuwertenden Daten. Diese liegen mitunter in sehr großen Mengen, in unterschiedlichen Formaten und Sprachen, von verschiedenen Quellen oder in lückenhafter Form vor. Ziel des Schwerpunktprogramms ist es, derart extreme Daten in Form von hybrider Entscheidungsunterstützung zu nutzen. „Data Science und KI sollen menschliche Fähigkeiten in etablierten Verfahren der Ingenieurwissenschaften erweitern. Mit den Erkenntnissen, die wir anstreben, soll es in Zukunft möglich sein, außer Betrieb genommene Produkte auf einem höchstmöglichen Zirkulariätsniveau in den Produktlebenszyklus zurückzuführen und Anforderungen an Produktionsstätten abzuleiten“, so Gräßler. Das Zirkularitätsniveau quantifiziert, wie effizient Ressourcen innerhalb eines geschlossenen Kreislaufs genutzt, wiederverwendet und recycelt werden, um Abfall zu minimieren und den Abbau neuer, endlicher Ressourcen zu reduzieren.

Projektbeispiel am HNI: „Design for Capabilities“ (DeCap)

Im Projekt „DeCap – Fähigkeitsgerechte Produktentstehung“, das Teil des neuen Schwerpunktprogramms ist, untersuchen Forscher*innen des Paderborner HNI und des Instituts für Fabrikanlagen und Logistik der Leibniz Universität Hannover, wie bestehende Fähigkeiten in der Produktion bereits während der Entwicklung berücksichtigt werden können. Sie erfassen Daten aus dem Produktionsumfeld, werten diese automatisiert aus und leiten daraus Fähigkeitsprofile ab. Damit können Ingenieur*innen zukünftig Produkte so entwickeln, dass diese nicht nur einmalig montiert, sondern auch demontiert und wiederverwendet werden können. Eine besondere Herausforderung stellt in diesem Forschungskontext die Demontage mit dem Ziel der Remontage dar, da es schwierig ist, den Produktzustand, konkrete Aufgaben und erforderliche Fähigkeiten vorab zu planen. Gräßler gibt ein Beispiel: „Stellen wir uns ein Mountainbike mit Carbon-Gabel vor, das sportlich im Gelände gefahren und irgendwann ausrangiert wird. Kann ausgeschlossen werden, dass das Fahrrad einen schweren Sturz erlebt hat? Eine Carbon-Gabel müsste aufwendig untersucht werden, während eine Gabel aus Stahl viel einfacher wiederverwendet werden könnte.“ Zur Einordnung: Im Gegensatz zu Stahl, bei dem Verformungen oder Risse meist direkt sichtbar oder leicht erkennbar sind, können in Carbon-Materialien Mikrorisse oder innere Strukturschäden entstehen, die das bloße Auge nicht erfassen kann. „Unser Ziel ist es, zukünftig das Fahrrad von Beginn an so zu gestalten, dass die Einzelteile einfach wiederverwendet werden können“, erklärt Gräßler.

Die Gruppen der Forschenden und die Forschungsziele

Neben der Universität Paderborn sind die RWTH Aachen, die TU Berlin, die Ruhr Universität Bochum, die TU Chemnitz, die Leibniz Universität Hannover, die RPTU Kaiserslautern, die Universität Trier und das Karlsruher Institut für Technologie an den Forschungsprojekten des Schwerpunktprogramms beteiligt. Sie untersuchen sogenannte „Machine Learning Ersatzmodelle“ (MLS), um herkömmliche Simulationen für Produktanalyse und -validierung zu verbessern oder teilweise zu ersetzen. Oder sie ermöglichen eine ressourceneffiziente Optimierung für die notwendige Re-Konfiguration bestehender Montagesysteme. Zudem vereinfachen sie Designprozesse und unterstützen Ingenieur*innen bei der Anforderungserfüllung. Eine weitere Gruppe entwickelt ein multimodales KI-System, um aufgabenspezifische Entscheidungsaktivitäten hinsichtlich spezifischer Anwendungsfälle zu unterstützen. Dafür verarbeitet sie komplexe Datensätze. Und auch in Produktionsphasen werden Optimierungspotenziale abgeleitet, damit diese im Designprozess als Entscheidungsunterstützung nutzbar sein können.

Weitere Informationen zum Schwerpunktprogramm gibt es unter: https://www.spp2443.de/

Fachkontakt

Prof. Dr.-Ing. Iris Gräßler, Fachgruppe Produktentstehung am Heinz Nixdorf Institut (HNI) der Universität Paderborn, Fon: +49 5251 60-6275, E-Mail: iris.graessler@hni.uni-paderborn.de

Universität Paderborn
Warburger Straße 100
33098 Paderborn
www.uni-paderborn.de

Wettbewerbsvorteil: Steuerplanung

Von Prof. Dr. Christoph Juhn

 

Wie Unternehmen Gestaltungsspielräume optimal nutzen

Abgaben ans Finanzamt gelten oft als lästiges Übel – als unvermeidbarer Fakt, den Unternehmen als gegeben hinnehmen müssen. Das Gegenteil ist jedoch der Fall. Um trotz der zunehmend schwierigen Rahmenbedingungen wirtschaftlich zu handeln, können Steuern eine effektive Stellschraube sein. Mit einer klugen Strategie lassen sich dabei nicht nur finanzielle Belastungen reduzieren, sondern auch Spielräume schaffen, um Investitionen zu tätigen und Innovationen voranzutreiben.

 

Prof.Dr.C.Juhn_Bildquelle_©JUHN Partner GmbH

 

Zukunft steuern

Von Rechtsformwahl über Unternehmenskäufe und -verkäufe bis hin zu internationalen Umwandlungen: Um möglichst hohe Steuerbegünstigungen in Anspruch zu nehmen, gilt es Handlungsoptionen auszuloten. Weit verbreitet ist dabei die Strategie, Gewinne in Niedrigsteuerländer wie Zypern zu verlagern. Das kann durch die Gründung eines Tochterunternehmens geschehen, etwa zur Erhebung von Lizenzgebühren auf immaterielle Rechte wie Marken oder Patente. Ein weiterer Ansatz nutzt Verrechnungspreise zwischen verbundenen Unternehmen, beispielsweise zwischen einer produzierenden Tochtergesellschaft und einer eigenen Vertriebsgesellschaft im Ausland. So lassen sich Preise für den Handel von Waren, Dienstleistungen oder immateriellen Gütern innerhalb eines Konzerns festlegen. Das trägt nicht nur zur effizienten Ressourcensteuerung innerhalb einer Organisation bei, sondern sichert steuerliche Vorteile bei Betriebsausgaben. Natürlich eröffnen auch Abschreibungsmöglichkeiten Gestaltungsspielräume – hierzulande beispielsweise beim Ausbau von Photovoltaik-Kapazitäten. Selbst die Einflussnahme auf die Steuerpolitik durch Advanced Tax Rulings hilft, die Abgabenlast proaktiv zu gestalten. Dabei handelt es sich um vorab mit den Steuerbehörden getroffene Vereinbarungen, die Klarheit, Rechtssicherheit und vorteilhafte Konditionen über die steuerliche Behandlung bestimmter Sachverhalte schaffen. Unternehmen beantragen dazu eine verbindliche Auskunft über die steuerliche Behandlung geplanter Geschäftsaktivitäten. Einmal festgehalten, gelten diese maßgeschneiderten Lösungen in der Praxis als Steuersondervereinbarungen mit den Behörden.

 

Von Global Players und Hidden Champions

Steueroptimierung funktioniert im Großen wie im Kleinen. Zwar sind manche Gestaltungsmodelle wie die Advanced Tax Rulings nur von Konzernen umsetzbar, andere lassen sich aber auch von jedem kleinen und mittelständischen Unternehmen (KMU) nutzen. So kann bereits eine Umstrukturierung helfen, Abgaben einzusparen, da sich in Deutschland die Unternehmensbesteuerung nach der Rechtsform richtet. Ein Beispiel: Bei einem Einzelunternehmen fallen bis zu 45 Prozent Steuern plus Solidaritätszuschlag und möglicherweise Kirchensteuer an. Bei einer einfachen GmbH sind es lediglich 30 Prozent. Die Wahl der Rechtsform ist also entscheidend – und das auch im Hinblick auf mögliche Gestaltungsspielräume. Mit einer GmbH oder einer GmbH & Co. KG lassen sich Steuern bedeutend leichter gestalten als mit Betrieben, die auf anderen Rechtsformen basieren. Daneben spielen innerhalb der Bundesrepublik auch regionale steuerliche Unterschiede eine Rolle. Stichwort: Gewerbesteuer. Städte und Gemeinden bestimmen den Hebesatz hierzu individuell. Er beträgt zwar mindestens 200 Prozent, allerdings variiert er regional stark. Ähnlich variabel ist die Grundsteuer auf Unternehmensimmobilien. Zudem besteht in puncto Steuergestaltung grundsätzlich auch für KMUs die Option, international zu denken. So zielt das sogenannte Mittelstandsmodell mit einer einfachen Betriebsstätte im Ausland darauf ab, steuerliche Vorteile durch die Verlagerung von Aktivitäten in ein Land mit niedrigeren Steuersätzen zu nutzen. Wenn ein Unternehmen ein Büro, eine Werkstatt oder eine Fabrik in Spanien errichtet, gelten die dort erzielten Gewinne in der Regel als im Ausland steuerpflichtig. Ist das Abgabenniveau hier niedriger als im Heimatland, kann ein solches Modell trotz erheblicher Kosten, etwa bei der Gründung, vorteilhaft sein. Gleichzeitig gilt es zu beachten, dass eine Verlagerung von Aktivitäten auch heikel werden kann, da sie unter Umständen als steuerpflichtige Funktionsverlagerung eingestuft wird. Denn dadurch drohen Nachforderungen durch die Finanzbehörden, insbesondere im Hinblick auf die Besteuerung der in einem solchen Fall aufgedeckten stillen Reserven.

 

Komplexität als Steuerungsinstrument

Optionen zur Steueroptimierung zeigen, welche Komplexität Unternehmensstrukturen annehmen können und welche Bandbreite an Möglichkeiten besteht. Fest steht dabei: Die eine optimale Gesamtlösung, die sich auf alle Unternehmen übertragen lässt, existiert nicht. Da auf unterschiedliche Gesellschaftsformen und Tatbestände teilweise verschiedene Steuersätze sowie diverse Rechtsvorschriften anzuwenden sind, benötigt Abgabenoptimierung extrem gute Kenntnisse im inländischen sowie im grenzübergreifenden Steuerrecht. Darunter fallen insbesondere Aspekte wie das Außensteuergesetz oder die BEPS-Richtlinie der OECD, wodurch bestimmte Gestaltungsmöglichkeiten eingeschränkt werden. Gleichzeitig liegt in der Komplexität der errichteten Strukturen auch der Schlüssel für einen langfristigen Erfolg – und das nicht nur in steuerlicher Hinsicht. Da Abgaben den Nettogewinn eines Unternehmens bestimmen, beeinflussen steuerliche Überlegungen auch die Frage, mit welchen finanziellen Mitteln eine Firma wirtschaften kann. Ob ein Unternehmen dabei die Möglichkeit hat, 70 Prozent oder nur 50 Prozent seines Gewinns zu reinvestieren, macht für das weitere Wachstum vor allem in wirtschaftlich schwierigen Zeiten einen entscheidenden Unterschied.

Weitere Informationen unter: https://www.youtube.com/watch?v=vnJBmZW7qtU

 

Zum Autor:

Prof. Dr. Christoph Juhn ist Professor für Steuerrecht, Steuerberater und besitzt einen Master of Laws. Seine Schwerpunkte in der Gestaltungsberatung liegen auf Umwandlungen und Umstrukturierungen, Unternehmen- und Konzernsteuerrecht, internationalem Steuerrecht, Unternehmenstransaktionen (M&A), Beratung für Berater sowie der laufenden Steuerberatung. Nachdem er 2011 seinen LL.M. an der Universität zu Köln erwarb, wurde er 2013 zum Steuerberater bestellt. Im Jahr 2020 promovierte er zum Dr. jur. im internationalen Unternehmen- & Umwandlungssteuerrecht und wurde noch im selben Jahr zum Professor für Steuerrecht an der FOM Hochschule Bonn berufen. Parallel dazu gründete er – nach Anstellungen in zwei Steuerberatungsgesellschaften – im Jahr 2015 die JUHN Partner GmbH und 2017 die JUHN BESAU GmbH. Außerdem betreibt der Steuerprofi unter @juhnsteuerberater einen erfolgreichen YouTube-Kanal.

Positiver Trend bei den Immobilientransaktionen

IVD-Präsident Wohltorf: „Der Bremsklotz ist die Politik“

Berlin, 31. Januar 2025 – In Deutschland wurden im vergangenen Jahr 242 Milliarden Euro in private und gewerbliche Immobilien investiert. Das sind rund 12,6 Milliarden Euro oder 5,5 Prozent mehr als in 2023. Zu diesem Ergebnis kommt eine Hochrechnung des Immobilienverband Deutschland (IVD) auf Grundlage der Daten des Bundesministeriums für Finanzen zum Grunderwerbsteueraufkommen.

Dazu erklärt Dirk Wohltorf, Präsident des Immobilienunternehmer-Verbands IVD:

„Die Immobilienmärkte haben sich stabilisiert. Wir könnten mehr Bewegung in den Märkten und ein höheres Transaktionsvolumen sehen. Der Bremsklotz ist eindeutig die Politik. Die höchsten Baustandards in Europa, massive Marktregulierung und Grunderwerbsteuersätze von bis zu 6,5 Prozent sind klare Hemmnisse, für welche die Politik allein verantwortlich ist. Es fehlen zudem Impulse, die Kaufinteressenten bei der wichtigsten Investition ihres Lebens Mut machen. Neben einer Senkung der Grunderwerbsteuer und einem Verzicht auf die Besteuerung bei Ersterwerbern, die zur Selbstnutzung kaufen, gehören für private Erwerber und Investoren bessere steuerliche Abschreibungsmöglichkeiten und gezielte Förderprogramme ohne ausufernde energetische Anforderungen dazu. Die Wirtschafts- und Wohnwende ist nötiger denn je. Jede Wohneinheit zählt.“

Zur Entwicklung der Immobilientransaktionen erklärt IVD-Präsident Wohltorf weiter:

„Im Jahr 2023 war das Transaktionsvolumen um 30,3 Prozent eingebrochen. Jedoch konnten wir bereits im zweiten Halbjahr 2023 eine leichte Konsolidierung beobachten. Die Talsohle war durchschritten. Nun sehen wir anhand der Zahlen für 2024 eine solide Stabilisierung bei Investitionen in Immobilien. Die Immobilienmärkte beleben sich langsam wieder, die positive Tendenz ist messbar. So liegt das Transaktionsvolumen im zweiten Halbjahr 2024 mit rund 127 Milliarden Euro über dem des ersten Halbjahres mit 115 Milliarden Euro.“

Der IVD-Präsident führt die gestiegenen Umsätze auf den hohen Wohnraumbedarf und im Besonderen auf die anhaltende Attraktivität von Immobilien als Altersvorsorge zurück. Im vergangenen Jahr begünstigten die Zinssenkungen und die gestiegene Kaufkraft den Trend, dass sich potenzielle Erwerber wieder vermehrt nach Wohneigentum an den Märkten umsehen und kaufen.

Der Süden und Westen legen zu

Nach Bundesländern betrachtet, wurde vermehrt im Süden, im Westen und in der Mitte Deutschlands in Immobilien investiert. Das Transaktionsvolumen legte besonders in Bayern, dem Saarland, in Baden-Württemberg, Hessen, Nordrhein-Westfalen und Rheinland-Pfalz zu.

Zur Ermittlungsmethode
Das Immobilientransaktionsvolumen beziehungsweise der Immobilienumsatz umfasst sämtliche private und gewerbliche Immobilientransaktionen, für die Grunderwerbsteuer zu entrichten sind. Da die überwiegende Zahl der Transaktionen – mit Ausnahme der Fälle, bei denen Erbschafts- und Schenkungssteuer anfallen sowie Share-Deals – dieser besonderen Umsatzsteuer unterliegen, ist diese Statistik ein probates Mittel, die jährlichen Immobilienumsätze zu erfassen.

 

Der IVD ist die Berufsorganisation und Interessensvertretung der immobilienwirtschaftlichen Beratungs- und Dienstleistungsberufe. Der Verband vereint rund 6.200 mittelständische Mitgliedsunternehmen. Die Immobilienverwalter im IVD betreuen rund 3,5 Millionen Einheiten. Von den IVD-Maklern wird etwa jede dritte Immobilientransaktion in Deutschland beraten. Immobilienbewerter stellen die Königsklasse dar, wenn es um den Marktwert einer Immobilie geht. Zu den Mitgliedsunternehmen zählen auch Bauträger, Finanzdienstleister und weitere Berufsgruppen der Immobilienwirtschaft. Die Aufnahme in den IVD Bundesverband erfolgt nach Abschluss einer umfassenden Sach- und Fachkundeprüfung und gegen Nachweis einer Vermögensschadenhaftpflichtversicherung. Der Verband ist im Jahr 2004 aus einer Verschmelzung des ehemaligen RDM und VDM hervorgegangen.

www.ivd.net

Drei Schlussfolgerungen aus dem abgewendeten Hafenstreik in den USA

Mit dem jüngsten Abschluss der Tarifverhandlungen zwischen der International Longshoremen’s Association (ILA) und der United States Maritime Alliance (USMX) konnte ein zweiter Streik in den Häfen der Ost- und Golfküste gerade noch abgewendet werden. Die Vorbereitungen für den Ausstand haben wichtige Erkenntnisse für Unternehmen gebracht, für die die Lieferketten immer komplexer werden.

C.H. Robinson, eine der weltweit größten Logistikplattformen, analysiert die Situation im Hinblick auf den Streik im letzten Jahr und zieht drei wichtige Schlussfolgerungen, die Unternehmen dabei helfen können, sich auf künftige Störungen vorzubereiten und sich entsprechend anzupassen.

  1. Nicht nur reagieren – proaktiv handeln

Unterbrechungen in der Lieferkette sind unvermeidbar, aber es reicht nicht mehr aus, nur auf sie zu reagieren. Vorausschauende Spediteure setzen auf Transparenz und Kontrolle, um potenziellen Herausforderungen immer einen Schritt voraus zu sein. Im Vorfeld des jüngsten Streiks haben viele Unternehmen alternative Frachtrouten beibehalten, die sie während des Streiks im Oktober eingerichtet hatten, z. B. die Umleitung von Sendungen an die US-Westküste. Andere wählten hybride Strategien und arbeiteten mit Logistikpartnern zusammen, um Sendungen zwischen den Küsten zu verteilen.

Außerdem halfen die Erfahrungen aus dem ersten Streik dabei, Logistik-Engpässe wie die ungleiche Auslastung bei den Schienenfahrzeugen zu beheben. So blieben beispielsweise während des Streiks im Oktober aufgrund der gestiegenen Lieferungen an die Westküste Schienenfahrzeuge an der Ostküste liegen, was zu Ineffizienzen führte. Dieses Mal arbeiteten die Spediteure mit Logistikdienstleistern zusammen, um sicherzustellen, dass Ausrüstung und Ressourcen strategisch positioniert werden, um ähnliche Probleme zu vermeiden.

  1. Risikominimierung als zentrale Priorität

Im Gegensatz zu Streiks treten die meisten Störungen unvorhersehbar auf. Geopolitische Spannungen, Extremwetterereignisse, Infrastrukturprobleme oder sich ändernde Handelsrichtlinien können ohne Vorwarnung Verzögerungen verursachen. Diese Verzögerungen betreffen nicht nur Lagerbestände, sondern können sich auf gesamte Betriebsabläufe auswirken.

In Branchen wie der Automobilindustrie, die auf Just-in-Time-Lieferungen angewiesen sind, können Verzögerungen beispielsweise teure Produktionsausfälle nach sich ziehen. Angesichts dieser Risiken arbeiten immer mehr Unternehmen mit erfahrenen Logistikdienstleistern zusammen, um Risikomanagement direkt in ihre Lieferkettenplanung zu integrieren.

  1. Strategische Umsetzung statt reaktiver Planung

Notfallplanung war schon immer ein zentraler Bestandteil des Lieferkettenmanagements. Doch die heutige Zeit verlangt nach einer noch strategischeren Herangehensweise. Anstatt lediglich auf Störungen zu reagieren, ergreifen Unternehmen proaktive Maßnahmen, um deren Auswirkungen zu minimieren.

So haben viele Unternehmen im Vorfeld des jüngsten Streiks ihre Frachten strategisch vorverlegt, um mögliche Hafenschließungen zu umgehen. Dies war jedoch kein pauschaler Ansatz. Die Unternehmen nutzten datengestützte Erkenntnisse und eine durchgängige Transparenz der Lieferkette, um zu bestimmen, welche Waren vorrangig zu transportieren sind, wie viel und wann.

Diese strategische Herangehensweise sorgte für eine optimale Vorbereitung, ohne die Überbestände zu verursachen, die in früheren Störfällen – etwa während der Pandemie – beobachtet wurden.

„Die transatlantische Handelsroute ist eine der meistbefahrenen der Welt. Ein Streik an der amerikanischen Ostküste hätte unweigerlich Auswirkungen auf viele europäische Lieferanten, mit denen wir zusammenarbeiten“, sagt Roel Steigerwald, Vice President of Global Forwarding bei C.H. Robinson. „Unser umfangreiches globales Netzwerk und unser vielfältiges Dienstleistungsportfolio ermöglichen es uns, bei unvorhergesehenen Störungen schnell zu handeln. Wir sind in der Lage, den Verkehrsträger zu verlagern oder den Ausgangs- und Zielhafen zu wechseln, um den weiteren Transport der Waren zu gewährleisten.“

 

ASPM-Lösungen stoppen den Tool-Wildwuchs

San Francisco/Heilbronn – Schwachstellen und Sicherheitslücken in Software müssen nicht sein – kommen aber viel zu häufig vor. Die Gründe dafür sind vielfältig und reichen von einem nicht beherrschbaren Security-Tool-Wildwuchs bis hin zu lückenhafter Visibilität. Cycode, der Pionier im Bereich Application Security Posture Management (ASPM), nennt die fünf Kernaspekte von ASPM-Lösungen und warum an ihnen in Sachen Cybersecurity kein Weg vorbeiführt.​

Auf dem Weg von der Idee zur fertigen Software – und über den gesamten Software Development Lifecycle (SDLC) hinweg – kann viel schiefgehen. Trotz größter Sorgfalt der Entwickler schleichen sich immer wieder kritische Sicherheitslücken in Unternehmensanwendungen ein. Cycode erklärt fünf Kernaspekte, die eine ASPM-Lösung unverzichtbar machen.

1. Visibilität herstellen​

Einer der Grundsätze von Cybersecurity ist: „You can’t protect what you can’t see“. Heutzutage sind die Anwendungslandschaften in Unternehmen oft sehr groß und dementsprechend unübersichtlich. Zudem stammen 80 Prozent und mehr der Code-Basis aus Open-Source-Libraries oder anderen Abhängigkeiten, die möglicherweise bis dato unentdeckte Exploits enthalten können. IT-Teams setzen darüber hinaus immer mehr Sicherheits-, Testing- und Analyse-Tools ein, die selten hundertprozentig interoperabel sind, was blinde Flecken verursacht. Es ist daher umso wichtiger, Visibilität herzustellen. ASPM-Lösungen erfüllen diesen Anspruch, indem sie es ermöglichen, Code-Repositories, Security-Tools, Container- oder CI/CD-Pipeline-Infrastrukturen mit wenig Aufwand zentral in einer Applikation zu verknüpfen. Die Lösungen bieten zudem die Möglichkeit, Schwachstellen-Scanner von Drittanbietern zu integrieren, deren Ergebnisse zu aggregieren und der Security-Abteilung damit eine konsolidierte Übersicht über den Sicherheitsstatus ihrer Anwendungen zu geben. Fortgeschrittene Lösungen stellen überdies native Applikations-Scanner bereit, die verbundene Quellen auf Sicherheitsverstöße und potenzielle Compliance-Probleme durchsuchen.

2. Wissenssilos abbauen​

In vielen IT-Teams sind die Zuständigkeiten zwischen Entwicklung (Dev), IT-Sicherheit (Sec) und Betrieb (Ops) getrennt. Moderne Unternehmen versuchen zunehmend, den DevSecOps-Ansatz umzusetzen und die Wissenssilos aufzubrechen. Oft fehlt es jedoch an einer interdisziplinären Software, die alle spezifischen Anforderungen in sich vereint und als einheitliche Informationsquelle und Arbeitsgrundlage für den gesamten SDLC dient. ASPM-Lösungen haben sich in diesem Zusammenhang als äußerst hilfreich erwiesen. Sie stellen nämlich nicht nur die Visibilität her, sondern fungieren als „Single Pane of Glass“, also ein Ort, an dem alle sicherheitsrelevanten Informationen zentral zusammenlaufen, vom Code-Snippet bis zur Cloud-basierten Container-Infrastruktur.

3. Sicherheitslücken und Risiken priorisieren​

Ist die Visibilität über die Anwendungs- und Sicherheitslandschaft einmal hergestellt, geht es darum, den gesamten Entwicklungszyklus abzusichern und potenzielle Sicherheitslücken zu schließen. Doch da es für gewöhnlich deutlich mehr Schwachstellen zu fixen gibt, als Personal und Arbeitszeit unmittelbar zur Verfügung stehen, müssen IT-Teams priorisieren. ASPM-Lösungen helfen dabei: Nachdem ihre Scanner – eigene oder fremde – die Violations entdeckt haben, sortieren sie diese, basierend auf (KI-)Algorithmen und Machine Learning, nach ihrer „Criticality“, also ihrem Schweregrad. Faktoren, die in die Beurteilung einfließen, sind unter anderem das Geschäftsrisiko, die Reachability und die Exploitability, also die Frage, ob und wie leicht Cyberkriminelle eine Sicherheitslücke ausnutzen können, und das Gefahrenpotenzial der Schwachstellen.

4. Schwachstellen beheben und Entwicklereffizienz steigern​

Auch wenn Künstliche Intelligenz und generative KI (GenAI) bereits große Fortschritte gemacht haben, ist die Softwarebranche noch weit davon entfernt, völlig automatisiert Sicherheitslücken zu fixen. Manche ASPM-Lösungen können allerdings durch GenAI-Kapazitäten bereits Lösungsvorschläge für Schwachstellen vorschlagen und somit die Effizienz von Entwicklern steigern. Ein weiterer Aspekt, der ihre Arbeit deutlich erleichtert, ist die Integration der ASPM-Lösungen in ihre eigenen Tools und Workflows. Programmierer können auf diese Weise Sicherheitslücken, die von einer solchen Lösung identifiziert und priorisiert sowie vom Security-Personal an sie zugewiesen wurden, direkt in ihrer Entwicklungsumgebung (IDE) fixen. Auf diese Weise ersparen sie sich das Durchforsten unhandlicher Ticket-Systeme und müssen nicht sämtliche Repositories manuell durchsuchen.

5. Prävention fördern​

Viele Sicherheitslösungen sind rein reaktiv: Sobald eine Schwachstelle im Softwarebetrieb auftritt oder sie eine Anomalie erkennen, melden sie es und ermöglichen damit die Ursachenforschung durch Sicherheitsexperten und die Behebung durch das Dev-Team. Holistische ASPM-Lösungen durchdringen allerdings sämtliche Bereiche des Software Development Lifecycle. Durch diesen Ansatz und die ununterbrochene Überwachung und Prüfung der Code-Basis und der eingesetzten Anwendungen können Expertinnen und Experten Sicherheitslücken allerdings schon lange vor dem Rollout identifizieren und fixen. Dabei ist es wichtig, dass die Unternehmen möglichst ihre gesamte IT-Infrastruktur in das Tool einbinden. Der maximal positive Effekt wird dann erreicht, wenn die ASPM-Lösung eine lückenlose Visibilität herstellen kann.

„Lösungen für das Application Security Posture Management fungieren als Brückenbauer zwischen den Entwicklern sowie den Betreibern von Software und der Security-Abteilung in einem Unternehmen“, erklärt Jochen Koehler, Vice President of Sales EMEA bei Cycode. „Sie sind sozusagen der Schmelztiegel, in dem alle sicherheitsrelevanten Informationen zusammenlaufen. Als Schaltzentrale für das Security-Team lassen sich aus einer holistischen ASPM-Lösung heraus Tasks wie das Schließen hochkritischer Softwareschwachstellen delegieren – und zwar über den gesamten Entwicklungszyklus hinweg.“

Jochen Koehler, Vice President of Sales EMEA bei Cycode (Quelle: privat)

 

Deutscher Caravaning-Markt übertrifft Vorjahresergebnis

Frankfurt am Main / Stuttgart

Über 96.000 Neuzulassungen: Deutscher Caravaning-Markt übertrifft Vorjahresergebnis

Interesse an Caravaning bei Deutschen ungebrochen groß. Neuzulassungen über Vorjahresniveau. Rekordnachfrage bei Gebrauchtfahrzeugen. Über 15 Milliarden Euro Branchenumsatz. Industrie und Handel reagieren gemeinsam auf aktuelle Herausforderungen.

Copyright: Caravaning Industrie Verband e.V. (CIVD)

 

2024 wurden insgesamt 96.392 Caravans und Reisemobile in Deutschland neu zugelassen, wie der Caravaning Industrie Verband (CIVD) auf seiner Jahrespressekonferenz vermeldete. Damit bewegt sich die Branche weiterhin deutlich über dem Niveau der Vor-Corona-Jahre. Aufgrund eines vorübergehenden Überangebots im Handel wurden weniger Freizeitfahrzeuge produziert und ausgeliefert. Mit einem Branchenumsatz von rund 15,1 Milliarden Euro bleibt die deutsche Caravaning-Industrie zwar hinter dem Vorjahresrekord zurück, erzielt jedoch das zweitbeste Umsatzergebnis ihrer Geschichte.

Nach den beachtlichen Rekordergebnissen der ersten Corona-Jahre liegen die aktuellen Neuzulassungszahlen trotz schwieriger Rahmenbedingungen weiterhin auf einem bemerkenswert hohen Niveau. 2024 wurden insgesamt 96.392 Freizeitfahrzeuge in Deutschland neu zugelassen – ein Anstieg von 6,7 Prozent im Vergleich zum Vorjahr und das drittbeste Ergebnis der Branchengeschichte. Mit 74.718 Neuzulassungen in den letzten zwölf Monaten übertrifft das Reisemobilsegment das Vorjahresergebnis deutlich um 9,1 Prozent. Die Caravan-Neuzulassungen liegen mit insgesamt 21.674 Einheiten (- 1,0 Prozent) knapp unter dem Vorjahresergebnis und bewegen sich weiterhin auf einem stabilen Niveau.

Rekordnachfrage nach Gebrauchtfahrzeugen

Neben den Neuzulassungszahlen verdeutlichen auch die Besitzumschreibungen gebrauchter Caravans und Reisemobile das ungebrochen große Interesse der deutschen Urlauber am Caravaning: Im vergangenen Jahr wurden insgesamt 187.219 Besitzumschreibungen registriert – ein Rekordwert, der einem Anstieg von 5,5 Prozent gegenüber dem Vorjahr entspricht. Beide Fahrzeugsparten trugen zu diesem Wachstum bei: 106.631 gebrauchte Reisemobile (+8,6 Prozent) und 80.588 Caravans (+1,6 Prozent) wechselten im Jahr 2024 ihren Besitzer.

Produktionszahlen unter Vorjahresniveau

Im vergangenen Jahr verließen insgesamt 118.641 Freizeitfahrzeuge (-16,4 Prozent) die Produktionsbänder deutscher Hersteller. Davon wurden 46.490 Fahrzeuge (-15,8 Prozent) ins Ausland exportiert. Die Reisemobilproduktion registrierte 84.742 Einheiten, was einem Rückgang von 12,7 Prozent im Vergleich zum Vorjahr entspricht. Von diesen wurden 31.041 Reisemobile (-9,1 Prozent) ins Ausland geliefert. Die Caravan-Produktion verzeichnete mit 33.899 Einheiten einen Rückgang um rund 24 Prozent, wobei 15.449 Caravans (-26,7 Prozent) in den Export gingen.

Die Hersteller von Reisemobilen und Caravans standen in den letzten Jahren vor großen Herausforderungen: Die Folgen der Pandemie und des Ukraine-Krieges verursachten massive Produktionsstörungen, insbesondere durch stockende Lieferketten in der Reisemobilsparte. Die eingeschränkten Kapazitäten führten dazu, dass weniger Fahrzeuge produziert und ausgeliefert wurden als ursprünglich vorgesehen. Im Laufe der letzten 24 Monate stabilisierten sich die Produktionsbedingungen spürbar, vor allem durch die verbesserte Verfügbarkeit von Reisemobilchassis. Dies führte zunächst zu einem deutlichen Anstieg der Produktionszahlen und einem raschen Bestandsaufbau bei den Händlern. Der Markt verlagerte sich dadurch im Laufe des Jahres 2024 von einer Phase der Angebotsknappheit hin zu einem vorübergehenden Überangebot an Fahrzeugen.

Einige Fahrzeughersteller passten in Folge dieser Entwicklung ihre Produktion vorübergehend an, indem sie unter anderem die Produktionszahlen reduzierten oder die Fertigung vorübergehend aussetzten. Diese Maßnahmen zeigen bereits sichtbare Erfolge. Sowohl die anhaltend hohen Neuzulassungszahlen als auch die Vielzahl an Besitzumschreibungen unterstreichen die positive Entwicklung: Der Fahrzeugbestand im Handel baut sich mehr und mehr ab und wird sich voraussichtlich im ersten Halbjahr 2025 normalisiert haben.

Branchenumsatz übertrifft erneut 15 Milliarden Euro-Marke

Die deutsche Caravaning-Branche verzeichnete 2024 einen Jahresumsatz von rund 15,1 Milliarden Euro. Zwar entspricht dies einem Rückgang von rund 6 Prozent im Vergleich zum Rekordwert des Vorjahres, der auf die reduzierte Produktion zurückzuführen ist, doch ist es erst das zweite Mal, dass die Branche die Marke von 15 Milliarden Euro überschreitet.

Caravaning-Industrie startet mit Optimismus in das neue Jahr

Mit Blick auf das Caravaning-Jahr 2025 steht die deutsche Caravaning-Industrie weiter vor Herausforderungen, blickt aber auch mit Zuversicht in die Zukunft, wie CIVD- Geschäftsführer Daniel Onggowinarso erklärt: „Die Lage in Industrie und Handel war in den vergangenen zwölf Monaten angespannt. Doch die Ergebnisse bei Neuzulassungen und Besitzumschreibungen zeigen, dass sich die Branche trotz aller Widrigkeiten auf einem guten Weg befindet. Die bevorstehenden Bundestagswahlen werfen, wie in vielen anderen Wirtschaftszweigen, einige Fragen auf – unter anderem hinsichtlich der allgemeinen Wirtschaftsentwicklung und der Konsumstimmung. Trotz dieser Unsicherheiten bleibt eine wichtige Konstante für unsere Branche bestehen: Die Begeisterung der Deutschen für Caravaning ist nach wie vor ungebrochen. Caravans und Reisemobile werden auch im kommenden Jahr zahlreiche Käufer und Interessierte auf den Händlerhöfen anziehen, nicht zuletzt dank des aktuell besonders vielseitigen und attraktiven Sortiments im Handel. Darüber hinaus dürften die Caravaning-Messen 2025 erneut viele erfahrene Camper und Neueinsteiger begeistern. Die Zeichen für ein erfolgreiches Caravaning-Jahr 2025 stehen also gut.“

 

[Weitere Details zur Situation in Produktion und Handel sowie Einschätzungen von Branchenexperten aus Industrie, Handel und führenden Finanzierungsgesellschaften finden Sie in der Pressemitteilung vom 17. Dezember: Link zur Meldung.]

Nur mit besserer Vernetzung gelingt die Digitalisierung in der Landwirtschaft

Pressemitteilung des Bundesministeriums für Ernährung und Landwirtschaft
 
 
BMEL fördert Interoperabilität und fairen Datenaustausch mit 15 Millionen Euro
Özdemir: „Nur mit besserer Vernetzung gelingt die Digitalisierung in der Landwirtschaft “
 
Auf der Grünen Woche in Berlin hat der Bundesminister für Ernährung und Landwirtschaft, Cem Özdemir, Förderbescheide an elf Projekte übergeben, mit denen der Informationsaustausch beispielsweise zwischen landwirtschaftlichen Maschinen und Fahrzeugen untereinander oder mit zentralen Datenverarbeitungsanlagen optimiert werden soll. Mit rund 15,1 Millionen Euro – verteilt über drei Jahre – will das Bundesministerium für Ernährung und Landwirtschaft (BMEL) diese sogenannte Interoperabilität stärken, damit landwirtschaftliche Betriebe verfügbare digitale Anwendungen effizienter nutzen können.
 
Bundesminister Özdemir: „Digitale Innovationen können Ressourceneffizienz steigern, Tiergesundheit verbessern und vor allem unsere Landwirtinnen und Landwirte bei ihrer täglichen harten Arbeit auf dem Feld oder im Stall spürbar entlasten. Diese Chancen dürfen nicht ungenutzt bleiben. Besserer und vor allem fairer Datenaustausch ist die Grundlage, damit digitale Innovationen in der Landwirtschaft einen echten Mehrwert schaffen. Datenfluss statt Datensilos – das muss die Devise sein. Ich danke allen Beteiligten an den geförderten Projekten, die mit vollem Einsatz daran arbeiten, diese Lücke zu schließen.“
 
Die voranschreitende Digitalisierung der Landwirtschaft bietet immer mehr Möglichkeiten zur Optimierung der gesamten Wertschöpfungskette. In landwirtschaftlichen Betrieben, aber auch bei der Vernetzung der Partner innerhalb der Wertschöpfungskette, sind die Einsatzmöglichkeiten digitaler Innovationen inzwischen sehr vielfältig und reichen von automatischen Lenksystemen zur Optimierung der Ressourceneffizienz über smarte Fütterungssysteme bis hin zu Managementtools. Die eingesetzten Technologien unterscheiden sich jedoch häufig nicht nur in ihrem Digitalisierungsgrad voneinander, sondern auch das Herstellerspektrum und die verwendeten Standards sind oft uneinheitlich. Um die vorhandenen Potenziale auch optimal nutzen zu können, bedarf es einer reibungslosen Kommunikation zwischen den eingesetzten Technologien.
 
Das BMEL möchte Fortschritte in diesem Bereich aktiv unterstützen und fördert deshalb die ausgewählten elf Projekte, die ganz unterschiedliche Themenfelder bearbeiten: Diese reichen von einer besseren Verwaltung der eigenen Daten, der Kommunikation verschiedener Geräte, ohne eine Internetanbindung zu benötigen, bis zur Optimierung des Managements von Feldrobotern.
 
Im Rahmen des Termins hat Bundesminister Özdemir auch einen Förderbescheid für eine Beobachtungsstelle für Verträge über die Nutzung der von smarten Landmaschinen generierten Daten („Agri Data-Observatory“) an der Universität Osnabrück übergeben. Damit soll ein fairer Datenaustausch in der Landwirtschaft unterstützt und ein Beitrag zur Stärkung der Wettbewerbs- und Innovationsfähigkeit der deutschen Landwirtschaft und Agrartechnikbranche geleistet werden. Unter der Leitung von Prof. Dr. Mary-Rose McGuire und Prof. Dr. Hans Schulte-Nölke wird hier in den nächsten drei Jahren die landwirtschaftliche Vertragspraxis zur Umsetzung der Vorgaben der EU-Datenverordnung erhoben und analysiert. Unter Einbeziehung einer Experten- und Stakeholdergruppe sollen Best Practice-Beispiele zur Ausgestaltung gesammelt sowie die Nutzung und mögliche Anpassungsvorschläge für die BMEL-Musterbedingungen für Verträge über Agrardaten smarter Landmaschinen diskutiert werden.