Alles im grünen Bereich

Wer innovative Produkte herstellt und handelt, muss auch innovativ (zusammen)arbeiten. Wie das unter anderem mithilfe von Dropbox und der E-Signaturlösung HelloSign geht, beweist DEMECAN – der 2017 als Start-up gestartete und heute einzige unabhängige deutsche Hersteller von medizinischem Cannabis.

Cannabis ist schon lange als Heil- und Nutzpflanze bekannt, doch erst seit 2017 ist es in Deutschland als Medizin per Gesetz zugelassen. Zum Einsatz kommt das pflanzliche, verschreibungspflichtige Arzneimittel unter anderem in der Schmerzmedizin, wenn andere Behandlungsoptionen ausgeschöpft sind oder nicht angewendet werden können. Das 2017 in Berlin gegründete Start-up DEMECAN erhielt 2019 den Zuschlag der Bundesregierung, als eines von drei Unternehmen in Deutschland – allerdings bislang ausschließlich für den medizinischen Gebrauch – Cannabis anbauen zu dürfen.

2.500 Cannabispflanzen wachsen heute in den eigenen Blüteräumen auf dem EU-GMP-zertifizierten, rund 30.000 Quadratmeter großen Produktionsgelände von DEMECAN nahe Dresden. Transparente, verbindliche Abläufe und optimal angepasste Licht- und Temperaturbedingungen sorgen vom Ableger im Labor bis hin zur Ernte für eine völlig pestizidfreie, konstant hohe Produktqualität der Cannabispflanzen. Damit trägt DEMECAN entscheidend zur Versorgungssicherheit und Unabhängigkeit von Importen bei. Für ein so geschichtsträchtiges Vorhaben braucht es eine gehörige Portion Gründermut, Leidenschaft, Ausdauer und die Courage, althergebrachte Arbeitsweisen neu zu denken.

„Unsere Mitarbeitenden und unsere Arbeitsweisen machen den Unterschied“

Das Team von DEMECAN arbeitet mit Start-up-typisch flachen Hierarchien. Die Belegschaft selbst beschreibt die Stimmung als unaufgeregt unkompliziert, sehr kollegial und über alle Generationen hinweg hilfsbereit. Es herrscht eine Kultur, die durch und durch von Ver- und Zutrauen geprägt ist. Und genau so gestaltet DEMECANs IT-Chef Gordon Lösser auch die digitale Zusammenarbeit, er ist überzeugt: „Wer wirklich offen ist, für Digitalisierung von Arbeitsprozessen, sollte technologisch unvoreingenommen und lernbereit sein“. Der Fachmann baut darauf, besser Tools und Workflows auszuprobieren, Erfahrungen damit zu sammeln und auszuwerten, als durch Klagen und Zaudern innovative Arbeitsweisen und -ergebnisse im Vorfeld zu blockieren.

Die Nutzung von Dropbox für alle circa 90 IT-Arbeitsplätze hatte die Geschäftsführung von DEMECAN 2019 bewilligt, da die meisten Mitarbeitenden mit der Cloud-Lösung schon aus ihrem Privatleben vertraut waren und es keinerlei technische Hemmschwelle zu überwinden galt. Genutzt wird Dropbox Business Advanced in Verbindung mit der E-Signaturlösung HelloSign auf allen Arbeitsplätzen.

Wachsende digitale Workflows lösen Papier und Stift ab

DEMECAN arbeitet nach höchsten Ansprüchen, die bewährten Qualitätsstandards Deutschlands und der Europäischen Union zu Anbau (GACP – Good Agricultural and Collection Practice) und Herstellung (GMP – Good Manufacturing Practice) sind tief in der Unternehmens-DNA verankert. Alle Arbeitsanweisungen und Dokumentationen, Testergebnisse und Sendungen an die Apotheken unterliegen genauen Vorgaben und ständigen Kontrollen. Schließlich sollten Patientinnen und Patienten, die auf medizinisches Cannabis angewiesen sind, auf beste Qualität vertrauen können.

IT-Chef Gordon Lösser sieht enorme Potenziale in der digitalen Zusammenarbeit.

Dabei umfassen allerdings allein die Anforderungen der GMP, denen alle pharmazeutischen Hersteller unterliegen, eine weitreichende schriftliche Dokumentation aller Prozesse und durchgeführter Produktionsaufträge.

Korrespondenz, Aufträge, Lieferprozesse und Verträge waren im (deutschen) Wirtschaftsleben lang geprägt von Ausdrucken auf Papier, dem Unterschreiben, zeitaufwendigem Einscannen und Versenden per Post oder E-Mail. Doch ein junges, innovatives Start-up wie DEMECAN dachte von Stunde null papiergebundene Prozesse neu, und zwar holistisch digital.

Bereits vor der Krise suchte man für Papierdokumente – insbesondere solche, die von mehreren Personen unterzeichnet werden müssen – nach einer digitalen Ersatzlösung, die das Procedere verschlankt. Genau hier setzt die in Dropbox integrierte E-Signatur HelloSign an, denn es geht DEMECAN nicht nur um den Unterschriftenprozess an sich, sondern auch um alle damit verbundenen Workflows. Die Cloud-Signaturlösung mit der API-Schnittstelle überzeugt durch Einfachheit der Bedienung, unmittelbare Verfügbarkeit und Transparenz in allen Schritten. Ergebnis sind schnelle, schlanke, papierlose Arbeitsabläufe und eine direkte Einsortierung am richtigen Ort innerhalb der Dropbox, wo alle in den Prozess involvierten Personen die unterzeichneten Dokumente leicht auf- und wiederfinden. Alle Mitarbeitenden haben von jedem beliebigen Ort aus Zugriff auf alle Daten, eine Flexibilität, die Mehrwert schafft.

Eine Cloud-Plattform ist wie fruchtbarer Boden, auf dem die Zusammenarbeit gut gedeiht

Dabei wird Dropbox für weit mehr als nur zur Ablage und das Teilen von Dateien genutzt. Die Kollaborationsplattform unterstützt das Unternehmen bei wichtigen Workflows wie dem Verwalten von Gruppen oder der Administration von Zugriffen auf Freigabeebene. Dass Dropbox kostspielige Server-Workloads einspart und der mobile Zugriff über die App einfach genial hilfreich ist, freut den IT-Direktor sehr. Die Belegschaft schätzt an Dropbox, dass einfach „nichts verloren geht“ und alle Inhalte stets offline und online abrufbar sind. Dabei bleibt die Verwendung immer nutzerfreundlich und die Handhabung einfach. Ein weiteres Kriterium für die Arbeit mit Dropbox war und ist die hohe Integrationsfähigkeit. Denn für die Standard-Büroarbeit ist Microsoft Teams gesetzt und im Projektmanagement kommt bei DEMECAN “Wrike” zum Einsatz – beides ist optimal in Dropbox integriert.

Durch die Pandemie wurden die digitale Zusammenarbeit und die mediale Konnektivität des Teams besser, für Lösser war deutlich feststellbar, dass „die Mitarbeitenden ihre digitale Kompetenz noch einmal entscheidend erhöht haben“. Er kann heute zufrieden feststellen, dass sich durch die Pandemie-bedingte bessere Vernetzung „die Arbeitsgeschwindigkeit und Effektivität aller Teams noch einmal erhöht hat“.

Obwohl bei DEMECAN alle Mitarbeitenden einen eigenen Firmenlaptop und ein Smartphone erhalten, die ausschließlich dienstlich, aber eben gerne hybrid genutzt werden sollen und dürfen, wurde vor 2020 so gut wie ausschließlich von den Firmenbüros aus gearbeitet. Hybride Arbeitsformen waren die Seltenheit. Doch heute ziehen die Arbeitsteams von DEMECAN einen hybriden Arbeitsstil vor, bei dem sie nur noch zum Teil in den Firmenbüros, zum anderen Teil aber aus dem Homeoffice arbeiten.

Neu verwurzelte Meetingkultur

Lösser weiß von seinen Teams, dass diese mittlerweile Videotelefonie der normalen Telefonie vorziehen, weil man sich stets über den Mehrwert freue, die Kolleginnen und Kollegen auch zu Gesicht zu bekommen. Inzwischen würden sogar virtuelle den persönlichen Meetings vorgezogen. Man spare sich Anfahrtswege, Infektionsrisiken und überzogene Meetingzeiten durch die heute optimale Organisation solcher Zusammenarbeitsszenarien im virtuellen Raum, erklärt Lösser. Er kann zwar die Zukunft nicht vorhersehen, hofft aber – deutlich stolz –, dass der bemerkenswerte „hybride Modus“, den sich das DEMECAN Team zugelegt hat, auch weiterhin beibehalten werden kann.

Blick in eine florierende Zukunft

Weil dabei Netzwerkkonnektivität die größte Herausforderung bleibt, arbeitet DEMECAN bereits an einer Anbindung ans Glasfasernetz. Auch in anderen technischen Belangen hat das Unternehmen konkrete Zukunftspläne und -wünsche: Neben der Erweiterung des ERP-Systems und dem Aufbau weiterer Onlineshops möchte DEMECAN künftig 100 % papierfreie Arbeitsabläufe realisieren und die Zusammenarbeit auf pur digitale Beine stellen. Und außerhalb des Machtbereiches des Unternehmens ist natürlich die Frage zentral, wohin sich die Rechtsprechung in Sachen Legalisierung von Cannabis weiterentwickelt. Es bleibt spannend. Doch feststeht, dass man in Zukunft in vielerlei Hinsicht noch viel von DEMECAN hören wird.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine Angst vor Komplexität

Warum Unternehmen offen für neue Technologien sein sollten

Autor: Peter Diefenthäler*

Motivation

Die Softwareentwicklung im 21. Jahrhundert bringt viele neue Herausforderungen mit sich:

  • neue Plattformen, die auf Cloud-Technologien aufbauen
  • moderne Architekturen, die auf diesen Plattformen gut funktionieren
  • eine neue Entwicklerkultur, die auf DevOps-Paradigmen basiert

Mit diesen Herausforderungen steigt auch der Grad an Komplexität in allen drei genannten Dimensionen. Ein Blick auf neue Technologien kann helfen, die Komplexität zu meistern oder sie zumindest beherrschbar zu machen.

Wie heißt es so schön im agilen Manifest: Embrace Change!

Abbildung 1: komplex und kompliziert?

Komplexität

Geht es Ihnen auch so, dass beim Begriff der Komplexität immer so ein negativer Unterton mitschwingt?

Schaut man sich die Definition an, hört sich das alles doch erst mal ganz gut an:

Komplexität (lateinisch complexum, Partizip Perfekt von complecti „umschlingen“, „umfassen“ oder „zusammenfassen“) bezeichnet das Verhalten eines Systems oder Modells, dessen viele Komponenten auf verschiedene Weise miteinander interagieren können, nur lokalen Regeln folgen und denen Instruktionen höherer Ebenen unbekannt sind.

Wikipedia

Liest man sich den Satz ein zweites Mal durch, stößt man auf folgende Formulierungen:

  • viele Komponenten
  • verschiedene Interaktionsmuster
  • verborgene lokale Regeln

So kommt es wahrscheinlich dazu, dass man mit komplex oft kompliziert assoziiert!

Komplexe Systeme sind in der Regel anspruchsvoll, aber sie sind nicht per se kompliziert. Wir müssen aber durchaus lernen, mit Komplexität umzugehen.

Komplexität hat im Wesentlichen zwei Dimensionen:

  • Komplexität der Organisation
    (Größe, Struktur, Ökosysteme, formale und informale Prozesse, Firmenkultur, …​)
  • Komplexität im Zusammenwirken mit Technologie
    (Plattformen, Programmiersprachen, Frameworks, Werkzeuge, Tools, Dienste, …​).

Auf der Ebene der Organisation ist Komplexität sehr viel schwieriger zu adressieren als auf der technischen. Das bekannte Mantra „KISS – Keep it simple, stupid“ sollte zwar auch auf Organisationen anwendbar sein, diese sind aber über die Zeit gewachsen und zu dem geworden, was sie heute sind. Es bedarf viel Fingerspitzengefühl, Verständnis und Durchsetzungsfähigkeit, um Komplexität auf dieser Dimension anzugehen.

Es gibt im Wesentlichen zwei erfolgsversprechende Strategien, um Komplexität in den Griff zu bekommen:

  • Komplexität kann man durch Weglassen, Bündeln und Standardisieren von Produkten, Aufgaben und Prozessen verringern. Hier ist Augenmaß gefordert, denn es können schnell neue Abhängigkeiten entstehen und die Individualität einzelner Kunden oder Alleinstellungsmerkmale der Organisation bleiben auf der Strecke.
  • Ein anderer Ansatz im Umgang mit Komplexität besteht darin, Produkte und Dienste modular aufzubauen. Das erreicht man auf einer hohen Abstraktionsebene mit sogenannten Baukastenlösungen, die man geschickt kombiniert. Auf einer niedrigen Abstraktionsebene gelingt das mit geeigneten Technologien.

Neue Technologien können der Schlüssel sein, Komplexität zu verringern und IT-Systeme und damit letztendlich auch die Organisation weniger kompliziert zu machen.

Neue Technologien

Technologie allein löst keine Probleme! Wählt man sie unüberlegt aus, kann sie neue Probleme schaffen. Daraus resultiert oft die Angst vor neuen Technologien, denn sie können Komplexität erhöhen und alles noch komplizierter machen. Moderne Architekturen und Plattformen basieren auf neuen Technologien und versprechen Abhilfe zu schaffen. Schaut man sich zum Beispiel eine Architektur an, die auf Microservices aufbaut, stellt man fest, dass sie viel Flexibilität beim Einsatz neuer Technologien bietet. Das Risiko wird dadurch minimiert, dass man viele „kleine“ Services baut, diese auf Fachlichkeit ausrichtet und mit passenden Technologien implementiert. Diese sogenannten polyglotten Systeme werden von kleinen Teams mit überschaubarem Aufwand entwickelt und betrieben und es tut nicht besonders weh, wenn man bei der Auswahl einer Technologie in eine Sackgasse gerät und gegebenenfalls von vorne beginnen muss.

Die Idee des MVP (Minimum Viable Product) ist eine weitere Methode, neue Technologien zu verproben und sicherzustellen, dass die Fachlichkeit passt und die Akzeptanz bei der Zielgruppe hoch ist. Entwirft ein Architekt einen neuen Gebäudekomplex, entsteht für den Wettbewerb in der Regel erst mal ein Modell, welches die Gebäude in ihrer Form und Anordnung im Ensemble idealisiert darstellt.

Abbildung 2: 3D-Einsatzmodell aus Kunststoff (Foto: Formicore)

Wird der Wettbewerb gewonnen oder ein Auftrag erteilt, geht es in die Detailplanung der Gewerke. Die Entscheidungen werden dann individuell für die einzelnen Gebäudearten getroffen: welche Baumaterialien stehen zur Verfügung, soll alles unterkellert sein, wie erfolgen Energieversorgung und Heizung, wo liegen Eingänge und wie kommt Licht in die Gebäude.

All diese Probleme muss man auch bei der Umsetzung von Softwarearchitekturen lösen. Allerdings haben wir in der IT einen entscheidenden Vorteil: Flexibilität!
Ist ein Hochhaus erst einmal errichtet, kann man es nicht einfach wieder abreißen, oder einen Keller daruntersetzen. In der IT ist dies sehr viel einfacher möglich. Klar kostet das auch Geld und Zeit, aber nicht in dem Maße mit dem Materialeinsatz und den Auswirkungen auf die Umwelt. Die Einführung oder der Schwenk auf neue Technologien bringt oft einen echten Mehrwert und Applikationen lassen sich einfacher betreiben oder auf einen neuen Stand bringen. Die Konsumenten der Services merken nichts vom eigentlichen Technologiewechsel und profitieren im Idealfall von schnelleren Entwicklungszyklen, höherer Qualität und besserer Performance.

Sind jetzt neue Technologien das Allerheilmittel?

Sagen wir es mal so: Neue Technologien können komplexe Systeme weniger kompliziert machen. Das erkauft man sich aber durch eine steilere Lernkurve und die Gefahr, auf ein falsches Pferd zu setzen. Schließlich müssen Anwendungen auch gewartet werden und dafür müssen Wissensträger für den eingesetzten Technologie-Stack verfügbar bleiben.

Um das Risiko bei der Auswahl neuer Technologien gering zu halten, lohnt sich der Blick auf die Cloud Native Computing Foundation[1] und den Technology Radar von Thoughtworks[2]. Das sind gute Anlaufpunkte, Technologien zu identifizieren und sicherzustellen, dass es auch eine Community und damit Unterstützer gibt, die einem mit Rat und Tat zur Seite stehen.

Fazit

Hat man einmal gesehen, wie elegant Probleme mit funktionaler Programmierung, Microservice-Architekturen und Event-basierter Kommunikation gelöst werden können, findet man schnell Geschmack daran, neue Technologien auszuprobieren. Die modernen Plattformen ermöglichen schnelle Entwicklungszyklen und unterstützen durch ihren hohen Grad an Automatisierung die DevOps-Prozesse und agiles Vorgehen. Das alles macht es heutzutage leicht, neue Technologien auszuprobieren, ohne Angst haben zu müssen, mit einmal getroffenen Entscheidungen in eine Sackgasse zu geraten. Es gibt also wirklich keine guten Gründe mehr, nicht auf neue Technologien zu setzen – aber bitte mit Augenmaß ;=)

Über den Autor:

Peter Diefenthäler arbeitet als Softwarearchitekt bei der ARS Computer und Consulting GmbH in München. Mit vielen Jahren Erfahrung in der Produktentwicklung auf dem Mainframe bis hin zu aktuellen verteilten Anwendungen, beschäftigt er sich heute mit den Schwerpunkten Cloud-native Entwicklung, Migration großer Softwaresysteme sowie Digitale Transformation und hält Trainings und Schulungen in diesen Bereichen.

E-Mail: peter.diefenthaeler@ars.de


[1] https://landscape.cncf.io

[2] https://www.thoughtworks.com/de-de/radar


Bildquelle / Lizenz Aufmacher: Unsplash / Zhu Hongzi

Lokal Einkaufen

Lokal Einkaufen unterstützt Beschaffungsexpert:innen in Deutschland und ganz Europa beim Einkauf aus der Region

Amazon Business hat heute den Start des neuen Features Lokal Einkaufen auf dem europäischen Markt angekündigt. In örtliche Gemeinschaften zu investieren, hat für deutsche Geschäftskund:innen aus den Bereichen Bildung, öffentlicher Sektor, die Automobilherstellung oder Bau und Technologie eine hohe Priorität. Dieses Feature ermöglicht es nun Beschaffungsexpert:innen und ihren Teams, Verkäufer:innen auf Länder- oder sogar Stadtebene zu identifizieren, lokale Kaufentscheidungen zu treffen und in ortsansässige Unternehmen zu investieren.

Lokal Einkaufen bietet den Beschaffungsexpert:innen die Möglichkeit, unternehmensweite Vorgaben schnell umzusetzen, um den Einkauf in der Region zu begünstigen. Dabei helfen individuell einstellbare Filter zu Umgebung und Preisen. Alle Einkäufer:innen einer Organisation können unter den verschiedenen wettbewerbsfähigen Angeboten die lokalen Beschaffungsoptionen sehen. So sorgt das Feature dafür, dass die Mitarbeiter:innen den Vorgaben zum regionalen Einkauf nachgehen können und einen einfachen Zugang zu lokalen Anbieter:innen haben.

Die Beschaffung spielt eine strategische Rolle bei der Erreichung der lokalen Beschaffungsziele eines Unternehmens. In einer kürzlich durchgeführten Umfrage des Unternehmens gaben 90 Prozent der Führungskräfte im Beschaffungswesen an, dass Investitionen in lokale Gemeinschaften eines ihrer Beschaffungsziele sind.

„Lokal Einkaufen vereinfacht den lokalen Einkaufsprozess und bringt Einkaufsleiter:innen mit lokalen oder regionalen Anbieter:innen zusammen.“

Florian Böhme

Florian Böhme, Deutschlandchef Amazon Business

Florian Böhme, Deutschlandchef Amazon Business: „Die Beschaffung von Produkten und Dienstleistungen von ortsansässigen Unternehmen bietet eine große Chance, aber gleichzeitig bleibt es eine Herausforderung, bestehende Lieferketten zu verändern, insbesondere in größeren Unternehmen. Wir haben Lokal Einkaufen mit dem Ziel auf den Weg gebracht, genau das zu erleichtern. Lokal Einkaufen vereinfacht den lokalen Einkaufsprozess und bringt Einkaufsleiter:innen mit lokalen oder regionalen Anbieter:innen zusammen. So können sie nachhaltiger einkaufen und gleichzeitig die aktuellen und zukünftigen Compliance-Richtlinien ihres Unternehmens einhalten.”

Lokal Einkaufen bietet außerdem Zugriff auf die Amazon Business Analysetools, so dass alle lokal getätigten Ausgaben leicht nachverfolgt, verwaltet und mit den Unternehmens- und Teamzielen verglichen werden können. Das gibt Einkaufsleiter:innen alle Informationen, die sie benötigen, um schnellere und strategischere Entscheidungen zu treffen. Mit Echtzeitdaten können Führungskräfte den Fortschritt bei der Erreichung lokaler Einkaufsziele vorantreiben, den Prozess optimieren, künftige Budgets prognostizieren und Richtlinien entwickeln, um die Ausgaben der Einkäufer:innen zu steuern.

In Deutschland geben zahlreiche Unternehmen, die am ersten Rollout des Features teilgenommen haben, bereits bis zu 50 Prozent ihrer Amazon-Business-Einkaufsbudgets über Lokal Einkaufen aus, wobei bestimmte Schlüsselsektoren bei der Nutzung dieser Funktion führend sind.

So haben zum Beispiel die Kund:innen des öffentlichen Sektors in Deutschland ihre Ausgaben bei lokalenVerkäufer:innen während der ersten Einführung um mehr als 18 Prozent erhöht. Auch andere Branchen wie Bildung, Bauwesen und Technologie machen von der Funktion Gebrauch. Zusätzlich zum vermehrten Kauf bei lokalen Lieferant:innen nutzen Hunderte von Kund:innen in ganz Europa, wie etwa führende Universitäten sowie Automobil- und Technologieunternehmen die Funktionen von Amazon Business, so z.B. Guided Buying, das Unternehmen ermöglicht, ihre Ausgaben auf eine beliebige Anzahl von Prioritäten auszurichten.

Oder die Anwendungsprogrammierschnittstellen (API) von Amazon Business, um zeitaufwändige manuelle Aufgaben zu automatisieren, so dass Einkäufer:innen mit ihren bestehenden Einkaufstools problemlos „Climate Pledge Friendly“- Produkte finden und bestellen können. Diese Funktionen ermöglichen es den Einkaufsleiter:innen, unternehmensweite Beschaffungsvorgaben zu setzen. Das gibt Hunderten oder sogar Tausenden Einkäufer:innen die Möglichkeit, mehr Geld für nachhaltige Produkte auszugeben. Gemeinsam mit Lokal Einkaufen werden Beschaffungsleiter:innen so in die Lage versetzt, ihr Unternehmen bei der Einhaltung einer großen Bandbreite an lokalen Einkaufszielen als Teil ihrer umfassenden ESG-Ziele zu unterstützen.

Mehr Informationen finden Sie unter :
business.amazon.de/soziale-verantwortung/lokal-einkaufen

Aufmacherbild / Quelle / Lizenz

Photo by Tim Mossholder on Unsplash

Lizenz Text:
Dies ist eine Pressemitteilung von Amazon Business

Impact Investing oder Impact-Washing: Wohin geht der Trend?

Dr. habil. Moritz Isenmann, Research and Strategy Manager bei Invest in Visions GmbH, grenzt „echtes“ Impact Investing von „unechtem“ ab.

Kaum ein Begriff ist am Finanzmarkt aktuell so populär wie „Impact“. Immer mehr Anbieter von Finanzprodukten geben an, mit ihren Investments eine positive Wirkung für Gesellschaft und Umwelt zu erzielen, sprich „Impact Investing“ zu betreiben. Dies spiegelt sich in den Angaben zum verwalteten Vermögen wider, die Branchenverbände und Netzwerkorganisationen veröffentlichen. Das Forum Nachhaltige Geldanlagen (FNG) beispielsweise, das im Zeitraum 2019/2020 für Deutschland bereits ein Wachstum von 104 Prozent (von 8,1 Mrd. auf 16,6 Mrd. Euro) verzeichnet hatte,[1] gibt in seinem aktuellen Marktbericht eine neuerliche Steigerungsrate von 80 Prozent auf nunmehr 29,9 Mrd. Euro an.[2] Innerhalb von zwei Jahren wäre dies eine Steigerung von knapp 270 Prozent.

Aber wohin geht der Trend, der sich in diesen Zahlen manifestiert, wirklich: zu mehr Impact Investing oder zu mehr „Impact-Washing“? Die Crux mit solchen, in ihrem Steigerungsgrad kaum plausiblen, Marktangaben besteht nämlich darin, dass sie auf Aussagen von Produktanbietern beruhen. Wie viel echter Impact, wie viel gefühlter Impact und wieviel Impact-Washing sich dahinter verbirgt, ist schwer einzuschätzen. Eine unabhängige Datengrundlage gibt es nicht. Durch die Wissenschaft belegt ist jedoch mittlerweile, dass Impact-Washing, also die irreführende Verwendung des Begriffs für werbliche Zwecke, bereits stattfindet.[3] Sollte sich Impact-Washing weiterverbreiten, ist die Legitimität dieses noch jungen Markts bedroht und ein Vertrauensverlust der Anleger zu befürchten.

Was ist eigentlich Impact Investing?

Befördert wird Impact-Washing nicht zuletzt durch unklare bzw. zu breit gefasste Definitionen. Eine gute Orientierung bietet der Definitionsansatz der International Finance Corporation (IFC). Die IFC ist eine privatwirtschaftliche Schwestergesellschaft der Weltbank und selbst einer der weltweit größten Impact Investoren. 2019 hat sie mit den „Operating Principles for Impact Management“ einen ambitionierten Industriestandard für Impact Management vorgelegt, zu dem sich bereits über 160 internationale Impact Investoren bekennen, darunter auch Invest in Visions.[4]

Invest in Visions-Vordenker Moritz Isenmann: „Impact Investing kann einen signifikanten Beitrag zur nachhaltigen Transformation der Wirtschaft leisten.“

Der IFC zufolge müssen für Impact Investing drei Voraussetzungen erfüllt sein: eine Wirkungsabsicht, ein Wirkungsbeitrag (contribution) und die Messung der Wirkung. Nur wenn alle drei Elemente gegeben sind, sollte man von einem „Impact Investment“ sprechen.[5] Die zentrale Position nimmt der Wirkungsbeitrag ein. Ein Wirkungsbeitrag – in der gegenwärtigen Diskussion wird hierfür auch der Begriff „Additionalität“ verwendet – liegt dann vor, wenn ein Unternehmen durch die Investition seine eigene Wirkung (den „Company Impact“) erhöhen oder verbessern kann. Wird der „Company Impact“ hingegen nicht beeinflusst, liegt auch kein „Investment Impact“ vor. Dasselbe gilt, wenn Wirkungsabsicht oder -messung fehlen.

Der Königsweg für das Leisten eines Wirkungsbeitrags ist die Allokation von Kapital. Hier ist der Privatmarkt in einer privilegierten Position, da das Kapital direkt vom Investor an das Unternehmen fließt. Über den Sekundärmarkthandel an der Börse ist ein Wirkungsbeitrag hingegen kaum zu erbringen, da kein neues Kapital allokiert wird, sondern eine Aktie lediglich den Besitzer wechselt. Das bedeutet nicht, dass nicht möglicherweise eine irgendwie geartete Wirkung entfaltet wird, beispielsweise das Stützen eines Aktienkurses. Doch ist diese weder im Vorhinein plan- noch im Nachhinein messbar, wie es die anderen beiden Merkmale von Impact Investing erfordern. Die IFC jedenfalls schließt das reine Investieren am Sekundärmarkt von den eigentlichen Impact-Strategien aus. Das ist auch sinnvoll, wenn Impact Investing als klar definierbare Investitionsstrategie erhalten werden soll. Begriffsschöpfungen wie „Impact Alignment“, die darauf abzielen, auch Investitionen ohne zurechenbaren Wirkungsbeitrag als Impact Investments bezeichnen zu können,[6] werden hingegen, so ist zu vermuten, zu einer Vermehrung von Impact-Washing führen, weil sie den Anspruch an eine Verwendung des Impact-Begriffs senken.

Mikrofinanz und SME-Finanzierung

Eine der ältesten Formen von Impact Investments mit Wirkungsbeitrag, die bis in die 1970er Jahre zurückreicht, ist die Vergabe von Mikrokrediten in den Entwicklungs- und Schwellenländern. Mittlerweile ist Mikrofinanz eine fest etablierte Asset-Klasse. Über Mikrofinanzfonds wie den IIV Mikrofinanzfonds werden Mikrofinanzinstitute in den Entwicklungs- und Schwellenländern refinanziert, die Kleinstkredite an ihre Kunden:innen vergeben. Bei diesen handelt es sich um einkommensschwache Menschen, die keine ausreichenden Sicherheiten bieten können, um Darlehen von traditionellen Finanzinstituten zu erhalten. 1,7 Mrd. Menschen sind Schätzungen zufolge in den Emerging Markets von Finanzdienstleistungen ausgeschlossen.[7] Die Mikrokredite werden mehrheitlich für die Aufnahme bzw. Ausübung gewerblicher Tätigkeiten vergeben, mit denen die Darlehensnehmer:innen sich eine Existenz aufbauen bzw. sichern können, oder für sozial notwendige Ausgaben wie beispielsweise Beerdigungen.[8]

Mikrofinanz bzw. der Zugang zu Finanzdienstleistungen wird von den Vereinten Nationen als Beitrag zu verschiedenen nachhaltigen Entwicklungszielen (Sustainable Development Goals, kurz: SDGs) anerkannt und im Text von mehreren Unterzielen erwähnt.[9] Tatsächlich haben es Mikrounternehmen, ebenso wie SME (Small and Medium Enterprises), die zusammen mehr als 90 Prozent aller Unternehmen stellen, in den Entwicklungs- und Schwellenländern oft schwer, an Kapital zu gelangen. Damit wird ihr enormes Potenzial zur Schaffung von Arbeitsplätzen sowie Wirtschaftswachstum und damit auch zum Abbau von Ungleichheiten stark einschränkt. Die IFC schätzt die Finanzierungslücke für MSME (Micro, Small and Medium Enterprises) in den Emerging Markets auf 5,2 Billionen US-Dollar, von denen 772 Milliarden auf Mikrounternehmen und 4,5 Billionen auf den SME-Sektor entfallen.[10]

Die „Impact-Leitlinien“: ein Aufruf zu mehr Transparenz

Impact Investing (in seiner traditionellen Form) kann, das hat auch der Sustainable Finance-Beirat der Bundesregierung (SFB) in seinem Abschlussbericht vom Februar 2021 festgestellt,[11] einen signifikanten Beitrag zur nachhaltigen Transformation der Wirtschaft leisten. Eine wichtige Voraussetzung dafür ist jedoch, dass Impact-Washing auf dem Finanzmarkt konsequent eingehegt wird. Dazu sollen die „Leitlinien zur Darstellung von Impact im Bereich wirkungsorientierter Investments“ (kurz Impact-Leitlinien) beitragen. Unterzeichnet haben diese zusammen mit der Invest in Visions die GLS Investments, die GLS Bank, die Frankfurt School of Finance, die Bank im Bistum Essen, die Steyler Bank, Arethe Ethik Invest und die Pax-Bank.

Nicht zuletzt plädieren die Impact-Leitlinien auch für einen verantwortungsvollen Umgang mit den SDGs. Unbestritten ist, dass sich die graphisch ansprechenden Piktogramme außerordentlich gut für Marketingzwecke eignen. Falls der Anspruch erhoben wird, einen Beitrag zum Erreichen eines bestimmten nachhaltigen Entwicklungsziels zu leisten, sollte man sich aber auf ein offizielles Unterziel oder einen Indikator des jeweiligen Ziels beziehen. Sonst kann ein Bezug leicht missbräuchlich werden. Schließlich trägt nicht jede Investition in ein Pharmaunternehmen zu „SDG 3: Gesundheit und Wohlergehen“ bei, ebenso wie nicht jeder Lebensmittelkonzern dabei hilft, den Hunger aus der Welt zu schaffen („SDG 2: Kein Hunger“).

Die Impact-Leitlinien sind an allererster Stelle ein Aufruf zur Transparenz, präsentiert in Form von sechs Fragen, auf die man als Impact Investor Antwort geben können sollte. So lautet die erste Frage: „Wer ist für den Impact verantwortlich: Investor oder Investment“? Hier sollte genau differenziert werden, ob durch das Investment Kapital an Unternehmen fließt, mit dem diese eine positive Wirkung erzielen können, oder ob es sich um einen Sekundärmarkthandel ohne Kapitalfluss hin zum Unternehmen handelt. Eine weitere Frage zielt darauf ab, ob spezifische Impact-Indikatoren aufgestellt wurden, um den Beitrag zur Erreichung bestimmter sozialer oder ökologischer Ziele zu messen. Im Mikrofinanzbereich sind solche Indikatoren u. a. die Anzahl erreichter Kreditnehmer:innen (berechnet über den refinanzierten Anteil des jeweiligen Kreditportfolios) oder die Portfolioallokation nach wirtschaftlichen Sektoren.[12]

Die vollständigen „Impact-Leitlinien“ finden Sie hier.


Quellen:

[1] FNG_Marktbericht2021_Online.pdf (fng-marktbericht.org), S. 10.

[2] https://fng-marktbericht.org/deutschland#c1936danlagen (fng-marktbericht.org), S. 10.

[3] Suzanne Findlay / Michael Moran, Purpose-washing of impact investing funds: motivations, occurrence and prevention, in: Social Responsibility Journal 15 (2019), S. 853-873.

[4] Signatories & Reporting | Operating Principles for Impact Management (impactprinciples.org)

[5] IFC, Creating Impact. The Promise of Impact Investing, 2019, S. 3 ff. Online unter: https://www.ifc.org/wps/wcm/connect/66e30dce-0cdd-4490-93e4-d5f895c5e3fc/The-Promise-of-Impact-Investing.pdf?MOD=AJPERES&CVID=mHZTSds.

[6] Timo Busch et al., Impact investments: a call for (re)orientation, SN Bus Econ, 2021 S. 1-33.

[7] Asli Demirgüc-Kunt et al., The Global Findex Database 2017. Measuring Financial Inclusion and the Fintech Revolution, Washington D.C.: International Bank for Reconstruction and Development/Worldbank 2018.

[8] Zu den wichtigsten Entwicklungen im Bereich Mikrofinanz und finanzielle Inklusion in den vergangenen zehn Jahren siehe unseren Impact Report 2021, S. 13-14. https://www.investinvisions.com/media/iiv_impact_report_2021.pdf

[9] So beispielsweise in Unterziel 4 von „SDG 1: Keine Armut“ und Unterziel 2 von „SDG 2: Kein Hunger“.

[10] IFC, MSME Financing Gap: Assessment of the Shortfalls and Opportunities in Financing Micro, Small, and Medium Enterprises in Emerging Markets, 2017, S. 28.

[11] Sustainable Finance-Beirat der Bundesregierung, Shifting the Trillions. Ein nachhaltiges Finanzsystem für die Große Transformation, 2021, https://sustainable-finance-beirat.de/wp-content/uploads/2021/02/210224_SFB_-Abschlussbericht-2021.pdf

[12] Invest in Visions, Impact-Report 2021, S. 30-31.


Bildquelle / Lizenz Aufmacher:

Photo by Katt Yukawa on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Social Media in der B2B-Kommunikation 2022

Homeoffice, Corona, Great Resignation: So verändert sich die B2B-Social-Media-Kommunikation im aktuellen Kontext

Die einzige Langzeitstudie zur Untersuchung der Social-Media-Kommunikation von B2B-Unternehmen ist angelaufen. Die Ergebnisse werden 2022 besonders interessant: So fließen sicher die Veränderungen des Nutzungsverhaltens durch den Homeoffice-Trend, durch Remote-Arbeitsmodelle oder durch das Phänomen der „Great Resignation“ ein – und es wird sich zeigen, inwieweit diese dauerhafter Natur sind. Die Resultate und Vergleichsmöglichkeiten der Studie geben Unternehmen aller Wirtschaftsbereiche und Größenordnungen wertvolle Orientierung und Entscheidungshilfen zur künftigen Planung ihrer Social-Media-Strategien und -Budgets.

Im Kern der Studie stehen Veränderungen, die sich im Nutzerverhalten der Social-Media-Kanäle in der B2B-Branche ergeben haben. Gerade das Alleinstellungsmerkmal eines Datenvergleichs über den Zeitraum von zwölf Jahren hinweg bietet B2B-Unternehmen und Kommunikationsentscheidern im DACH-Raum die einmalige Möglichkeit, ihr eigenes Social-Media-Nutzungsverhalten konkret zu analysieren, sich mit dem richtigen Kommunikationsmix von Marktbegleitern abzugrenzen und Trends in der Nutzung digitaler Kommunikationswerkzeuge auf Grundlage valider Datenauswertung richtig einzuordnen und umzusetzen.

In den letzten Jahren konnten B2B-Unternehmen von den Ergebnissen der Studie in hohem Maße profitieren. Die weitreichenden Nutzungsmöglichkeiten und praxisnahen Erkenntnisse bieten für den gesamten deutschsprachigen Raum nicht nur die Möglichkeit, Social-Media-Strategien und -Budgets zielgruppengenau anzupassen. Die Schlussfolgerungen ermöglichen es Kommunikationsentscheidern auch, sich in den sozialen Online-Netzwerken durch passgenaue, glaubwürdige und geradlinige Auftritte von Mitbewerbern zu unterscheiden.

Corona-Pandemie sorgte bereits im letzten Jahr für große Veränderungen – bleibt es dabei?

Seit Pandemie-Beginn hat sich Social Media für viele Unternehmen zu einem effektiven Werkzeug entwickelt, um dem Fachkräftemangel erfolgreich entgegenzuwirken, also Arbeitnehmer langfristig zu binden und sich im Sinne eines strukturierten Employer Brandings als attraktive Arbeitgebermarke zu positionieren. Wie sich dies nun weiterentwickelt, wird ein weiterer Schwerpunkt der diesjährigen Erhebung sein.

Folgende Schlüsselfragen stehen für die Langzeitstudie des „Erster Arbeitskreis Social Media in der B2B-Kommunikation“ daher im Fokus:

  • Wie hat sich die Social Media Nutzung im vergangenen Jahr weiterentwickelt?
  • Welche Trends und Entwicklungen zeichnen sich nun ab oder etablieren sich?
  • Welche Erwartungen stellt die B2B-Community an ihre Social Media Präsenz?
Jacqueline Althaller, Gründerin des Arbeitskreises und Initiatorin der Studie

„Mit der Pandemie sowie den coronabedingten Folgen haben wir zum ersten Mal wirklich tiefgreifende Veränderungen in der Nutzung von Social-Media-Kanälen festgestellt. 2022 wird zeigen, wie langanhaltend diese Veränderungen sind und ob sich Kanäle wie TikTok weiter etablieren konnten“, so Jacqueline Althaller, Gründerin des Arbeitskreises und Initiatorin der Studie.

Rückblickend auf die Ergebnisse des letzten Jahres erläutert die Kommunikationsexpertin: „Ein großer Trend im letzten Jahr war es, die eigenen Mitarbeiter zu Unternehmensbotschaftern aufzubauen; vielen B2B-Unternehmen ist das unserer Erfahrung nach aber noch nicht gelungen – es wird nun spannend zu sehen, wie sich das in den Studienergebnissen widerspiegelt. Mit Hilfe von erfahrenen und medienaffinen Studienpartnern wollen wir, unsere Teilnehmerzahlen in diesem Jahr noch einmal deutlich steigern und freuen uns über jeden, der sich aktiv beteiligt!“.

Die Datenerhebung für den gesamten DACH-Raum läuft bis zum 8. August 2022.

„Mit der Teilnahme an der Online-Umfrage über den bereitgestellten Link sichern Sie sich den kostenlosen Erhalt der Ergebnisse ab Mitte September“, ergänzt Althaller abschließend.

>>>> Zur Umfrage des 1. Arbeitskreis SOCIAL MEDIA B2B

Cyberangriffe beenden

Reiner Dresbach, Vice President Central bei Cybereason, schreibt über die Verwundbarkeit von Unternehmen in der aktuellen Cybersicherheitslage.

 

 

„Ist der Westen durch russische Cyber-Vergeltung im Zusammenhang mit der Ukraine gefährdet? Es ist kompliziert…“

Schon vor dem Einmarsch Russlands in die Ukraine haben sich Cybersecurity-Experten gefragt: Wann ist es soweit, dass der „große Angriff“ kommt? Russland ist dank seiner aggressiven Cyberfähigkeiten berühmt – oder eher berüchtigt. Dafür sorgen Angriffe wie NotPetya und SolarWinds.

Daher schien es unvermeidlich, dass jede Großoffensive Russlands mit massiven hybriden Angriffen, die sich auch in die digitale Welt erstrecken, gegen die kritische Infrastruktur der Ukraine verbunden sein würde. Als westliche Staaten wie die USA, die EU und viele andere ihre Unterstützung für die Ukraine ankündigten, schien es sehr wahrscheinlich, dass auch sie Ziel solcher digitalen Angriffe werden würden.

Doch wie es aussieht, kam es bislang nicht zu diesen Angriffen – zumindest nicht in dem erwarteten Ausmaß. So sind beispielsweise nicht überall im Westen die Lichter ausgegangen. Russland hat keine Angriffe auf die kritische Infrastruktur der Länder gestartet hat, die die „Frechheit“ besaßen, sich mit der Ukraine zu solidarisieren – obwohl wir solche Attacken in der Ukraine, beispielsweise dem verheerenden Angriff auf das Satellitensystem Viasat, gesehen haben.

Dieser Angriff erinnert an die NotPetya-Attacke des GRU gegen die Ukraine von 2014. Diese verbreitete sich unkontrolliert über die beabsichtigten Ziele hinaus und verursachte Kollateralschäden in anderen Ländern. Letztlich hatte der Angriff jedoch wenige bis keine Auswirkungen. Es gibt zwar eine Reihe von Theorien darüber, warum der Westen weitgehend verschont geblieben ist. Wir müssen uns aber darüber im Klaren sein, dass „bisher noch nicht“ nicht „nie“ bedeutet.

Es gibt eine Reihe von Gründen, warum die Menschen in Ländern, die mit der Ukraine sympathisieren, weiterhin vor potenziellen Angriffen auf der Hut sein sollten. Ein wichtiger Indikator dafür ist auch die Tatsache, dass die US-Regierung, die auch vor dem Einmarsch Russlands in die Ukraine korrekt gewarnt hat, Informationen über mögliche Angriffe weitergibt. Die CISA beispielsweise hat einen dringenden Appell an Unternehmen gerichtet, wachsam zu sein und ungewöhnliche Aktivitäten zu melden. Diesen sollten wir ernst nehmen – denn solche Angriffe können überall und jederzeit beginnen und sind schwer zu erkennen, bevor es zu spät ist.

Die russische Vergeltung könnte schlichtweg langsamer verlaufen als vorhergesagt. Wie Sam Curry, CSO hier bei Cybereason, betont, sind viele der Meinung, dass Cyberangriffe Teil der ersten Offensive sind, um das Zielland und seine Verbündeten als Auftakt zur physischen Kriegsführung lahmzulegen.

Möglicherweise hat Russland solche Angriffe aber auf der Eskalationsstufe höher angesiedelt und ist vorsichtig, sich einem digitalen Gegenschlag auszusetzen, wenn es bereits an so vielen Fronten kämpft. Zudem dürfen wir nicht vergessen, dass Russland nur über eine begrenzte Anzahl von Zero-Days und unbekannten Exploits in seinem Arsenal verfügt. Sobald diese eingesetzt werden, sind die IOCs verfügbar und die TTPs schnell veraltet. Es ist für Russland daher wichtig, seine Ziele und den richtigen Zeitpunkt sorgfältig auszuwählen.

Der Krieg selbst ist noch lange nicht beendet, und der Ausgang ist immer noch ungewiss. Eine weitere Möglichkeit ist also, dass sich Russland schließlich der Cyberkriegsführung zuwendet, um seine eigenen Kassen zu füllen, während sich der Konflikt und die damit verbundenen Sanktionen hinziehen. Selbst wenn sich Russland nicht aus Profitinteresse der Cyberkriminalität zuwendet, haben sich patriotische Hacker wie die Conti-Ransomware-Bande (die vor kurzem zerschlagen wurde und zweifellos bald unter neuem Namen wieder auftauchen wird) öffentlich mit russischen Interessen solidarisiert und werden aus dem Konflikt Kapital schlagen.

Selbst politisch völlig unbeteiligte Akteure könnten durch den Konflikt in Bedrängnis geraten, wie wir es in den Branchen Energieversorgung und Landwirtschaft beobachteten. Denn sie sehen, dass diese Branchen auf eine globale Krise reagieren müssen und wahrscheinloch eher bereit sind, Lösegeld zu zahlen.

Die schlechte Nachricht für westliche Unternehmen ist, dass es bisher kaum Anzeichen dafür gibt, dass die russische Cyber-Kriminalität gestoppt oder auch nur verlangsamt wird – sondern dass sie möglicherweise sogar noch zunehmen wird. Die gute Nachricht ist, dass Russland selbst auch nicht immun gegen diese Gefahren ist. Reuters berichtete beispielsweise kürzlich über Aussagen von Wladimir Putin zu Angriffen auf russische Regierungsziele.

Allein im März hat Russland auch 70.000 IT-Fachleute verloren, die aus Angst vor einem Wehrdienst oder der Schließung der Grenzen aus dem Land geflohen sind. Diese schwindelerregende Zahl entspricht etwa 5 % des russischen IT-Sektors. Weitere Berichte zeigen, dass Russland verzweifelt versucht, diesen Verlust auszugleichen, und sich sogar an Strafgefangene wendet. Möglicherweise ist Russland zu sehr damit beschäftigt, sich als neues schwaches Ziel in die Defensive zu begeben, da es aufgrund der Sanktionen nicht in der Lage ist, seine eigenen Systeme zu reparieren. In diesem Fall wäre es für Russland nicht möglich, die von Experten befürchteten ehrgeizigen Offensivkampagnen zu starten.

In der Zeit, in der wir darauf warten, dass der sprichwörtliche Stein ins Rollen kommt, sollten besorgte Einzelpersonen und Organisationen wachsam sein. Erweitern Sie Ihre Verteidigungsmaßnahmen, patchen Sie Ihre Systeme und informieren Sie sich über Updates.

 

Weitere Informationen unter: https://www.cybereason.com/de/

 

 

Bildquelle: Photo by Ahmed Zayan on Unsplash

SEO entmystifiziert

Ein Google-Ranking auf der ersten Seite ist der Traum eines jeden Webseitenbetreibers. Es zeugt von einem guten Ruf, zieht viele potentielle Kunden an und sorgt damit für großen Umsatz. SEO-Marketing-Experte Oliver E. Bahm hat dies für seine Kunden schon oft erreicht.

„Viele Webseitenbetreiber sind der Ansicht, dass die Algorithmen von Google nach undefinierbaren und undurchsichtigen Prinzipien funktionieren“, weiß Oliver E. Bahm. Für den Webdesigner würde das bedeuten, dass man überhaupt gar keinen Einfluss darauf hat, wo die eigene Seite bei bestimmten Suchanfragen landet. Doch das ist definitiv nicht der Fall und am besten geht man die Sache Step by Step an, wie er nachfolgend beschreibt.

Wie sehen die Suchanfragen aus?

Eine Suchanfrage besteht aus einem oder mehreren Wörtern, den sogenannten Keywords. Ein gutes Keyword zeichnet sich durch ein hohes Suchvolumen, sprich eine hohe Anzahl von Suchanfragen aus. Es wäre jedoch zu einfach, wenn es genügen würde, ein beliebtes Keyword mehrfach in den Text zu schreiben und davon auszugehen, dass damit die Klickraten und die Besucherzahl auf der Webseite automatisch steigt, schließlich wird genau dieses Keyword höchstwahrscheinlich auch auf vielen anderen Seiten zu finden sein. Ziel der Optimierung soll also sein, bei Google vor all diesen Seiten zu ranken. Um dies zu erreichen, ist eine umfangreiche Keywordanalyse erforderlich, die stets auch mehrere Keywords in Kombination verwenden sollte und die Suchergebnisse entsprechend kritisch prüft und hinterfragt. Ist das erledigt, hat man ein gutes Rüstzeug in der Hand, um die Optimierungen in Angriff zu nehmen.

Welche Rolle spielt die Onpage-Optimierung?

“Bei meinen Kunden beginne ich stets mit der Onpage-Optimierung, also einer Verbesserung der Inhalte direkt auf der Seite”, erklärt Oliver E. Bahm. Seiner Erfahrung nach ist die Internetpräsenz von der technischen Seite her gesehen meist ganz gut eingerichtet. Falls das nicht der Fall sein sollte, muss das als erstes nachgeholt werden. Wenn Server und Weiterleitungen dann reibungslos funktionieren, geht es darum, aus den richtigen Meta-Daten das Optimum herauszuholen. Hier bilden SEO Title und Description, das sind die Überschrift und Kurzbeschreibung, die bei den Suchergebnissen angezeigt werden, eine wichtige Grundlage. Wichtig ist auch die richtige Überschriftenstruktur, und zwar so, dass der Tag H1 nur einmal und alle weiteren Tags dann in der richtigen Reihenfolge vorkommen – sonst verwirrt das den Google-Algorithmus und das wiederum wirkt sich negativ aufs Ranking aus. Für die richtige Keyworddichte braucht man einiges an Erfahrung und auch Fingerspitzengefühl, denn zu wenig ist genauso kontraproduktiv wie zu viel: die Suchmaschinen ignorieren nämlich Texte, die ein wildes Keyword-Spamming betreiben. Bei alledem sollte man stets auch berücksichtigen, dass der Text nicht nur für Maschinen, sondern auch für Menschen gut lesbar sein muss.

Wie lange braucht eine gute Agentur, um eine bestimmte Seite auf die erste Seite zu bringen?

Gastautor Oliver E. Bahm beschreibt Prozesse, die dazu führen, dass ein Unternehmen bei Google in den vorderen Suchergebnissen erscheint. Bildquelle / Lizenz: SEO PREMIUM AGENTUR Stuttgart

Oliver E. Bahm garantiert seinen Kunden zwar, dass ihre Website beim gewünschten Keyword durch seine Arbeit bei Google auf Seite 1 rankt, aber wie lange es dauert, bis das geschafft ist, kann er nicht pauschal beantworten. „Bei den meisten Keywords sollte man mit mehreren Monaten, bei besonders schwierigen Keywords sogar mit bis zu einem Jahr rechnen“, so der SEO-Marketing Experte. Je schwieriger die Keywords, desto länger dauert es und desto mehr Geld muss man dafür in die Hand nehmen. Als grobe Richtwerte nennt Oliver E. Bahm Einstiegspreise ab etwa 3.000 €, die bei diffizilen Keywords mit vielen Suchanfragen und entsprechend vielen Konkurrenten, die es zu übertreffen gilt, bis in den mittleren 5-stelligen Bereich steigen können. Er warnt gleichzeitig: „Nicht jede Agentur nimmt übrigens solche herausfordernden Keywords überhaupt an. Das muss unbedingt im Vorfeld abgeklärt werden.“

Was ist zu tun, um auf Seite 1 zu bleiben, wenn man einmal dort ist?

Bekanntlich ist das Internet im stetigen Wandel begriffen, daher liegt es auf der Hand, dass man den Platz auf Seite 1 nicht dauerhaft gepachtet haben kann. Die SEO-Maßnahmen bringen die Webseite zwar vielleicht auf Seite 1, aber um sich langfristig dort zu halten, muss ständig weiter daran gearbeitet werden. Ein sogenannter SEO-Betreuungsvertrag ist deshalb die Empfehlung des Experten. In diesem wird vereinbart, dass die Agentur in regelmäßigen Abständen immer wieder neue Backlinks von themenrelevanten Texten einpflegt und so die Attraktivität für die Suchmaschine auf hohem Niveau hält. Das Linkbuilding ist für ein langfristiges, gutes Ranking essentiell. „Meine Erfahrung ist, dass ein Link-Mix am besten funktioniert, bei dem die Dofollow- und Nofollow-Verlinkungen sich abwechseln. Hier gilt es natürlich, stets die Qualität der ausgehenden Seiten zu prüfen, wobei wiederum viel Erfahrung und Branchenkenntnis gefragt ist. SEO-Tools erleichtern hierbei die Analyse der technischen Daten ungemein“, so Oliver E. Bahm.

Bezieht Google auch Bilder in das Ranking mit ein?

Selbstverständlich beeinflussen auch Bilder das Ranking. Schließlich ist bei vielen Online-Shops das Bildmaterial ja auch sehr wichtig. Zum Teil kommt bei der Bilderkennung schon eine KI zum Tragen. Allerdings bezieht Google hauptsächlich den mit dem Bild hinterlegten Text mit in die Bewertung ein. Wenn dieser gut zum restlichen Textblock passt, bewertet Google dies positiv.

Fazit

Wer ernsthaft mit seiner Webseite Geld verdienen möchte, kommt an gutem SEO-Marketing nicht vorbei. Da die Arbeit der Optimierung sehr zeitaufwendig ist und auch viel Erfahrung erfordert, empfiehlt es sich eine SEO-Agentur, die sich auf diese Tätigkeiten spezialisiert hat, zu beauftragen. Bei der Menge der Anbieter fällt die Auswahl unter Umständen schwer. Ein erster Test sollte deshalb sein, ob die Agentur durch ihre eigene SEO überzeugt und damit gefunden werden kann. Viele von ihnen bieten kostenlose Erstberatungen und auch SEO-Checks an, bei denen das Verbesserungspotenzial sofort erkennbar ist. Spätestens dann lässt sich feststellen, ob man es mit einem kompetenten Partner zu tun hat.


Bildquelle / Lizenz Aufmacher:

Photo by Myriam Jessier on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Social Media für KMU unverzichtbar

Warum KMU am besten sofort beginnen sollten, professionell in Social Media zu agieren, erklärt Florian Hieß, Head of Digital Marketing bei Swat.io

Social Media Plattformen können einen wertvollen Beitrag zum Geschäftserfolg leisten – wenn sie gezielt genutzt werden. Viele Klein- und mittelständische Unternehmen lassen dieses Potential immer noch links liegen oder setzen es nicht ausreichend für ihren Erfolg ein. Zwei der wichtigsten Gründe dafür sind die fehlenden Kapazitäten und Unsicherheit bezüglich der Kosten. Dabei bieten moderne Social Media Management Tools alles, was nötig ist, damit KMU diese beiden Sorgen getrost ad acta legen können. 

Kleine und mittlere Unternehmen gelten als einer der Schlüssel für den wirtschaftlichen Fortschritt und die Verbesserung der Gesellschaft. Wenn es um die Nutzung von Social Media geht, hält sich die ansonsten große Innovationsfreude der KMU aber noch deutlich in Grenzen. Nur jedes dritte KMU setzt Social Media ein, um eigene Produkte und Dienstleistungen zu bewerben oder um mit Neu- und Bestandskunden in Kontakt zu treten. Das zeigte eine repräsentative Umfrage des Forsa Instituts 2021 im Auftrag von Gelbe Seiten. Damit ignorieren viele Unternehmen allerdings die Gewohnheiten ihrer Kund:innen. Bereits 2019 gaben 61 Prozent der Befragten einer PWC-Studie an, beim Einkaufen von sozialen Medien beeinflusst zu werden – entweder als Inspiration oder durch positive Bewertungen. Fakt ist: Soziale Netzwerke haben sich zu einem sehr leistungsfähigen Instrument für Unternehmen entwickelt. Wenn KMU diese Plattformen gut nutzen, können sie neue Kundschaft anziehen und gleichzeitig in direkten Kontakt mit bestehenden Kund:innen treten. De facto führt kein Weg an den sozialen Netzwerken vorbei. KMU sollten sie als wichtiges Instrument für ihr Wachstum einsetzen – je früher sie damit beginnen, desto besser.

Vorteile erkennen und nutzen

Social Media professionell zu nutzen, ist heute keine Frage der Kapazitäten oder des Budgets mehr. Social Media Management Tools wie Swat.io machen die Nutzung so einfach und bequem, dass auch Personen ohne Erfahrung intuitiv zurechtkommen. KMU können entscheiden, welche Funktionen sie tatsächlich benötigen und gezielt nur diese nutzen. Europäische Tools wie Swat.io entschärfen zudem jegliche Bedenken hinsichtlich der DSGVO – sie sind vollständig DSGVO-konform. Besonders wichtig für KMU ist außerdem der hochqualitative Support, wenn die Social Media Arbeit nebenbei oder von Personen mit wenig Erfahrung geleistet wird. Nicht zuletzt spielen die Preise eine wichtige Rolle. Moderne Tools wie Swat.io sind auch für Ein-Personen-Unternehmen leistbar. Auch teure externe Berater:innen und ausschließlich dafür zuständige interne Verantwortliche sind nicht zwingend notwendig. Soziale Medien sind für KMU eine Chance mit klaren Vorteilen:

  • Stärkung der Marke

Soziale Netzwerke bieten die Möglichkeit, sich durch eine klare und nützliche Botschaft in den Köpfen der Zielgruppe zu positionieren und sich so von der Vielfalt der Konkurrenz abzuheben. Wenn KMU hochwertige Inhalte in ihren sozialen Medien teilen, wirken sie nicht nur professionell, sondern auch vertrauenswürdig. Mit ihren Inhalten können KMU Nutzer:innen auf ihre Webseite leiten und sich als Marke hervorheben, was sich auch positiv auf die Interaktion mit dem Publikum auswirkt. Tools wie Swat.io erleichtern das Planen, Erstellen, Teilen und die Auswertung von Inhalten. Social Media Verantwortliche in Unternehmen arbeiten dabei in nur einer Oberfläche, der Wechsel zwischen den Kanälen entfällt und auch die jeweiligen Vorgaben für Dateigrößen oder Fotoformate sind im Tool hinterlegt.

  • Förderung des Dialogs

Soziale Netzwerke bieten die Möglichkeit, mit jeder/m Kund:in in direktem Kontakt zu stehen und kontinuierlich über ihre/seine Bedürfnisse und Rückmeldungen informiert zu sein. Dies ermöglicht es jeder Marke, schrittweise Optimierungen durchzuführen, sich den Kund:innen anzunähern und deren Erfahrungen zu verbessern. Diese direkte Verbindung schafft eine menschliche, ehrliche und sehr vertrauenswürdige Beziehung. Vor allem gewährleisten Social Media eine schnelle Interaktion mit der Zielgruppe. Bei Swat.io fungiert die Inbox als zentrales Postfach, in das Nachrichten und Erwähnungen aller Social Media Kanäle eines Unternehmens eingehen und dort auch bearbeitet werden können. Das erleichtert es den Verantwortlichen, den Überblick über die Reaktionen zu behalten sowie die Bearbeitung im Team zu koordinieren. 

  • Umsatzerhöhung

Menschen kaufen von Menschen. Social Media Plattformen ermöglichen, dass Kund:innen nicht nur mit der Organisation, sondern mit einer konkreten Person des jeweiligen Unternehmens in Austausch treten. Die Schaffung einer solchen Nähe wirkt sich direkt auf den Umsatz des Unternehmens aus. KMU, die auf Fragen, Kommentare, Kritik und Lob reagieren, erhöhen die Zufriedenheit ihrer Kundschaft. Dies kann auch eine Gelegenheit sein, potenzielle Kund:innen anzuziehen oder interessante Allianzen zu bilden. Dafür brauchen KMU ein Social Media Management Tool, das flexibel mit ihnen mitwächst. Swat.io etwa ermöglicht seinen Kund:innen jederzeit Upgrades und Downgrades.

  • Kostenreduktion

Soziale Netzwerke erweisen sich in vielen Bereichen als nützlich, um Geld zu sparen. Etwa in Bezug auf die Marketingstrategie – über soziale Netzwerke können KMU nicht nur Produkte und Dienstleistungen gezielt, ohne Streuverlust, an das passende Publikum herantragen, sondern auch Marktforschung betreiben. Einsparungen ergeben sich aber auch in anderen Bereichen, etwa, wenn es um die Rekrutierung neuen Personals geht.

Hemmschwellen überwinden

KMU, die Inhalte mit ihrer Online-Community teilen, die auf deren Interessen abgestimmt sind, haben mit den sozialen Netzwerken ein mächtiges Erfolgsinstrument an der Hand. Ein Instrument, mit dem sie Bekanntheit, Umsatz und Produktivität steigern können. Selbst, wenn nur wenig Zeit und Budget für die Social Media Arbeit vorhanden ist, kann diese Chance erfolgreich genutzt werden. Ängste und Unsicherheiten sollten abgeworfen, ein modernes, europäisches Social Media Management Tool ausgewählt und mit der Arbeit am besten heute noch begonnen werden.

 

Über den Autor:

Florian Hieß ist Head of Digital Marketing bei Swat.io, einem der führenden Social Media Management Tools im deutschsprachigen Raum. Swat.io unterstützt professionelle Social Media Marketing Teams mit einem hervorragenden Kundenservice und der richtigen technischen Lösung, die alle relevanten Bereiche des Social Media Marketing abdeckt: Content-Planung und -Veröffentlichung, Community Management, Social Customer Service, Analyse und Monitoring.

Digitale Fabrik

Verstehen, vernetzen, verbessern: Die digitale Fabrik als Teil der ganzheitlichen Digitalisierung

Autor: Björn Manderbach, Director DELMIA
Industry Consulting bei Dassault Systèmes

Die wirtschaftlichen und gesellschaftlichen Rahmenbedingungen, mit denen Unternehmen heutzutage konfrontiert sind, haben sich gewandelt: Eine globalisierte Welt, neue Arbeitsmodelle wie Remote Work, aber auch die steigende Relevanz von Nachhaltigkeitsaspekten – all diese Herausforderungen müssen Unternehmen meistern, um ihre Effizienz, Resilienz und Agilität zu steigern. Die meisten Unternehmen haben inzwischen erkannt, dass genau hier die Digitalisierung greift. Lange Zeit war das Projekt „Digitale Fabrik“ überwiegend großen Konzernen vorbehalten, die die nötigen Kapazitäten und Ressourcen aufwenden konnten. Mittlerweile haben sich Technologien sowie der Zugang zu Softwareangeboten gewandelt – Stichwort Cloud – sodass auch Mittelständlern die Möglichkeiten der digitalen Fabrik offenstehen. Doch was genau versteckt sich hinter dem Begriff?

Eine komplett digitale Fabrik – unmöglich oder kinderleicht?

Etwa um die Jahrtausendwende entstand die Grundidee einer „digitalen Fabrik“ im Markt. Sie beschrieb anfangs jedoch nur die virtuelle Planung im Sinne des Product Lifecycle Managements (PLM) – also lediglich die Modellierung und Simulation des Fertigungsprozesses im virtuellen Raum ohne Bezug zur tatsächlichen Ausführung. Mittlerweile wird darunter die ganzheitliche Betrachtung aller Abläufe innerhalb einer Fabrik unter Berücksichtigung der virtuellen und realen Gesichtspunkte verstanden. Was zu Beginn abstrakt und schwer nachzuvollziehen klingt, ist in der Praxis relativ simpel: Alle beteiligten Maschinen, Menschen, Werkzeuge und Ressourcen sollen im Endergebnis, basierend auf einem virtuellen Modell, real miteinander vernetzt sein und miteinander kommunizieren. Es geht demnach um die Digitalisierung von Abläufen. Die Kernfrage lautet: Wie kann ich Prozesse in der Fertigung durch den Einsatz von Software unterstützen und optimieren?

Aller Anfang ist schwer: Auch kleine Schritte führen zur digitalen Fabrik

Um die eigene Fertigung fit für die Zukunft zu machen, ist es keinesfalls notwendig, die gesamte Fabrik in einem Zug zu digitalisieren. Zielführender ist es, schrittweise vorzugehen und drängende Bereiche zu priorisieren. Dieser Ansatz bricht das hochkomplexe Projekt auf greifbare Prozesse sowie Arbeitsschritte herunter. Alle Aktivitäten zahlen trotzdem auf das große Gesamtziel einer möglichst digitalen Fertigung ein. Einen konkreten Startpunkt definieren Unternehmen demnach individuell entlang der gesamten Wertschöpfungskette: Für Firma A kann das die Verzahnung von Konstruktion und Produktion sein, Firma B möchte die Zusammenarbeit mit Zulieferern optimieren, während Firma C eine neue Fertigungslinie am 3D-Modell plant.

Prozessketten virtuell abbilden

Eine Möglichkeit, wie digitale Abläufe die Effizienz erhöhen, ist die Simulation von Produktionsvorgängen. Üblicherweise müssen Roboter, Maschinen oder Anlagen manuell programmiert und für diese Zeit aus dem Betrieb genommen werden. In einer digitalen Fabrik ist es möglich, virtuell abzubilden, wie sich die Bewegungen dieser Ressourcen verhalten und die Arbeitsschritte bereits am Computer zu simulieren. Der Code wird dann lediglich auf die Maschine übertragen, ohne dass die Produktion längere Zeit unterbrochen werden muss.

Die ganze Fabrik als virtuelles Modell

Die Digitalisierung in der Industrie lässt sich aber auch auf die Fabrik selbst – also die Fertigungslinien – anwenden. Häufig erstellen Unternehmen ein 3D-Modell ihrer bestehenden Hallen, um virtuell ein neues Layout zu planen. Mithilfe von speziellem Equipment, das per Laser und Kamera die Halle einmal komplett scannt, wird der Status Quo abgebildet. Das Modell berücksichtigt alle Parameter des aktuellen Fabriklayouts: vom Grundriss über Abmessungen der Maschinen und Freiräume bis hin zu Lüftungsmöglichkeiten und Medienanschlüssen. Bevor neue, kostenintensive Fertigungslinien tatsächlich angeschafft werden, können Architekten und Fabrikplaner nun anhand des 3D-Modells zusammenarbeiten. So können sie nicht nur sicherstellen, dass die Maschinen im Layout auch wirklich Platz finden, sondern auch die optimale Platzierung wählen, um Laufwege zu verkürzen und Abläufe zu beschleunigen.

Mit digitalen Lösungen zur nachhaltigen Fabrik

Das Thema Nachhaltigkeit spielt für Unternehmen in vielerlei Hinsicht eine elementare Rolle: Veränderte Kundenerwartungen, Regularien der Politik, steigende Energiepreise – die Liste ist lang. Hier kommen digitale Lösungen ins Spiel. Sie können dabei helfen, Prozesse und Produkte nachhaltiger zu gestalten. „Nachhaltigkeit“ im Unternehmenskontext lässt sich somit von verschiedenen Seiten beleuchten. Dabei stehen die Bereiche nicht nur für sich, sondern beeinflussen sich gegenseitig.  

Nachhaltige Produkte

Wie klimafreundlich Produkte sind, schlägt sich insbesondere in der Wahl der verwendeten Materialien nieder. Entsprechende Softwaretools können bereits in einer frühen Phase der Entwicklung Informationen darüber anzeigen, welche Bauteile in der Konstruktion und im Betrieb am meisten CO2-Ausstoß verursachen. Auf Basis dieser Daten ist es dann möglich, Änderungen am Produkt vorzunehmen, beispielsweise ein umweltfreundlicheres Material zu wählen. Ein Beispiel ist die Softwarelösung „Sustainable Innovation Intelligence“ von Dassault Systèmes, die Unternehmen dabei unterstützt, Umweltauswirkungen entlang der gesamten Wertschöpfungskette zu minimieren und Kreislaufwirtschaft zu fördern.

Nachhaltiges Wirtschaften

Unter diesem Punkt, der sogenannten „Business Sustainability“, ist die Fähigkeit eines Unternehmens zu verstehen, seine Geschäftsziele zu erreichen und den langfristigen Unternehmenswert zu steigern, indem es wirtschaftliche, ökologische und soziale Aspekte in seine Geschäftsstrategien integriert. Für viele Unternehmen ist ein nachhaltiger Ansatz mehr als nur ein Trend. Es ist Teil einer Strategie zur Verbesserung von unternehmerischer Nachhaltigkeit. Sie versuchen den negativen Einfluss auf Umwelt und Gesellschaft zu minimieren und sicherzustellen, dass künftigen Generationen die entsprechenden Ressourcen für ihre Bedürfnisse zur Verfügung stehen.  Dazu zählen qualifizierte Fachkräfte und lebenslanges Lernen genauso wie Investitionen, die langfristig wirtschaftliche, ökologische, aber auch soziale Kosten vermeiden. Im Rahmen einer digitalen Fabrik lassen sich beispielsweise über das das Lebenszyklusmanagement der Maschinen selbst alle Vorgänge in der Fabrik transparent darstellen. Mit der Unterstützung von Predictive Maintenance, also der vorausschauenden Wartung, erkennt die Software Muster im Verhalten von Maschinen. So können sich Unternehmen rechtzeitig um Reparatur oder Ersatz kümmern – ohne, dass die Kontinuität des Betriebs gefährdet ist – und sind nicht mit plötzlichen Störungen konfrontiert.

Einheitliche Datenplattform für reibungslose Zusammenarbeit und dynamische Optimierungen

Der Grundbaustein einer digitalen Fabrik, um Prozesse zu digitalisieren und dadurch zu optimieren, sind umfassende Informationen über Maschinen, Abläufe und Ressourcen. Hier kommt der Plattformgedanke ins Spiel. Eine Datenplattform, wie beispielsweise die 3DEXPERIENCE Plattform von Dassault Systèmes, bildet die ‚Single Source of Truth‘ für alle relevanten Elemente der digitalen Fabrik und fügt das Puzzle letztendlich zu einem Gesamtbild zusammen. Sie verwaltet also nicht nur Daten zentral, sondern bündelt auch Softwareapplikationen, die in den unterschiedlichsten Prozessen zum Einsatz kommen. Gleichzeitig ermöglicht die Plattform einen Datenrückfluss: Informationen zu laufenden Prozessen werden erfasst und analysiert. Die Auswertung wird dann mit den ursprünglichen Plänen verglichen und ermöglicht Aussagen darüber, welche Prozesse Optimierungspotenzial bieten. Informationen sind auf der Plattform stets aktuell, sodass alle Mitarbeitenden auf dieselbe Datenbasis zugreifen. Zudem können die Beteiligten ortsunabhängig und dennoch kollaborativ arbeiten – ein großer Wettbewerbsvorteil, den Unternehmen besonders in Zeiten zunehmender Remote-Arbeit zu schätzen gelernt haben.

Aus der Praxis: Effizienteres Ramp-Up mit dem virtuellen Zwilling

Wie virtuelle Fertigungslinien die Produktionsleistung erheblich verbessern können, beweist der französische Automobilzulieferer Faurecia, ein Unternehmen der FORVIA Gruppe. Schon vor Beginn der Entwicklung und Produktion der ersten Automobilteile kamen der 3DEXPERIENCE Twin sowie die Simulationssoftware DELMIA auf der 3DEXPERIENCE Plattform von Dassault Systèmes zum Einsatz, um einen virtuellen Zwilling der anstehenden Produktion zu fertigen. Virtuelle Tests deckten Störungen und Stellschrauben zur Optimierung auf, was sich letzten Endes positiv auf die finale Inbetriebnahme auswirkte: reduzierte Produktionsanlaufkosten und ein sichtbar effizienteres und schnelleres Ramp-Up.

Digitalisierung ist jetzt

Die aktuelle wirtschaftliche und gesellschaftliche Lage verdeutlicht, dass Unternehmen jetzt handeln und die Digitalisierung anstoßen sollten, um langfristig am Markt erfolgreich zu bleiben. Fakt ist: An welcher Stelle ein Unternehmen damit beginnt, ist individuell. Der zunehmend einfache Zugang zu Daten – der Grundlage aller digitaler Aktivitäten – sowie preiswerte Software- und Servicelösungen, machen die vernetzte Fabrik zu einem immer beliebteren Konzept. Und auch der Mittelstand greift verstärkt auf entsprechende Methoden und Werkzeuge wie Simulation, Robotik, MES-Systeme oder Virtual Reality-Anwendungen zurück. Kein Wunder, denn die Vorteile liegen auf der Hand: Digitale Prozesse unterstützen die ressourcenschonende Produktion für mehr Nachhaltigkeit, stellen Transparenz über die Abläufe in der eigenen Fabrik sicher und optimieren dadurch Arbeitsweisen hin zu mehr Flexibilität, Effizienz – ein Mehrwert für Mitarbeitende und das Unternehmen.

 

Weitere Informationen unter: https://www.3ds.com/de/

Ist der Einsatz Künstlicher Intelligenz ethisch vertretbar?

Von Jack Klaassen, Director Innovation and Technology bei Macaw

Jack Klaasen: „Ethikrichtlinien für den Einsatz von KI sind unumgänglich, weil die Technologie zu einem immer wichtigeren Faktor für den Unternehmenserfolg wird.“

Digitale Trends eröffnen viele neue Möglichkeiten. Aber sind wir uns auch darüber bewusst, welche Folgen der Einsatz neuer Technologien mit sich bringt? KI ist heute in aller Munde. Die Frage lautet: Wie können wir sie verantwortungsvoll und ethisch vertretbar nutzen?

Das Thema ist so aktuell, dass sich auch der Europäische Gerichtshof damit beschäftigt. Erst vor wenigen Tagen haben die Richter die bestehenden Regeln über den Umgang mit Fluggastdaten in enge Grenzen gewiesen. Demnach dürfen Daten nur noch 6 Monate anstatt wie vorher fünf Jahre gespeichert werden. Und der Einsatz von KI? Auch hier hat das Gericht ein Machtwort gesprochen: Für das Durchsuchen riesiger Datenmengen muss ein klarer Verdacht vorliegen und die Fahnder müssen vorher genau festlegen, nach welchen Merkmalen der Algorithmus suchen soll.

KI hat das Potenzial, sowohl für gute als auch für schlechte Zwecke eingesetzt zu werden. Eine ethische Verwendung von KI kann Unternehmen und Organisationen helfen, effizienter zu arbeiten, nachhaltigere Produkte herzustellen, schädliche Umweltauswirkungen zu verringern oder eben Kriminelle zu suchen. Wird KI jedoch auf unethische Weise eingesetzt – zum Beispiel, um gezielt Falschinformationen zu verbreiten oder zur politischen Unterdrückung – kann dies schwerwiegende negative Auswirkungen auf den Einzelnen und die Gesellschaft haben.

KI ergänzt und ersetzt die menschliche Intelligenz. Gerade in den vergangenen zehn Jahren hat KI einen rasanten Aufstieg erlebt. Sie ist heute eine vollständig integrierte und automatisierte Technologie, die Bestandteil von vielen Produkten und Dienstleistungen ist. Aber KI hat auch negative Effekte. Deshalb beginnen Unternehmen unter folgenden Aspekten, Ethikrichtlinien für ihren Einsatz zu entwickeln:

  1. Wenn der Einsatz von KI nicht von Anfang an unter dem Gesichtspunkt der Verantwortung betrachtet wird, wird sich die Entwicklung in der Zukunft verlangsamen.
  2. KI ist für Menschen nicht in ihrem vollen Umfang verständlich, deswegen müssen sie vor ihren Risiken geschützt werden.
  3. Entwickler und Nutzer von KI-Anwendungen haben die Pflicht, proaktiv einen ethischen Einsatz zu verfolgen.
  4. Organisationen können eine führende Rolle in den Diskussionen rund um KI einnehmen und ihr Unternehmen verantwortungsvoll positionieren; ein wichtiger Beitrag, um ein positives Bild von KI zu etablieren.

Ethikrichtlinien für den Einsatz von KI sind unumgänglich, weil die Technologie zu einem immer wichtigeren Faktor für den Unternehmenserfolg wird. Anwender der disruptiven Technologie haben eine moralische Verantwortung.

KI wird häufig in der Kommunikation mit den (End-)Kunden eingesetzt. Während der gesamten Customer Journey sammelt ein Unternehmen kontinuierlich Kundendaten, um ein vollständiges Bild jedes einzelnen Kunden zu erhalten. Irgendwann gibt es genug Daten, um den Kunden persönlich anzusprechen und ihn zu einer bestimmten Handlung zu bewegen. KI kann in vielen Momenten dieses Prozesses eingesetzt werden. Dabei agiert sie oft im Hintergrund, ist also nicht sichtbar.

Dieser unsichtbare Aspekt wirft die Frage nach ethischer KI auf: Ist es akzeptabel, eine Technologie zu verwenden, die nicht immer erkennbar und in der Lage ist, intelligenter als ein Mensch zu handeln? Hinzu kommt, dass KI die Absicht hat, das menschliche Verhalten zu beeinflussen.

Unternehmen müssen sich im Hinblick folgender Kriterien fragen, wie ein verantwortungsvoller Einsatz von KI möglich ist:

  • Wo setzen Unternehmen KI im Verhältnis zu menschlichen Anwendungen ein?
  • Wie setzen Unternehmen KI ein? Wie zuverlässig ist das Ergebnis? Und kann es die menschliche Interpretation ersetzen?
  • Wissen alle Beteiligten, dass das Unternehmen KI anwendet?
  • Wie kann eine verantwortungsvolle Anwendung von KI helfen, Vertrauen aufzubauen?

Wahrscheinlich sind sich nur wenige Kunden darüber bewusst, wie viele Daten sie einem Unternehmen während ihrer Customer Journey zur Verfügung stellen. Noch weniger Kunden wissen, dass sich aufgrund der Daten Kundenprofile leicht mit denen ähnlicher Personen vergleichen lassen. Durch die Kombination von Datenpunkten kann eine KI-Anwendung fehlende Kundenangaben ergänzen, um ein vollständiges Kundenbild erstellen. Eine unmögliche Aufgabe für einen Mitarbeiter.

Welche Verantwortung haben Organisationen gegenüber Ihren Kunden in dieser Hinsicht? Wie offen und transparent sollte der Umgang mit KI sein? Ist es Aufgabe des Unternehmens, die Kunden darüber zu informieren und sie zu sensibilisieren? Ist es moralisch vertretbar, KI-Algorithmen einzusetzen, um Menschen aufgrund ihres Geschlechts, einer bestimmten Herkunft oder sexuellen Orientierung zu gruppieren? Und wenn dies im Hinblick auf den Algorithmus verantwortungsvoll wäre, bleibt die Frage, wie das Ergebnis genutzt wird.

Wenn Kunden durchschauen, wofür KI eingesetzt wird und wofür die Daten verwendet werden können, sind sie schockiert. Für Unternehmen ist es daher sehr wichtig, sich der ethischen Anwendung von KI bewusst zu werden. Indem sie versprechen, verantwortungsvoll mit KI umzugehen, zeigen sie nicht nur (soziale) Verantwortung, sondern weisen auch darauf hin, dass KI eingesetzt wird, um Geschäftsziele zu erreichen. Durch Offenheit legen sie den Grundstein dafür, den Einsatz von KI transparent zu kommunizieren, noch bevor eine Regierung dies verbindlich vorschreibt. Durch Offenheit schaffen sich Unternehmen einen klaren Vertrauensvorsprung.

Whitebox KI

Wie die Künstliche Intelligenz erklärbar und nachvollziehbar wird

Seit den Diskussionen über den neuen „AI Act“-Vorschlag des EU-Parlaments ist das Thema wieder voll im Gange: Wie lässt man eine KI zu? Welche Risiken bergen probabilistische und scheinbar verschlossene Systeme? Wie kann der Nutzer dem System trauen? Das und vieles mehr sind Fragen, an denen schon lange gearbeitet wird und die bereits heute konkreter beantwortet werden können, als viele denken.

Auch wenn Künstliche Intelligenz (KI) in allermunde ist, fällt selbst in den Fachkreisen die genaue Definition solcher KI-Systeme in der Praxis und die Trennung von anderen, herkömmlichen Technologien schwer. Wesentliche Merkmale sind, dass KI-Systeme Empfehlungs- oder Entscheidungsgebend sind oder bei einer Zuordnung, Vorhersage oder Erkennung unterstützen. Wenn man in die wohl bekannteste KI-Disziplin, Machine Learning, reinblickt, stellt es nicht mehr als die rudimentäre Nachahmung des Erlernens auf Basis bekannter Fälle und dem robusten Agieren auf Basis der erkannten Zusammenhänge in neuen, bisher unbekannten Situationen ähnlicher Art dar.

Wenn man sich den aktuellen KI-Einsatz anschaut, so wird man feststellen, dass bei den meisten Anwendungen – von Bilderkennung in der Medizin bis hin zur Spracherkennung in der Industrie – ein wesentlicher Teil auf Daten aus der Vergangenheit einmalig nach Vorgaben („Labels“) trainiert wird und im Einsatz nicht mehr dazu lernt („Supervised Learning“).

Somit hält der Entwickler, also der Schöpfer der KI, das Ruder in der Hand: Er kann sowohl bestimmen, welche KI zum Einsatz kommt, mit welchen Daten und was der KI für eine Rolle im Gesamtsystem zugeordnet wird. Die praktische KI-Anwendung ist also ein präzises Werkzeug, wie ein Skalpel, das für eine wohldefinierte Handlung innerhalb eines eingeschränkten Bereichs eingesetzt wird.

Auch wenn die Nachvollziehbarkeit von tiefen künstlichen neuronalen Netzen (auch als Deep Learning bekannt) aufgrund der Komplexität beim möglichen Zurückrechnen der Ergebnisse eine Herausforderung darstellt, gibt es auch hierbei Mittel und Ansätze. Selbst im Bereich des „Unsupervised Learning“, also beispielsweise beim „Reinforcement Learning“, bei dem die Systeme eigenständig lernen (z.B. die bekannte „AlphaGo“-KI, die gegen einen Menschen in Go gewann), sind die Lernziele und der Handlungsumfang steuerbar.

Viacheslav Gromov, Gründer und Geschäftsführer von AITAD

Oft wird aber außer Acht gelassen, dass es auch von Anfang an gänzlich transparente „White Box“-Modelle – wie beispielsweise die aus dem Mathematikunterricht bekannte Entscheidungsbäume – gibt, die je nach Use Case passender oder gar performanter sind.


„In der Diskussion nach KI-Zulassung, -Akzeptanz und -Zertifizierung spielt der Begriff der Nachvollziehbarkeit, der mit Unterbegriffen wie Transparenz und Unteilbarkeit einherkommt, eine wesentliche Rolle.“


Wirkungsbereiche der KI

Wenn man bei der KI-Abgrenzung, also der Frage, wo die KI anfängt und wo sie in einem System aufhört, wo ihr Wirkbereich ist und für welche Bereiche ihr Wirken ausschlaggebend ist, beginnt, wird es schnell kompliziert. Oft kommt bei dieser Betrachtung heraus, dass die KI so gezähmt ist oder eine untergeordnete, optimierende Rolle spielt, dass über das angsteinflößende Risiko zu reden deutlich schwerer fällt, als angenommen. Schließlich wird sowohl vor als auch nach der KI-Komponente – zum Beispiel im Bild 1 bei einer Objekterkennung – noch viel gerechnet.


Ein möglicher, vereinfachter Aufbau eines KI-Hybridsystems mit verschiedenen Verarbeitungsgliedern sowie Redundanz. (Quelle: AITAD)


Es werden sowohl schon vorher Daten aufbereitet oder aussortiert als auch im Nachfolgenden das KI-Ergebnis weiterverarbeitet. Letzteres kann bedeuten, dass erst mehrere KIs zum gleichen Ergebnis kommen müssen oder kritische Einschätzungen ganz verworfen werden. In diesem Zusammenhang – wenn also die KI gemischt mit herkömmlicher Algorithmik in einem System fungiert – spricht man öfters von „KI-Hybridsystemen“. Durch die Systemarchitektur und die KI-lose Algorithmik können gegebenenfalls Fehlentscheidungen entdeckt oder von vornhinein überstimmt werden, es werden also Redundanzen im Sinne der Sicherheit (d.h. „Safety“) geschaffen.

Explainable AI – damit KI jeder versteht

Historisch gesehen ist spätestens nach den beiden KI-Wintern – erstmals wegen algorithmischen Problemen und später wegen mangelnder Rechenleistung –, also in den 2000er-Jahren, das Feld namens „Explainable AI“ größtenteils durch das Silicon Valley ernsthaft vorangetrieben worden. Das Eingeständnis, dass die noch jungen KI-Systeme selbst vom eigenen Vorgesetzten, geschweige denn dem Endanwender verstanden werden könnten und ein gewisses Technologievertrauen entstand, führte zum Ziel, KI auf verschiedensten Wegen auf Fach- und Laienebenen besser zu erklären.

Am anschaulichsten ist es in den letzten Jahren beim Thema des (teil)autonomen Fahrens gewesen: Die Technologie hat durch wenige Unfall-Schlagzeilen in einigen Ländern gesellschaftlich auf der Kippe, weil man den KI-Maschinen nicht traute. Das bestätigten auch Umfragen, bei denen die Computersteuerung selbst (kein Hackerangriff!) von den Menschen zu 48% als Angstursache genannt wird. Und dass trotz der rationalen Abschätzung, dass das Unfallrisiko durch den bisher sehr hohen menschlichen Faktor um ein Vielfaches sinken werde.

Dass diese Ängste im Wesentlichen auf einer irrationalen Ebene agieren, macht die Aufklärung und Technologieadaption nicht einfacher. Zur Aufklärung kann man z.B. Fahrern vorführen, an welchen (markierten) Bildbereichen das Fahrzeug die Routenplanung festmacht, sprich was es sieht und wie es folglich handelt („Heatmaps“). Wichtig dabei ist zu sehen, dass die KI sich tatsächlich auf den Straßenrand und die Fußgänger konzentriert und sich nicht vordergründig die Wolken im Himmel anschaut.

In der Diskussion nach KI-Zulassung, -Akzeptanz und -Zertifizierung spielt der Begriff der Nachvollziehbarkeit, der mit Unterbegriffen wie Transparenz und Unteilbarkeit einherkommt, eine wesentliche Rolle. Dabei ist der Begriff oder die Anforderung, dass die KI zu nachvollziehbaren Empfehlungen, Entscheidungen oder Selektionen kommt, je nach Personengruppe anders definierbar. Es stellt sich der Frage, auf welcher Detailebene der Endnutzer das System verstehen muss, verglichen zu einer abstrakteren Entwicklungsebene oder gar dem KI-Entwickler oder den Führungskräften des Herstellers selbst.

KI komplett nachvollziehen

Fakt ist, dass man je nach Anwendungsfall und Rolle der KI zu unterschiedlichen Mitteln im Werkzeugkasten greifen kann: Der Hersteller oder die Prüfstelle kann wesentliche Szenarien abtesten, es können Stellvertretermodelle (sog. Surrogat-Modelle) oder aber anderweitige vereinfachte Simulationen (u.a. Regressionen) aufgebaut werden. Schließlich kann man auch teilweise Modelle bis auf die Sprache und einfache Kausalitäten („Post-hoc“) herunterbrechen. Die Varianz an Erklärungstiefe und -umfang sowie Niveau ist also groß, die Wahl hängt ab vom Anwendungsszenario und dem hinnehmbaren Aufwand in der Praxis.

So betrachtet ist es also kein Wunder, dass auch der „AI Act“ eine risikobasierte Bewertung zugrunde legt. Im Wesentlichen wird wie im Bild 2 unterschieden, ob eine Transparenzvorschrift oder gar schärfere Systemanforderungen greifen. Je höher das Risiko oder die Kritikalität, desto höher der mögliche Schaden und desto mehr Maßnahmen zum Schutz und Zulassung werden gefordert.


Geplante Handlungsvorschriften je nach Risikograd eines KI-Systems im EU‘s AI Act. (Quelle: European Commission)


Hochrisikosysteme können hierbei sowohl selbstfahrende Autos als auch komplexere Bildungs- oder Rechtsberatungssysteme sein. Hier greifen die höchsten Anforderungskataloge. Bei niedrigerem Risiko ist man schon bei Chatbots oder emotionsanalysierenden Systemen. Hier werden einige Transparenzanforderungen vorgeschlagen. Und dann gibt es noch die Gruppe mit keinem bedeutenden Risiko, denkbar ist hierbei z.B. eine industrielle Anwendung, die je nach Beladung der Waschmaschine das intensivere oder das schwächere Waschprogramm auswählt. Hier ist die Schutzbedürftigkeit aller Beteiligten nicht über das Normalmaß hinaus erforderlich.

Fazit

Industrielle KI-Systeme, die Prozesse optimieren, mit Anwendern zusätzlich interagieren oder neuartige Funktionen realisieren, sind meistens mit geringem Risiko verbunden, sodass der Anwendung von „KI“ keine großen Hürden bis auf die üblichen Zertifizierungs- und Dokumentationspflichten bevorstehen. Denn eines ist allen Beteiligten klar: Würden wir noch weiter zögern, wäre die Wettbewerbsfähigkeit gefährdet, geschweige denn, wenn Fremdregulierungen übernommen werden würden.

Das Unternehmen entwickelt elektronikbezogene Künstliche Intelligenz (Embedded KI), die in Geräten und Maschinen lokal und in Echtzeit bestimmte Aufgaben übernehmen. Das Unternehmen befasst sich mit der Entwicklung und Testung von KI-Elektroniksystemen, insbesondere in Verbindung mit maschinellem Lernen im Industriekontext (v.a. Systemkomponenten). Als Entwicklungspartner übernimmt AITAD den kompletten Prozess vom Datensammeln über die Entwicklung bis hin zur Lieferung der Systemkomponenten. Die Spezialgebiete von AITAD sind Preventive/Predictive Maintenance, User Interaction und funktionale Innovationen.

Weitere Informationen: https://aitad.de 

Quellennachweis
1: Briefing: Artificial Intelligence act, T. Madiega, European Parliament, Januar 2022.
2: Studie „Erklärbare KI – Anforderungen, Anwendungsfälle und Lösungen“, Dr. Kraus et al., BMWi, April 2021
3: Autonomes Fahren, T. Fleischer et al., TATuP Ausgabe 27/02, 2018

Shared Factory in der Fashionproduktion

ito ito – Coopetition ermöglicht nachhaltigere Mode

Laut einer Untersuchung von Greenpeace werden ca. 40% aller weltweit produzierten Kleidungsstücke nie oder nur einmal getragen. Gleichzeitig verursacht die Modebranche 10 Prozent der weltweiten CO₂-Emissionen – mehr als die internationale Luftfahrt und Seeschifffahrt zusammen.

Das Geschäftsmodell der Modebranche besteht zu einer Hälfte aus Rätselraten über die Wünsche der Kund*innen und zu einer anderen Hälfte aus einem Wettbewerb um den niedrigsten Preis, der auf dem Rücken von Menschen im globalen Süden ausgetragen wird und die internationalen Klimaziele in Gefahr bringt. Das mag für manche Brands im Bereich von Fast Fashion (noch) profitabel sein – effizient ist das nicht.


Zusätzlich setzen die Corona-Pandemie und der russische Angriffskrieg in der Ukraine die langen und intransparenten Lieferketten, die dieser Überproduktion zugrunde liegen unter Druck und bringen den Einzelhandel in einer ohnehin angespannten Situation in noch größere Bredouille.

Was wäre, wenn wir die Herstellung von Mode direkt an die Nachfrage koppeln und eine Produktionsweise entwickeln könnten, die nicht nur effizienter ist, sondern auch Teil einer Kreislaufwirtschaft mit einer transparenten und lokalen Lieferkette? Was wäre, wenn wir nur das herstellen würden, was bereits verkauft wurde? Was wäre, wenn Kund*innen uns direkt sagen könnten, was sie wirklich wollen, Produkte an ihre Vorstellungen anpassen und so zu Kollaborateur*innen einer Marke würden, anstatt nur ihr/e Abnehmer*innen zu sein (oder auch nicht)?

Was wäre, wenn man 1.000 Stück von einem Entwurf oder jeweils ein Stück von 1.000 unterschiedlichen Entwürfen zum selben Preis herstellen könnte?


„Was wäre, wenn man 1.000 Stück von einem Entwurf oder jeweils ein Stück von 1.000 unterschiedlichen Entwürfen zum selben Preis herstellen könnte?“

Gastautoren: Florian und Friederike Pfeffer, ito ito

Prinzip der Shared Factory

Das ist das Prinzip der Shared Factory von ito ito. Durch die Digitalisierung der Produktion von Knitwear und die geteilte Nutzung von Ressourcen und Materialien sowie die direkte Verknüpfung von vernetzen Strickmaschinen mit einem Order-Management in einer integrierten Cloud-Lösung wollen wir mit unserem Start-Up nicht nur die oben genannten Herausforderungen meistern, sondern gleichzeitig neue Erlebnisse und Möglichkeiten für den Handel und deren Kund*innen schaffen – ob online oder im klassischen Einzelhandel.

Wenn Wettbewerber im Markt kooperieren, gemeinsame Standards entwickeln und Produktionskapazitäten teilen, lassen sich Effizienzgewinne für alle erzeugen, ohne an Differenzierung zu verlieren. Im Gegenteil: Mit einer On-Demand-Produktion können Marken, Händler*innen und Kund*innen neue Verbindungen eingehen und noch individueller werden. Wird die Shared Factory an einen Online-Store angebunden oder Teil eines neuartigen Retail-Konzepts, ist Made-to-Measure zu einem marktfähigen Preis nur noch wenige Klicks entfernt. Ebenso können neue Kollektionen in kleineren Auflagen und Capsule Collections getestet und bei anziehender Nachfrage schnell nachgeordert werden.

In einer Befragung der Unternehmensberatung McKinsey aus dem Jahr 2021 äußern 63% aller Verantwortlichen in der Modebranche die Erwartung, dass sich nennenswerte Teile der Modeproduktion in den kommenden Jahren aus dem weiteren Ausland wieder in die EU bzw. die Länder mit den größten heimischen Absatzmärkten verlagern werden. Sind in den vergangenen Jahrzehnten ganze Industrie- und Handwerkszweige aus Europa abgewandert, kann die zunehmende Digitalisierung – befeuert durch die Pandemie und instabile globale Lieferketten – eine umgekehrte Entwicklung auslösen. 

In einer Welt, in der Energiekosten und die durch den Transport ausgelösten C02-Emissionen einen wachsenden Anteil an den Produktionskosten verursachen, in der Lieferketten-Gesetze stets größere Transparenz verlangen und Kund*innen vermehrt die Frage stellen, wie und wo ihre Kleidung produziert worden ist, können lokale Lieferketten ein entscheidender Faktor für die Wettbewerbsfähigkeit werden. „Made in Germany“ wird in Zukunft nicht mehr nur für technologische Innovation und höchste Ingenieurskunst stehen, sondern zusätzlich auch für emotionale Markenwerte wie Nähe, ethische Integrität und den Optimismus, dass wir auch große Herausforderungen meistern können und unsere Chancen nutzen, wenn wir zusammenarbeiten.

Die Digitalisierung der Modeproduktion bietet aber auch neue Wege zu einer Kreislaufwirtschaft, in der es keinen Müll mehr gibt, sondern nur noch Rohstoffe für das nächste Produkt. Jedes in der Shared Factory hergestellte Produkt wird mit einer digitalen ID versehen, um Produkte nachzuverfolgen, Materialinformationen weiterzugeben und so einfacher recyceln zu können. Für den Handel planen wir, neue Geschäftsmodelle im Bereich des Wiederverkaufs von bereits verkauften Produkten in Kooperation mit den eigenen Kund*innen zu ermöglichen, die neue Besitzer*innen für ihre gebrauchten Kleidungsstücke suchen.

Bleibt noch die Gretchen-Frage: der Preis. Verbraucher*innen bekennen sich gerne zu Nachhaltigkeit und Verantwortung. Wie aber kann ich das als Kund*in erkennen und bin ich auch bereit, dafür einen höheren Preis zu bezahlen? Die Realität an der Ladentheke zeigt, dass sich das Bewusstsein der Menschen zwar langsam ändert – aber nicht in dem Ausmaß wie es notwendig wäre. Die große Herausforderung für die Industrie besteht deshalb darin, nachhaltige Produkte zu wettbewerbsfähigen Preisen herzustellen und so deren Akzeptanz zu erhöhen. Das Luxus-Segment wird den Planeten nicht retten. Andererseits dürfen wir Fast-Fashion nicht einfach so das Feld überlassen. Es ist ein verändertes Bewusstsein für den Wert von Mode notwendig und gleichzeitig müssen nachhaltige Produkte erschwinglicher werden.


„Die Automobilindustrie hat das mit der Entwicklung gemeinsamer Plattformen über Marken und Konzerne hinweg bereits vorgemacht. Jetzt sind wir dran.“

Florian und Friederike Pfeffer, ito ito

Mit ito ito richten wir uns auf das mittlere Preissegment, in dem wir eine On-Demand-Produktion wirtschaftlich attraktiv machen wollen. Je mehr Designer*innen, Label, Marken, Händler*innen und Hersteller*innen sich an der Shared Factory beteiligen, desto einfacher und schneller wird das gehen. Denn der große Hebel einer neuen Art Mode zu produzieren, ist die »Coopetition«, die Verbindung von Kooperation und Konkurrenz. Die Automobilindustrie hat das mit der Entwicklung gemeinsamer Plattformen über Marken und Konzerne hinweg bereits vorgemacht. Jetzt sind wir dran.

https://www.itoi.to/

Aufmacherbild / Personenbild / Quelle / Lizenz

Marcus_Meyer_Photography
Rene_ten_Broeke

Erfolg braucht positive Fehlerkultur

Was treibt erfolgreiche Unternehmer an? Wie gehen sie mit Fehlern um und in welchem Zusammenhang steht Fehlerkultur mit beruflichem Erfolg? Antworten auf diese Fragen liefert eine aktuelle globale Studie.

Die im Auftrag von Herbalife Nutrition durch das Marktforschungsinstitut OnePoll durchgeführte Befragung wurde global unter 8.000 Selbständigen und Angestellten in 15 Ländern durchgeführt, darunter auch 250 Befragte aus Deutschland. Im Rahmen dieser Umfrage wurden die Teilnehmer gebeten, spezifische Erfahrungen und Learnings zu beschreiben, die sich durch Fehler und Missgeschicke am Arbeitsplatz für sie ergeben haben. Denn klar ist: Fehler passieren. Aber ist das wirklich schlimm?

Aller Anfang ist schwer

Nicht jede Business-Idee ist ein Garant für unternehmerischen Erfolg. Das bestätigten auch die Befragten: Im Durchschnitt führte erst die zweite Geschäftsidee zum gewünschten Erfolg. Das kann ein harter Rückschlag für angehende Entrepreneure sein, immerhin waren 70 Prozent der Befragten ursprünglich davon überzeugt, dass ihre Geschäftsidee zu Erfolg führen wurde. Doch die Gründe, sich nicht demotivieren zu lassen und die Selbständigkeit weiter zu verfolgen, sind vielfältig. An erster Stelle steht die Leidenschaft: 61 Prozent der befragten Selbständigen bauten ihr eigenes Unternehmen auf, damit sie beruflich ihrer Herzensangelegenheit nachgehen können. Ein weiterer Grund sind die flexiblen Arbeitszeiten als eigener Chef (46 Prozent) und die Möglichkeit, den persönlichen Erfolg in der eigenen Hand zu haben (41 Prozent). Besonders inspirierend: Ein Viertel der Befragten treibt die Leidenschaft an, anderen zu helfen. Doch welche Rolle spielt die persönliche Fehlerkultur in der Selbständigkeit?



Fehler – der Weg zum Erfolg?

Mehr als die Hälfte (54 Prozent) der Befragten sind der klaren Meinung, dass man aus Fehlern lernt. Ein Großteil (86 Prozent) der befragten Unternehmer findet sogar, dass man auf dem Weg zum Erfolg keine Angst vor Fehlern haben darf. Gestützt wird dies durch die 58 Prozent der Befragten, die Fehler dafür in Kauf nehmen, um sich selbst zu verbessern. Und das scheint zu funktionieren: 83% der Befragten stimmten der Aussage zu, dass sie heute in ihrer Karriere nicht dort wären, wo sie sind, wenn sie keine Fehler gemacht hätten. Gelegentlich zu scheitern und Fehler zu machen ist auf dem Weg zum Erfolg also keineswegs etwas Schlechtes – die meisten Unternehmer (86 Prozent) sind der Meinung, dass ihre Fehler ihnen geholfen haben, in Zukunft erfolgreicher zu sein.

Tipps zur Fehlerminimierung

Auch wenn Fehler für die persönliche Entwicklung wichtig sind – Fehler, die gar nicht erst passieren, sind immer noch am besten. Deshalb wurden die Befragten basierend auf ihren Erfahrungen gebeten, angehenden Entrepreneuren Tipps zur Vermeidung typischer Fehler zu geben. Die häufigsten Empfehlungen sind:

  • Gute Selbstorganisation (42 Prozent)
  • Sich trauen, andere um Hilfe zu bitten, wenn sie benötigt wird (41 Prozent)
  • Nicht zu früh zu viele Angestellte beschäftigen (36 Prozent)
  • Ausgaben genau im Blick behalten und kein Geld verschwenden (34 Prozent)
  • Das benötige Kapital realistisch kalkulieren (34 Prozent)
  • Nicht die Arbeit unterschätzen, die in ein erfolgreiches Business fließt (32 Prozent)
  • Keine zu hohen Versprechungen machen, die am Ende nicht eingehalten werden können (32 Prozent)

“Die großen Benefits für unsere selbständigen Herbalife Nutrition Berater: Sie arbeiten zeitlich und örtlich ungebunden und sind Teil einer weltweiten Community, die ein großes Ziel verfolgt: Ernährungsgewohnheiten zu verbessern und anderen zu einem aktiven Lebensstil zu verhelfen.

Mark von der Meden, General Manager und Leiter der DACH-Region

Selbstständig mit Herbalife Nutrition

Ein weiterer wichtiger Tipp der Befragten ist, den richtigen Partner für die Selbständigkeit zu wählen. Mit Herbalife Nutrition setzen angehende Entrepreneure auf einen Partner mit über 40 Jahren Erfahrung im Vertrieb von Nahrungsergänzungsmitteln und Wellnessprodukten. Als selbständige Herbalife Nutrition Berater arbeiten sie zeitlich und örtlich ungebunden und werden Teil einer weltweiten Community, die ein großes Ziel verfolgt: Ernährungsgewohnheiten zu verbessern und anderen zu einem aktiven Lebensstil zu verhelfen.

Weitere Informationen zur Geschäftsgelegenheit bei Herbalife Nutrition unter folgendem Link:

https://www.herbalife.de/

Ausgezeichnete Projekte

Board International, führender Software-Anbieter einer All-in-One-Entscheidungsfindungsplattform, die Business Intelligence (BI), Planung und Predictive Analytics integriert, hat Unternehmen in drei Kategorien mit dem Board Customer Award für besonders innovative und inspirierende Kundenprojekte ausgezeichnet. Der World Class Transformation Award ging an BASF Agricultural Solutions, der Rising Star Award an Conrad Electronics und der Long Term Achievement Award an Gigaset.

„Wir gratulieren den drei Unternehmen ganz herzlich zum Board Customer Award. Die ausgezeichneten Kundenprojekte zeigen, wie flexibel Unternehmen unsere Software an ihren Bedarf anpassen können, um den Kundennutzen zu optimieren. Damit dienen sie als inspirierendes Vorbild für andere Unternehmen“, sagt Ansgar Eickeler, General Manager Central & Eastern Europe bei Board International.

World Class Transformation Award
BASF Agricultural Solutions: Optimierung der Vertriebssteuerung

BASF Agricultural Solutions setzt Board als zentrale Plattform für Preis- und Rabattmanagement, Planung und Forecasting ein. Ziel ist es, Vertragsverhandlungen und Vertriebsprozesse transparenter, strukturierter und planbarer zu gestalten. Dazu werden nicht nur Kundeninformationen aus ERP- und CRM-Systemen zusammengeführt, sondern auch Simulationsmöglichkeiten intensiv genutzt. Derzeit läuft in Zusammenarbeit mit dem Board-Partner celver AG der schrittweise Roll-Out in den europäischen Ländern, bevor die Niederlassungen in Asien und den USA angebunden werden.

Board ist so flexibel, dass wir die einzelnen Länderspezifika berücksichtigen können und dennoch in der Lage sind, Prozesse zu harmonisieren und zu vereinheitlichen“, freut sich Pau Vinyes, Global Pricing Manager bei BASF Agricultural Solutions.

Rising Star Award
Conrad Electronic: Umfassende integrierte Businessplanung

Conrad Electronic setzt seine Transformationsstrategie konsequent fort und bindet seine Planungs-Systeme und -Prozesse einheitlich an die Cloud an. Board bietet Conrad Electronic eine Lösung für integrierte Business Planung, einschließlich Beschaffungs-, Vertriebs-, Finanz-, strategische Planung und Finanzkonsolidierung. Die Board-Plattform bringt die notwendige Performance mit, um die großen Datenmengen zu verarbeiten, die in einem Handelsunternehmen anfallen.

„Wir haben unsere jahrelange Erfahrung aus dem Betrieb eines großen Datawarehouse auf die Cloud übertragen und setzen als datengetriebenes Unternehmen unsere digitale Transformation konsequent fort. Dazu müssen wir das digitale Mindset unserer Mitarbeitenden stärken und ihnen ermöglichen, mit den gesamten Unternehmensdaten zu planen und zu analysieren. Mit Board haben wir eine Lösung, mit der wir eigenständig entwickeln und so schnell und umfassend unsere Ziele erreichen können“, sagt Michael Stein, Senior Director Controlling bei Conrad Electronic.

Long Term Achievement
Gigaset: Controlling- und Planungssystem, das die Fachanwender selbständig betreuen und erweitern

Gigaset arbeitet seit über 10 Jahren mit Board und hat eine integrierte, umfassende Planungslandschaft und ein eigenes Business Intelligence Competence Center aufgebaut. Board ist nicht nur als strategische Komponente, sondern auch im operativen Geschäft im Einsatz. Gigaset nutzt Board u. a. für Financial und Demand Planning, Sales und Logistics Reporting, PLM Controlling, Fertigungs-Controlling und Finanzreporting.

Uns gefällt vor allem, dass Board im Fachbereich ohne aufwändige Programmierung selbständig angepasst und weiterentwickelt werden kann, ohne unsere IT oder externe Berater hinzuziehen zu müssen. Das bringt uns bei Gigaset eine höhere Agilität, bessere Performance und Kostenersparnisse von mehr als 90 % gegenüber unseren alten Systemen“, sagt Dirk Lörwink, Head of IT Business Applications bei Gigaset.

Die Award-Verleihung erfolgte auf dem Board Day 2022. Die Vorträge dieser Konferenz rund um digitale Transformation und intelligente Planung können als On-Demand-Videos hier abgerufen werden.

Nachhaltigkeit in der Stadt: Smart Grids für Smart Cities

Jarno Wagner, General Manager DACH bei Enphase Energy, beschreibt, wie virtuelle Kraftwerke durch die Vereinigung von Solaranlagen entstehen könnten und welche Vorteile dies für die Smart City haben könnte.

Die Zukunft ist smart. Vom Toaster bis zum Auto werden Gebrauchsgegenstände immer intelligenter und über das Internet untereinander verbunden. Auch unsere Städte werden immer smarter, nicht zuletzt aufgrund der Notwendigkeit, wichtige Probleme wie den scheinbar unaufhörlich zunehmenden Verkehr in den Griff zu bekommen. Smart Cities sind auf den Austausch einer enormen Menge an Daten angewiesen, um zu funktionieren. Das führt auch dazu, dass der Energieaufwand für Speicherung und Transfer von Daten beständig zunimmt. Auch in und um unsere eigenen vier Wände nimmt der Energiebedarf beständig zu. Die Einsparungen durch den Einsatz moderner Geräte werden vom Mehrverbrauch durch die steigende Zahl von Geräten, die unseren Alltag angenehmer und intelligenter gestalten, mehr als wett gemacht. Vom Router über die Klimaanlage, die Wärmepumpe, die Ladestation für Elektrofahrzeuge bis zu einer Vielzahl von Smarthome-Komponenten pro Haushalt wird die Anzahl stromverbrauchender Geräte weiter wachsen. Smart Cities sind darum keineswegs inhärent auch schon nachhaltige Städte. Im Gegenteil: Es bedarf einer intelligenten Energieversorgung, damit aus Smart Cities auch Sustainable Cities werden.

Vorteil Sonnenenergie

Immer mehr Energie, nachhaltig erzeugt oder nicht, über lange Wege von weit her in die Städte zu pumpen, ist dabei kein vielversprechender Ansatz, wie schon die Diskussionen und vielen Verzögerungen beim Bau der für die Energiewende nötigen Stromtrassen aus dem Norden in den Süden verdeutlichen. Deutlich nachhaltiger ist die Erzeugung von Energie vor Ort, dezentral über das Stadtgebiet verteilt. Hierfür drängt sich vor allen eine Technologie auf: Photovoltaik.

Photovoltaik ist nicht gleich Photovoltaik

Mit ihrer Gesetzgebung zu erneuerbaren Energien hat die Bundesregierung bereits dafür gesorgt, dass Solaranlagen bei Neubauten obligatorisch werden. Allein mit Photovoltaik auf Neubauten wird man aber nicht weit kommen. Es gilt also, auch bestehende Gebäude mit entsprechenden Anlagen auszustatten. Zudem ist nicht jedes Photovoltaiksystem gleich gut geeignet, insbesondere im Kontext Smarter Cities. Ein effizientes Szenario für Smart Cities muss letztlich Smart Grids einschließen, intelligente Netze, die flexibel zu verwalten sind und die Kombination diverser Energiequellen genauso ermöglich wie die Einbindung von Speichersystemen. Bei letzteren geht es nicht nur um dezidierte Batterien, die in Wohn- und Bürogebäuden platziert werden oder als kleine Kraftwerke für ein Stadtviertel oder eine Nachbarschaft dienen. Vielmehr werden mit der wachsenden Anzahl von Elektroautos auch diese eine zunehmende Rolle als Speciher für Strom spielen, der bei Bedarf im Haus verbraucht oder ins Netz eingespeist werden kann.

Effizienz

Jarno Wagner wirbt für den Einsatz von Mikro-Wechselrichtern, da diese der Solaranlage Intelligenz verleihen.

Nicht nur bei der Verwaltung von Photovoltaiksystemen gibt es große Unterschiede, sondern auch bei der Effizienz. Das gilt insbesondere in Städten, wo Photovoltaik-Module beispielsweise auch an Fassaden angebracht werden, die zudem nicht immer optimal gen Süden ausgerichtet und durch andere Gebäude in der Umgebung unterschiedlich stark beschattet sind. Wie effizient eine Photovoltaikanlage unter diesen suboptimalen Bedingungen arbeitet, hängt wesentlich von einer grundsätzlichen technischen Entscheidung ab: Anlagen mit Mikro-Wechselrichtern arbeiten effizienter als solche mit einem zentralen Wechselrichter.

Wechselrichter sind erforderlich, weil Photovoltaik-Module Sonnenenergie in Gleichstrom umwandeln. Damit dieser genutzt werden oder ins öffentliche Netz eingespeist werden kann, muss er in Wechselstrom umgewandelt werden. Diese Aufgabe übernehmen Wechselrichter. Bei einer Architektur mit zentralem Wechselrichter werden sämtliche (oder doch eine große Anzahl) Module an einen großen, zentralen Wechselrichter angeschlossen. Beim Einsatz von Mikro-Wechselrichtern wird jedes Photovoltaik-Modul mit einem kleinen Wechselrichter ausgestattet. Zusammen bilden sie ein Minikraftwerk, das weitgehend selbständig operieren kann. Das führt auch dazu, dass jedes Modul sich optimal an die jeweiligen Lichtverhältnisse anpasst, während bei einem zentralen Wechselrichter beispielsweise die Beschattung nur eines Moduls die Produktion aller Module beeinträchtigt, die an denselben Wechselrichter angeschlossen sind. Selbst bei optimaler Ausrichtung der Module, die in der Stadt nur äußerst selten gegeben ist, operieren Anlagen mit Mikro-Wechselrichtern effizienter als Anlagen mit zentraler Architektur. Zudem steigt mit Mikro-Wechselrichtern die Fläche, die überhaupt für Photovoltaik nutzbar ist.

Safety first

Ein weiterer Vorteil von Mikro-Umwandlern, der in Städten im Allgemeinen und bei denkmalgeschützten Gebäuden insbesondere eine wichtige Rolle spielt, ist der Brandschutz. Wie erwähnt sind die Photovoltaik-Module beim Einsatz eines zentralen Wechselrichters in Serie geschaltet. Abhängig von der Anzahl der Photovoltaik-Module kann dadurch ein Gleichstrom-Hochspannungsstrang entstehen, der durchaus über 600 Volt Spannung führen kann. Diese Hochspannung birgt nicht nur Gefahren für die Installateure, sondern sorgt auch für Sicherheitsprobleme im Betrieb. Aufgrund einer beschädigten Isolierung oder eines schlechten Kontakts kann die Hochspannung einen Störlichtbogen verursachen, der mehrere Tausend Grad heiß werden kann. Mikro-Wechselrichter jedoch operieren mit 230V Wechselstrom, der durch jedes auf dem Dach montierte Solarmodul fließt. Sie sind also genauso sicher wie handelsübliche Haushaltsgeräte.

Intelligenz im Netz

Damit das skizzierte Szenario Wirklichkeit werden kann, müssen die einzelnen Elemente des Smart Grids weitgehend autonom funktionieren, und das Gesamtsystem muss sich ebenfalls auf intelligente Weise selbst regulieren können. Anderenfalls werden sich Fälle häufen, wie sie heute schon vorkommen können und zuweilen für Schlagzeilen sorgen. So berichtete die niederländische Tageszeitung Algemeen Dagblad kürzlich davon, dass immer wieder Photovoltaik-Anlagen in kompletten Wohngebieten aus Sicherheitsgründen von Energieunternehmen abgeschaltet werden, weil deren Netze den erzeugten Strom nicht mehr aufnehmen können. Um das zu verhindern, ist es erforderlich, dass möglichst viele Elemente des Smart Grid mit der notwendigen Intelligenz ausgestattet sind und dafür entwickelt wurden in einem Smart Grid mit anderen Geräten zu kommunizieren, sodass viele Geräte z.B. auch als zwischenzeitliche Speicher für Strom fungieren können, der an ganz anderer Stelle im Smart Grid erzeugt wurde, das Elektroauto von Herrn Maier z.B. als Speicher für den Strom, den die Photovoltaikanlage von Frau Mustermann erzeugt. Letztlich werden dezentrale Community-Marktplätze entstehen, integrierte Systeme, in denen die Geräte autonom darüber entscheiden, wo und zu welchem Zeitpunkt möglichst kostengünstig Strom bezogen wird. Und nicht zuletzt muss am Ende des Tages auch die Abrechnung für den gelieferten und verbrauchten Strom stimmen.

Ausblick

Es mag überraschen, aber lange nicht alle Photovoltaikanlagen sind mit der nötigen Intelligenz, Modularität und Konnektivität ausgestattet. Es ist ein wenig wie vor etlichen Jahren in der IT. Als das Internet aufkam, waren viele Anwendungen nicht für den Einsatz im Web geeignet, weil sie entwickelt wurden, bevor das Internet aufkam. Diese Legacy-Systeme halten sich zum Teil zwar erstaunlich lange, sorgen aber immer wieder für Probleme. Auch die Portierung von einer alten Plattform zu einer Internet-Anwendung ist zwar möglich, aber das Ergebnis bei weitem nicht so überzeugend wie eine von Grund auf für das Internet entwickelte Plattform. Ähnliches gilt für Photovoltaiksysteme: die meisten wurden nicht entwickelt, um in einem Smart Grid effizient zu operieren. Deshalb ist beim Aufbau eines Smart Grids besondere Sorgfalt bei der Auswahl auch der Photovoltaik-Komponenten gefordert. Nur mit smarten Komponenten lassen sich Smart Grids und somit Smart Cities realisieren.


Bildquelle / Lizenz Aufmacher:

Photo by Giorgio Trovato on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Datenschutz ohne Hindernisse: Warum Unternehmen auf synthetische Daten setzen sollten

Wie synthetische Daten bei Analytics- und KI-Projekten helfen können, beschreibt Omar Ali Fdal, Co-Gründer und CEO von Statice.

Daten sind eine der wertvollsten Währungen unserer Technologiegesellschaft. Sie helfen beispielsweise, innovative Sprachsysteme zu trainieren, damit diese schneller sinnvoll im individuellen Einsatz arbeiten können. Auch Staus vorhersagen und vermeiden oder das Training autonomer Fahrzeuge sind dank Nutzung und Auswertung hoher Datenmengen möglich, nebst vielen anderen Dingen. Durch stetig strenger werdende Datenschutzgesetze laufen Unternehmen jedoch leicht Gefahr, hohe Strafen zahlen zu müssen, sollten die Daten nicht korrekt gelagert und verwendet werden. Um dennoch weiterhin mit großen Datenmengen arbeiten zu können, greifen immer mehr Unternehmen auf synthetische Daten zurück.

Seit vier Jahren ist mit der DSGVO die bisher strengste Datenschutzverordnung in Kraft und längst mutet die Zeit davor ein bisschen wie der Wilde Westen der Datenvorherrschaft an. Besonders große Unternehmen, die auf viele Nutzende oder viel besuchte Webseiten aufbauten, hatten oftmals die Möglichkeit, relativ ungestört mit Datensätzen zu arbeiten, ohne dass die eigentlichen Inhaber:innen dieser Daten das unbedingt wussten. Nicht nur das hat sich seit Mai 2018 drastisch verändert, auch steigen nach wie vor die verhängten DSGVO-Bußgelder an. Wurde im Juli 2018, also direkt nach Inkrafttreten der DSGVO, lediglich eine Bußgeldstrafe über 400.000 € verhängt, waren es zwei Jahre später bereits über 330 Bußgelder mit einer Gesamtsumme von mehr als 130 Mio. €. Anfang 2022 waren bereits über eintausend Bußgelder mit einer Gesamtsumme von über 1,6 Mrd. € registriert. (Quelle). Auch in Zukunft ist anzunehmen, dass sowohl die Gremien der EU als auch jene auf nationaler Ebene mit ihren Digitalstrategien und der geplanten ePrivacy-Verordnung datengetriebene Geschäftsmodelle von Unternehmen noch stärker regulieren werden. Wie das jedoch konkret aussehen wird, ist nach den jüngsten Vereinbarungen zwischen der EU und den USA von März 2022 derzeit ungewiss. Denn noch gibt es keine Details, worauf sich die EU und die USA in ihrem neuen Datenschutzabkommen verständigt haben, nachdem der Europäische Gerichtshof (EuGH) das vorherige Datenschutzabkommen „Privacy Shield“ im Juli 2020 für nichtig erklärt hatte. Fest steht jedoch, dass damit die Weitergabe persönlicher Daten europäischer Nutzenden an US-Digitalkonzerne besser geregelt werden soll.

Bis 2024 sollen 60 Prozent der Daten synthetischen Ursprungs sein

Omar Ali Fdal sieht in synthetischen Daten die beste Möglichkeit, Datenschutz rechtssicher umzusetzen.

Ob in der Gesundheitsbranche, im Finanz- oder im Versicherungswesen: Große Datenmengen sind weiterhin selten wegzudenken. Eine gute Lösung kann der Einsatz von synthetischen Daten sein. Diesen wurde erst kürzlich durch Gartner eine enorme Relevanz prognostiziert. Das Analyse-Unternehmen geht davon aus, dass bis 2024 ca. 60 Prozent aller Daten, mit denen Unternehmen regelmäßig arbeiten, synthetischen Ursprungs sein werden (Quelle) – und auch das MIT qualifiziert synthetische Daten als eine Breakthrough Technology des Jahres 2022 (Quelle). Global agierende Unternehmen wie American Express, Google und Amazon arbeiten bereits damit, um datenschutzgerechte Datensätze zu erhalten. Und da auch immer mehr europäische Unternehmen zum Teil sehr hohe Strafen erhalten, werden es stetig mehr.

Aber wie funktioniert das Ganze? Im Gegensatz zu realen Daten, die aus den Informationen von Menschen gewonnen werden, basiert die Erzeugung synthetischer Daten auf Algorithmen des maschinellen Lernens. Bei synthetischen Datensätzen handelt es sich daher nicht einfach um eine Umgestaltung bereits vorhandener Daten, vielmehr entsteht ein Satz völlig neuer Datenpunkte. Sowohl die statistischen Eigenschaften der Daten als auch deren Grundstruktur bleiben dabei grundsätzlich ähnlich, sodass die neuen Datensätze quasi baugleich wie die ursprünglichen verwendet werden können. Ebenfalls enthalten die neu generierten Daten keinerlei sensiblen Informationen und können von Unternehmen daher freier für Analysen, das Trainieren von KI-Modellen, Tests, Forschung und vieles mehr verwendet werden.

Auch das Teilen großer Datensätze mit Geschäfts- und Entwicklungspartnern oder auch schon die Inhouse-Datenverarbeitung wird so um ein Vielfaches einfacher und rechtssicherer. Da sich die Synthetisierung durch dieses Vorgehen unendlich skalieren lässt, ist die Technologie für Unternehmen jeder Größe und praktisch jeden Einsatz möglich.

Synthetische Daten eröffnen vielen Branchen neue Möglichkeiten

Schnell wird deutlich: Das Potenzial der Technologie endet nicht beim Datenschutz. Viele global agierende Unternehmen, die immer stärker mit KI und Deep-Learning-Modellen arbeiten, haben das bereits erkannt. Um einige Beispiele zu nennen: Amazon nutzt synthetische Daten, um ihr Spracherkennungssystem Alexa zu skalieren, die Alphabet-Tochter Waymo nutzt sie, um ihre KI für autonomes Fahren zu trainieren und American Express verwendet synthetische Daten, um Muster bei Kreditkartenbetrug schneller und besser zu erkennen.

Auch ein kleiner Blick in die Versicherungsbranche zeigt, welchen weiteren Nutzen synthetische Daten haben: So führte z. B. die Provinzial erfolgreich prädiktive Analysen auf synthetischen Versicherungsdaten durch, indem sie den Prozess der Datennutzungsgenehmigung mit ihrem Datenschutzteam straffte und ihr maschinelles Lernmodell eine Leistungseffizienz von 97 % auf synthetischen Daten erreichte – durch Einsparungen von bis zu Monaten bei der Bewertung von Datenschutzrisiken (Quelle). Im Gesundheitswesen hat bspw. das Newsenselab-Team die Verwendung synthetischer Daten zur Anonymisierung medizinischer Daten validiert. Es gelang ihnen, mehr als 170.000 Datenpunkte zu Migränesymptomen zu anonymisieren und dabei dennoch die Nutzbarkeit der Daten zu gewährleisten, so dass die Daten ohne Verletzung der Privatsphäre für die Migräneforschung weitergegeben werden können (Quelle).

Insgesamt zeigt schon diese kleine Auswahl, welche breit gefächerten Möglichkeiten hinter der Technologie stecken. Unternehmen mit besonders datengetriebenen Geschäftsmodellen wie die Telekommunikationsbranche, der Finanzsektor oder das Gesundheitswesen bzw. die Pharmaindustrie sollten daher nicht länger zögern und die Nutzung synthetischer Daten schon jetzt in Betracht ziehen. Denn letztlich spielen die Qualität und risikoarme Nutzbarkeit von Daten eher mittel- als langfristig eine wichtige Rolle für den zukünftigen Erfolg.

Über den Autor:

Omar Ali Fdal ist CEO und Co-Gründer von Statice, einem in Berlin ansässigen, hochmodernen Anbieter von Datenschutz-Technologien für Unternehmen aus der Gesundheits-, Versicherungs- und Finanzbranche. Mit der Statice-Software können diese Unternehmen synthetische Datensätze für die tägliche Anwendung generieren.


Bildquelle/Lizenz Aufmacher: Bild von Hans Braxmeier auf Pixabay


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Wohnung erfolgreich verkaufen

Stetig steigende Immobilienpreise, eine hohe Nachfrage und besonders günstige Finanzierungsmodelle – wer heutzutage eine Eigentumswohnung verkaufen möchte, muss in der Regel nicht lange nach den passenden Interessenten suchen. Nichtsdestotrotz sollte man sich als Verkäufer gut vorbereiten und den gesamten Ablauf möglichst genau planen, um finanzielle Einbußen und sonstige Probleme von vornherein zu vermeiden. Aber worauf sollte man dabei denn eigentlich genau achten? Verkauft man die Wohnung in Eigenregie oder nutzt man besser die Expertise eines Maklers? Welche Dokumente werden für den Verkauf benötigt? Und mit welchen Kosten muss man als Verkäufer einer Eigentumswohnung rechnen? Anhaltspunkte und eine fundierte Vorgehensweise beschreibt Sven Schäfer, freier Autor.

Sobald der Entschluss gefasst ist, die eigene Wohnung zu verkaufen, steht im ersten Schritt das Sammeln von Informationen an. Hier empfehlen sich beispielsweise die verschiedenen Immobilienportale im Internet, um die aktuellen Preise anhand vergleichbarer Immobilien besser einschätzen zu können. Und praktischerweise kann man sich auf diesem Wege zudem auch ein Bild davon machen, wie eine Immobilie optimalerweise präsentiert wird, um möglichst viel Aufmerksamkeit zu generieren. Im nächsten Schritt stellt sich dann die Frage, ob man sich persönlich um den Verkauf der Wohnung kümmern, oder stattdessen lieber auf die fachliche Unterstützung eines Maklers zurückgreifen möchte.


Wohnung mit oder ohne Makler verkaufen – was sind die Vor- und Nachteile?

Eine ansprechende Präsentation (auch Exposé genannt) erstellen, Besichtigungstermine organisieren, notwenige Dokumente zusammenstellen, Verkaufsgespräche und -verhandlungen führen sowie Verträge aufsetzen – wer eine Wohnung verkaufen und dabei möglichst erfolgreich sein möchte, wird relativ schnell feststellen, dass es sich dabei um eine sehr zeitintensive Angelegenheit handelt. Dementsprechend setzen viele Verkäufer auf die Unterstützung durch einen Immobilienmakler, da dieser über die notwendige Erfahrung und das Fachwissen verfügt, um den Verkauf möglichst ohne Komplikationen über die Bühne zu bringen. Zudem profitieren die meisten Makler von zahlreichen Kontakten zu Gutachtern, Sachverständigen und nicht zuletzt auch zu potentiellen Käufern.

Allerdings hat diese Zusammenarbeit natürlich auch ihren Preis, der je nach Makler und Bundesland bis zu sieben Prozent des Verkaufswertes ausmachen kann. Darüber hinaus gibt es in der Maklerbranche immer wieder unseriöse Dienstleister – daher sollte man sich optimalerweise auch schon im Vorfeld über die bisherigen Projekte und Referenzen informieren. Tipp: Ein ausführlicher Vergleich der verschiedenen Anbieter kann viel Zeit und Geld einsparen. Wer sich gegen die Zusammenarbeit mit einem Makler entscheidet, sollte jedoch spätestens bei der Ausgestaltung der Kaufverträge und der eigentlichen Kaufabwicklung auf die Unterstützung eines Fachanwaltes oder eines Notars zurückgreifen, um auf der rechtlich sicheren Seite zu sein.


Welche Dokumente werden bei dem Verkauf einer Wohnung benötigt?

Das Wichtigste vorab: Um spätere Verzögerungen und andere Probleme zu vermeiden, sollte man alle relevanten Unterlagen schon möglichst frühzeitig vorliegen haben – nicht zuletzt, da die Ausstellung der Dokumente zum Teil mehrere Wochen in Anspruch nehmen kann. Gut zu wissen: In der Regel müssen sämtliche Unterlagen nicht nur für die potentiellen Käufer, sondern ebenso für den verantwortlichen Notar verfügbar sein, daher empfiehlt es sich, gleich mehrere Kopien der jeweiligen Dokumente anzufertigen.

  1. Ein aktueller Grundbuchauszug
    Im Grundbuch werden alle wichtigen Informationen über das Grundstück und die Immobilie selbst festgehalten. Der Auszug kann bei dem verantwortlichen Grundbuchamt (meist im Amtsgericht zu finden) beantragt werden.
  2. Die Flurkarte
    Die sogenannte Flurkarte – erhältlich beim Katasteramt – enthält Informationen zu den geografischen Gegebenheiten (Grundstücksgrenzen, baulich erschlossene Flächen etc.).
  3. Der Energieausweis
    Der Energieausweis gilt bereits schon seit geraumer Zeit als überaus wichtiges Dokument bei dem Verkauf einer Wohnimmobilie, da er präzise Angaben zu der Energieeffizienz der Wohnung und den damit verbundenen Energiekosten beinhaltet.
  4. Grundriss und Bauzeichnungen/-beschreibungen
    Der Grundriss gehört zu den mit Abstand wichtigsten Dokumenten bei dem Verkauf einer Immobilie, da er konkrete Informationen über die Raumaufteilung, die Größe der Wohnflächen und die genaue Lage beinhaltet. Sollten in der Vergangenheit größere Um-, An- oder Ausbauten stattgefunden haben, sollte zudem eine aktuelle Baubeschreibung vorliegen.
  5. Eine aktuelle Wohngeldabrechnung
    Damit sich die potentiellen Käufer ein genaues Bild über die zu erwartenden monatlichen Kosten machen können, sollte eine möglichst genau aufgeschlüsselte Wohngeldabrechnung angefertigt werden.
  6. Versicherungsnachweise
    Dem Verkäufer sollten alle relevanten Versicherungsurkunden vorliegen, nicht zuletzt da diese Dokumente auch enorm wichtig für den Käufer sind, der sämtliche Nachweise zur Klärung der Finanzierung seiner Bank vorlegen muss.
  7. Die Teilungserklärung (im Falle einer einzelnen Wohnung innerhalb eines Mehrfamilienhauses)
    Bei der Teilungserklärung handelt es sich um ein notariell beglaubigtes Dokument, das Aufschluss über die formelle Aufteilung des Gebäudes und die verschiedenen Rechte und Pflichten der jeweiligen Parteien gibt.
  8. Weitere, nicht verpflichtende Unterlagen
    Neben den bereits genannten Dokumenten können den möglichen Käufern noch weitere Unterlagen zur Verfügung gestellt werden, um sich ein noch besseres Bild von der Immobilie machen zu können. Hier wären unter anderem die Protokolle der letzten Eigentümerversammlung und Nachweise zu Modernisierungsmaßnahmen (beispielsweise durch die Eigentümergemeinschaft) zu nennen.

Sven Schäfer

Über den Autor

Sven Schäfer ist bereits schon seit vielen Jahren als selbstständiger Autor für verschiedenste Fachmagazine tätig aber auch für Portal wie immobilien24.de. Aufgrund seiner langjährigen Erfahrung in den Bereichen (Anlage-)Immobilien, Baufinanzierung und Co. schreibt er stets am Puls der Zeit und weiß daher sehr genau, welche Themen die Immobilienbranche derzeit beschäftigen.


Bildquelle / Lizenz Aufmacher: Pixabay / ErikaWittlieb


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Erfolgreiches Personalmanagement: Die Herausforderungen für den Mittelstand

Mona Pankel: „Heute geht es darum, über digitale Lösungen und automatisierte Prozesse den Personalern den nötigen Raum zu lassen, um sich den strategischen Fragen den Personalmanagements zu widmen.“

Mona Pankel, Team Lead Talent Acquisition bei Personio, beschreibt, wie es den KMU gelingen kann, Automatisierung und Digitalisierung im Personalmanagement umzusetzen und auf diese Weise den Anschluss an die großen Unternehmen nicht zu verlieren.

Der Mittelstand ist hierzulande mit rund 90 Prozent aller Unternehmen eine Macht. Doch in Sachen Digitalisierung hinkt der größte Beschäftigungszweig massiv hinterher. Dabei hat nicht zuletzt die Pandemie gezeigt, dass der Einsatz moderner Technologien, eine flexible Arbeitseinteilung sowie eine gute Work-Life-Balance alternativlos ist. Während kleine und mittelständische Unternehmen klassische Arbeits- und Herangehensweisen bevorzugen, glänzen Start-ups mit modernen, digitalen Ansätzen, was sich natürlich auch beim Recruiting bemerkbar macht. Um jedoch weiterhin wettbewerbsfähig zu bleiben und zukunftsfähig zu arbeiten, müssen alte Strukturen aufgebrochen werden – insbesondere im HR-Bereich.

Der Weg in eine digitale Zukunft bereitet vielen kleinen und mittelständischen Unternehmen nach wie vor Kopfzerbrechen. Denn aufgrund knapper Budgets, begrenztem Zugriff auf internes oder externes Know-how sowie Ressourcenknappheit dürfen sie sich bei ihrer Digitalisierungsstrategie keinerlei Fehler erlauben. So gilt es, mit den beschränkten, zur Verfügung stehenden Mitteln alle Herausforderungen auf technologischer, organisatorischer und struktureller Ebene zu bewältigen. Das bedeutet, dass Unternehmen heute, wollen sie im „Competition for Talents“ Boden gut machen, die Voraussetzungen schaffen müssen, um ein effektives, motivierendes, kooperatives und gleichzeitig integratives Arbeiten zu ermöglichen. Eine der Schlüsselrollen in diesem Prozess fällt der Personalabteilung zu, deren Aufgabe es ist, für alle Akteure ein Arbeitsumfeld zu schaffen, das ganzheitlich und ohne Reibungsverluste funktioniert, sodass die Mitarbeitenden ihr volles Potenzial entfalten können und maßgeblich zum Erfolg des Unternehmens beitragen.

Die Angst geht um

Wie die aktuelle Studie „Reimagining Work and Rewards Survey“ der WTW zeigt, stellen Mitarbeitergewinnung und -bindung deutsche Unternehmen zunehmend vor Herausforderungen. Zu den wesentlichen Treibern des real gewordenen „Competition for Talents“ zählen, den Experten von WTW zufolge, der demografische Wandel sowie die Digitalisierung. Ein „Weiter so“ dürfe es demzufolge nicht geben. Vielmehr müssten die Unternehmen die Art und Weise, wie Arbeit organisiert und durchgeführt wird, ebenso wie ihr Angebot an die Mitarbeitenden grundlegend überarbeiten. Alarmierend ist vor dem Hintergrund, dass die Studie außerdem offenlegt, dass 90 Prozent der Unternehmen noch nicht im „New Normal“ angekommen sind.

Da die Pandemie den Fortschritt im Hinblick auf flexible Arbeitsmodelle begünstigt hat, dürfen Unternehmen im Post-Corona-Zeitalter keinesfalls in alte Muster zurückfallen, sondern müssen digitale Strukturen schaffen und in neue Technologien und Tools investieren. Denn viele Prozesse, insbesondere in kleinen und mittelständischen Unternehmen, verschlingen immer noch zu viel Zeit und Ressourcen – nicht zuletzt im HR-Bereich. Dabei ließen sich wiederkehrende Prozesse wie beispielsweise Reisekostenabrechnungen, Zeiterfassung oder die Verwaltung von Personaldaten mit der richtigen HR-Software deutlich effektiver gestalten, sodass die freigesetzten Ressourcen anderweitig eingesetzt werden könnten.

Mitarbeiterbindung 2.0: People before Profits

Erhebungen von Personio zufolge haben 62 Prozent der europäischen Arbeitgeber Schwierigkeiten, ihre Stellen mit qualifizierten Fachkräften zu besetzen. Während Arbeitnehmer:innen aktuell deutlich offener für einen Jobwechsel sind. Gerade der Mittelstand kann es sich daher kaum leisten, talentierte Mitarbeitende zu verlieren. Doch wie müssen die Maßnahmen zur Mitarbeiterbindung im „New Normal“ aussehen?

Zunächst einmal ist es wichtig, sich vor Augen zu halten, dass die klassische HR, die lange Zeit als bloßer administrativer Ansprechpartner für die Belegschaft betrachtet wurde, Geschichte ist. Heute geht es darum, über digitale Lösungen und automatisierte Prozesse den Personalern den nötigen Raum zu lassen, um sich den strategischen Fragen den Personalmanagements zu widmen. Hierfür braucht es Agilität, Transparenz, Standardisierung und Ortsunabhängigkeit, die über Prozessoptimierung erreicht werden. Denn die Mitarbeitererfahrung, die Employee Experience, ist für den Unternehmenserfolg ausschlaggebender denn je. Daher hat die Personalabteilung, als Bindeglied zwischen Führungsebene und Belegschaft, richtungsweisend zu handeln und muss im Zuge dessen die strategische Verantwortung übernehmen, um die Bedürfnisse der Mitarbeitenden auch morgen noch erfüllen zu können.

Um dem grassierenden Fachkräftemangel entgegenzuwirken, sollten Unternehmen ihr Augenmerk in erster Linie auf die Mitarbeiterbindung legen. Zweifelsohne spielt das Recruiting eine tragende Rolle. Jedoch bedeuten weniger Kündigungen weniger Neueinstellungen und motiviertere Teams – ganz zu schweigen von den Produktivitätsverlusten sowie Recruiting- und Onboarding-Kosten, die in Kauf genommen werden, wenn Mitarbeitende ersetzt werden müssen. Unter dem Strich kann eine hohe Mitarbeiterfluktuation das Geschäftsergebnis empfindlich beeinträchtigen. Den Recherchen von Personio zufolge schlägt eine Neueinstellung, bezieht man die bereits angesprochenen Produktivitätsverluste, Recruiting- und Onboarding-Kosten mit ein, mit bis zu 33 Prozent des Jahresgehaltes eines Mitarbeitenden zu Buche. Um jedoch motivierte und talentierte Fachkräfte zu halten, müssen Arbeitgeber die Push- und Pull-Faktoren verstehen.

Gegen die Resignation

Kleine und mittelständische Unternehmen haben dann die Chance, sich gegenüber Wettbewerbern einen Vorsprung zu verschaffen, wenn sie verstehen, inwiefern Arbeitnehmer:innen ihre Prioritäten während der Pandemie neu gesetzt haben und was dies für das aktuelle Arbeits- und Geschäftsmodell bedeutet. So wünschen sich, der aktuellen Personio-Studie zufolge, gut zwei Drittel der Befragten eine bessere Work-Life-Balance, flexiblere Arbeitszeiten und Work-from-anywhere. Darüber hinaus möchten sie, dass ihr Arbeitgeber für ihr persönliches Wohlergehen sorgt. Kurzum: Wer um erdrutschartige Personalabgänge bangt, sollte sich an den Bedürfnissen der Arbeitnehmer:innen orientieren. Leider legen viele Personalberater:innen ihren Schwerpunkt immer noch auf die Eignungsdiagnostik und den Eigenbedarf. Darüber wird vergessen, dass das Recruiting immer mehr zum Sales-Prozess wird und es auch bei der Mitarbeiterbindung darum geht, das eigene Umfeld aufzuwerten und unternehmensinterne Prozesse agiler zu gestalten. Hierzu gehören auch innerbetriebliche Strukturen, um motivierten Arbeitskräften Aufstiegsmöglichkeiten unterbreiten zu können. Denn enttäuschte Erwartungen sind ebenfalls ein Grund für die Abwanderungswelle. Den Recherchen von Personio zufolge sind mehr als ein Viertel der Befragten der Meinung, dass die Remote-Arbeit ihre berufliche Weiterbildung behindert hat. Umso wichtiger ist es, dass die Personalverantwortlichen den Grundstein dafür legen, dass die Beschäftigten bei allen remoten oder hybriden Arbeitsmodellen die Möglichkeit haben, sich zu entfalten und ihre Karriere weiter voranzutreiben.

Fazit

Kleine und mittelständische Unternehmen sind das Rückgrat der Wirtschaft. Um jedoch wettbewerbsfähig zu bleiben, müssen sie in die Digitalisierung investieren und HR neu denken. Nur wenn sie es schaffen, talentierte und motivierte Mitarbeiter:innen im Unternehmen zu halten, wird es ihnen gelingen, nachhaltig zu wachsen. Im Zentrum stehen hierbei neue Strategien für Recruiting und Mitarbeiterbindung, die die Bedürfnisse der Mitarbeitenden in den Fokus rücken. Dazu sollten HR-Teams von Verwaltungsaufgaben entlastet werden. Software-Lösungen, die den Alltag der Personalabteilung weiter erleichtern, sind daher ein wichtiger Baustein für den künftigen Unternehmenserfolg.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Marketing-Automation: Klarheit im digitalen Vertrieb

Im digitalen Zeitalter wird es immer schwieriger, potenzielle Kunden individuell und gleichzeitig effizient zu relevanten Themen anzusprechen. Menschen erwarten auf ihre Bedürfnisse zugeschnittene Informationen. Erfüllen Firmen das nicht, verliert man unter Umständen wertvolle Kundschaft.

„Mit einem Marketing-Autopiloten lassen sich diese Herausforderungen in vielen Bereichen gut meistern. Man sollte sich aber genau überlegen, für welche Prozesse man ihn nutzt – denn falsch eingesetzt sind Automationen eine massive Geldverschwendung“, erklärt Marketing-Experte Lukas Lindler. In Seinem Gastbeitrag stellt er Möglichkeiten heraus, wie Unternehmen durch sinnvolle Marketing-Automation Wettbewerbsvorteile generieren.

Ist Automation im Marketing wirklich der beste Weg?

Uneingeschränkt: Ja. Natürlich gibt es immer noch Kritiker, die überzeugt sind, dass ein persönlicher Service von Mensch zu Mensch nicht zu toppen ist. Allerdings muss ein guter Service immer von den Bedürfnissen des Kunden ausgehen und diese Bedürfnisse haben sich mit der Digitalisierung geändert. Das Kauferlebnis muss schnell und reibungslos ablaufen. Dazu gehört vom ersten bis zum letzten Schritt eine ganz klare Orientierung. „Eine verwirrte Seele kauft nicht“, sagt Lukas Lindler und bezieht sich damit auf Webseiten, die zwar viele Informationen liefern, aber den Kunden mit dem eigentlichen Bestellprozess allein lassen. Den Interessenten selbst herausfinden zu lassen, welche Informationen für ihn wichtig sind und welchen Button er klicken muss, um sein Ziel zu erreichen, ist der falsche Weg.

Eine Automation des Prozesses dagegen bietet Klarheit. Der Interessent wird so lange durch den automatisierten Vertriebsprozess geführt, bis er zum Kunden wird. Für Unternehmen ist es selbstverständlich, neue Mitarbeiter durch ein klar strukturiertes Onboarding einzuarbeiten. Lukas Lindler stellt die wichtige Frage: „Wieso ist es noch nicht selbstverständlich, Kunden dieselbe Klarheit zu bieten? Schritt A, Schritt B, dann kommt Schritt C und vielen Dank für die Bestellung.“

Ressourcen sparen durch Automation

Den gesamten Prozess vom ersten Kontakt bis zum Vertragsabschluss zu automatisieren, spart Unternehmen viel Zeit und Geld. Eine individuelle Kundenbetreuung ist in vielen Fällen nicht nur überflüssig, sondern auch verwirrend. Verschiedene Mitarbeiter vermitteln verschiedene Informationen, was bei Kunden zu Orientierungslosigkeit führen kann. Sind alle Prozesse einheitlich automatisiert, wird nicht nur das Kauferlebnis positiver, Unternehmen sparen auch Mitarbeiter ein, deren Kraft an anderer Stelle sinnvoller genutzt werden kann.

Lukas Lindler sieht in automatisiertem Marketing vor allem die Möglichkeit, Struktur und Klarheit für den Kunden zu schaffen.

Ein weiterer positiver Aspekt der Automatisierung ist die Messbarkeit des Erfolgs. Herkömmliches Marketing, wie Plakatwerbung, weist nicht nur einen hohen Streuverlust auf, es ist für Unternehmen auch unmöglich herauszufinden, welche der Maßnahmen im Endeffekt Kunden in den Laden geführt hat. Durch automatisiertes digitales Marketing ist im Detail messbar, welche Maßnahmen zu Abschlüssen geführt haben. Das gibt Unternehmen die Möglichkeit, erfolgreiche Maßnahmen weiter auszubauen und an Schwachstellen nachzubessern. Wenn im Vordergrund der Automation die zielführende Kommunikation mit dem Interessenten steht, ist diese Kommunikation keineswegs unpersönlich, sondern effizient und angenehm für beide Seiten.

Über den Autor:

Lukas Lindler ist Experte für den digitalen Vertrieb und im Bereich Social-Media-Marketing. Er hilft seinen Kunden dabei, sich mit digitalen Dienstleistungen einen passiven Einkommensstrom aufzubauen. Gemeinsam mit seinen Kunden erarbeitet er nicht nur ein Konzept und eine Strategie, sondern setzt diese auf Wunsch im Rahmen seines Full-Service-Angebots auch komplett um. Mehr Informationen unter: https://www.lukas-lindler.com/


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Events zum Aufbau einer firmeneigenen Videoplattform nutzen

Ksenia Trofimova, Head of Marketing and Sales, Techcast GmbH, beschreibt eine Möglichkeit, wie Unternehmen mit Content umgehen, die sie im Rahmen von Veranstaltungen wie etwa Messen oder Firmenevents produzieren.

Die digitale Transformation verändert Kommunikationsstrategien und das Event-Management. Real-Live-Kommunikation bleibt dabei unverzichtbar. Doch Unternehmen können den Video-Content aus Veranstaltungen langfristig für den Aufbau eigener Plattformen nutzen.

Die Präsenzveranstaltungen sind zurück. Viele freuen sich über den direkten Austausch auf Messen, Konferenzen und Kundenevents. Gleichzeitig hat sich das Publikum auch an die Vorteile von digitalen Veranstaltungen gewöhnt. Events vor Ort haben deshalb heute oft gleichzeitig ein digitales Abbild im Netz. Die wichtigsten Programmpunkte lassen sich so später auch On-Demand konsumieren.

Ob Ärztekongress, Verkaufsveranstaltung oder Weiterbildung: Oft gibt es neben einem inhaltlichen Teil auch ein informelles Rahmenprogramm. Dazu gehört gutes Essen ebenso wie das offene Gespräch. Beide Teile sind wichtig und gehören zum Gesamterlebnis dazu. Teilnehmerinnen und Teilnehmer, die nicht anreisen können, wollen oft zumindest die Vorträge mit den zentralen Informationen nicht verpassen. Es gehört deshalb immer mehr zum Standard hochwertiger Veranstaltungen, dass Vorträge live gestreamt und anschließend On-Demand abgerufen werden können.

365-Tage-verfügbare Konferenz- und Content-Plattform

Moderne Online-Event-Plattformen erlauben Event-Streaming im firmeneigenen Design. Die Plattform läuft im Idealfall unter der eigenen Firmendomain. Die User Experience ist optimal für alle, unabhängig davon, ob sie die Veranstaltung vor Ort oder remote verfolgen oder eben einfach nur einzelne Vorträge zu einem späteren Zeitpunkt nachholen wollen. Mit einer passenden White-Label-Lösung können Unternehmen ihre digitale Event-Strategie ohne großen IT-Aufwand realisieren. Über die Plattform werden Events im Livestream übertragen und sind als On-Demand-Videos abrufbar.

Die Plattform begleitet die Teilnehmerinnen und Teilnehmer während aller Phasen vor, während und nach der Veranstaltung. So finden sich auf den eventspezifischen Landing Pages das Programm, die Anmeldemöglichkeit, das Livestreaming, ein Networking-Bereich (inkl. Matching) und zur Nachbearbeitung des Events die On Demand-Videos sowie gegebenenfalls zusätzliche Informationen der Vortragenden.

Längerfristiger Aufbau einer eigenen Videoplattform

Für die einzelne Veranstaltung ist eine virtuelle Event-Plattform inzwischen beinahe unverzichtbar geworden. Die Event-Manager sollten sich jedoch nicht jedes Mal nach einer neuen Lösung umsehen müssen. Im Rahmen von Projekten zur digitalen Transformation empfiehlt es sich deshalb für die Unternehmen über die einzelne Veranstaltung hinausdenken und eine umfassende digitale Event-Strategie zu entwickeln. Dann muss einerseits nicht jedes Event-Team das Rad wieder neu erfinden und andererseits kann das Unternehmen einen längerfristigen Zusatznutzen erzielen. Denn die Inhalte aus den einzelnen Veranstaltungen lassen sich einfach zu einer umfassenden Videoplattform zusammenfassen. Je nach Art der Inhalte können die Unternehmen aus dieser Mediathek beispielsweise eine eigene Online-Akademie entwickeln oder die Videos für Marketing und Leadgenerierung nutzen.

Im Idealfall wird eine Event-Plattform von mehreren Abteilungen im Unternehmen bespielt. Teams aus Marketing, Vertrieb, Personalabteilung und Investor Relations setzen die Veranstaltungsplattform jeweils ein, um mit ihren Stakeholdern zu kommunizieren. So entsteht für die Unternehmen eine 365-Tage-verfügbare Konferenz- und Content-Plattform (eine Art „Business-Youtube“) mit Potential für neue Geschäftsmodelle.

Fazit: Online-Events sind Teil der digitalen Transformation im Unternehmen

Aufzeichnungen von Veranstaltungen ermöglichen den Teilnehmenden Verpasstes nachzuholen und Inhalte dann zu konsumieren, wann es individuell in die Zeitplanung passt. Über das einzelne Event hinaus lassen sich Veranstaltungsinhalte zu einer Videoplattform oder Mediathek ausbauen, neu sortieren und wiederveröffentlichen. Die langfristige Verwertung der gesammelten Video-Inhalte ist Teil der Strategie zur digitalen Transformation im gesamten Unternehmen.

Zur Autorin:

Ksenia Trofimova ist Head of Marketing and Sales des Online-Event-Dienstleisters Techcast in München. Das Unternehmen hat eine modulare White-Label-Event-Plattform entwickelt und unterstützt mit Beratung und Produktions-Services für hochwertige Online- und Hybrid-Events.


Bildquelle / Lizenz Aufmacher:

Photo by Kane Reinholdtsen on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.