Kundendaten konform zum Datenschutz sammeln

Um die eigenen Kunden besser zu verstehen und passende Produkte oder Abonnements anzubieten, sammeln Unternehmen Daten über alle möglichen Interaktionen. Sie möchten verstehen, was die Verbraucher wollen und wie sie ihre Customer Journey verbessern können. In diesem Rahmen spielt der Datenschutz eine entscheidende Rolle. Ein Standort in Europa gilt als wichtig und vertrauensbildend. Adrien Günther, Director of Analytics DACH bei Piano, erläutert die eigene Philosophie.

Besonders in Europa herrschen beim Schutz personenbezogener Daten strenge Vorgaben. Selbst große US-amerikanische Konzerne kommen an der Datenschutz-Grundverordnung (DSGVO) nicht mehr vorbei. Bei schwerwiegenden Verstößen gegen die DSGVO drohen Geldbußen von bis zu vier Prozent des weltweiten Jahresumsatzes. Der Online-Händler Amazon musste beispielsweise im Juli 2021 ein Rekordbußgeld in Höhe von 746 Millionen zahlen.

Adrien Günther berät Unternehmen bei datenschutzkonformer Datenanalyse.

Die Digital-Experience-Plattform von Piano ermöglicht es Unternehmen, das Kundenverhalten zu verstehen und die gewonnenen Einblicke in Taten umzusetzen. Durch die Zusammenführung von Kundendaten, die Analyse von Verhaltensmetriken und die Erstellung personalisierter Customer Journeys hilft Piano Marken dabei, Kampagnen und Produkte schneller zu starten, die Kundenbindung zu stärken und die Personalisierung umfangreich über eine einzige Plattform voranzutreiben. Mit den Übernahmen von AT Internet und CeleraOne im Jahr 2021 sowie SocialFlow im Jahr 2022 hat das Unternehmen seine globale Präsenz und sein Produktangebot weiter ausgebaut.

Um zu unterstreichen, wie wichtig Piano das Thema Datenschutz ist, verlegte es seinen Hauptsitz aus den USA nach Amsterdam. Dieser Schritt berücksichtigt auch Piano Analytics und dessen Herkunft (früher AT Internet): Es entstand unter Einhaltung der weltweit strengsten Datenschutzbestimmungen in Frankreich. Noch lange bevor es eine DSGVO gab, setzte sich der französische Anbieter unermüdlich für den Datenschutz ein und sorgte dafür, dass sich seine Kunden datenschutzkonform verhalten können. Die erhobenen Daten werden ausschließlich in Europa gespeichert und weiterverarbeitet. Heute geht das Thema weit über eine rechtliche Notwendigkeit hinaus, sondern stellt auch ein zentrales Verkaufsargument dar: Je einfacher es für Firmen ist, sich beim Datensammeln datenschutzkonform zu verhalten, umso besser.

Die Analyselösung bringt Teams auf die gleiche Seite, indem sie Daten vereinheitlicht, die zuvor nur in speziellen Tools wie Transaktionsberichten, Newsroom-Analyseprodukten, Produktanalyse- oder Videoanalyse-Tools verfügbar waren. Die Analyse erfolgt eventbasiert und agiert dadurch maximal flexibel, da sich alle Interaktionen als Events abbilden lassen. So setzte ein Unternehmen sogenannte Ping-Events ein, die alle 60 Sekunden schauen, ob der Besucher noch auf der Webseite ist. Die meisten Daten sind innerhalb einer Minute abrufbar. Ein Event kann aber auch ganz einfach ein klassischer Klick auf ein Produkt sein. Die Analyselösung ist in die Plattform von Piano integriert, deren Kernkompetenz bisher in der Verwaltung digitaler Abo-Modelle und Paywalls für Verlage lag. Durch die neuen Zukäufe bietet Piano jetzt alles aus einer Hand, was ein digitales Unternehmen jeglicher Branchen für die Verwaltung von Kundenerlebnissen benötigt.

Das gerade veröffentlichte „Composer Insights“ verbindet Piano Analytics mit dem Flaggschiff des Unternehmens, dem Drag-and-Drop-Customer-Journey-Management-Tool „Composer“. Mit diesem Modul können Organisationen jetzt die Customer Journey und den Weg zur Conversion verstehen, indem Sie die Erlebnisse und Inhalte ermitteln, die bei der Zielgruppe am besten ankommen.

So konnte ein Verlag durch den Einsatz der Piano-Plattform seine Conversion-Rate der digitalen Abos um sieben Prozent im Vergleich zum Vorjahr steigern. Grund hierfür waren die neuen Möglichkeiten, Kunden zu binden – von der Registrierung über das Newsletter- oder Test-Abo bis zu verschiedenen Trial-Periods. Bisher bekamen alle Leser das gleiche Abo-Modell vorgeschlagen, doch auch in der Abo-Welt ergeben personalisierte Angebote Sinn. Jetzt kann der Verlag vorgefertigte Kundensegmente anwenden und beispielsweise Familien- oder Small-Business-Abos anbieten, die mehrere Leser gleichzeitig nutzen können. Das kommt sehr gut an.

Der Vorteil von Piano: Die Firma bietet alles aus einer Hand, jegliche Funktionen sind implementierbar. Das ist gerade für große Unternehmen und Verlage wichtig. Denn die Komplexität der Tool-Landschaft betrifft auch Medienunternehmen. Sie haben 50 verschiedene Programme für verschiedene Anwendungsszenarien – von A/B-Tests über Analytics, Abo-Commerce bis hin zur Paywall. Sie hätten am liebsten eine einzige Plattform, die alle Daten und auch die Teams, die nicht auf verschiedene Tools zugreifen müssen, vereint. Das spielt wiederum dem Datenschutz in die Hände: Denn nur einheitlich gepflegte Daten, die durch ein verlässliches Consent-Management fließen und feingranular abrufbar sind, bilden eine Grundlage zur Optimierung der Customer Experience.

Unsere Philosophie: Wir verwenden, verkaufen oder übertragen keine Daten und führen keine Aktivitäten durch, die gegen die DSGVO oder lokale Vorschriften verstoßen. Der Standard- und einzige Zweck unserer Lösung besteht darin, pseudonymisierte Publikums-, Navigations- und Verhaltensdaten im Namen unserer Kunden zu sammeln, zu verarbeiten und zu speichern. Darüber hinaus setzen wir zusätzliche technische Maßnahmen wie Pseudonymisierung, Anonymisierung und Verschlüsselung ein.

Doch die ganze Mühe lohnt sich, denn die Ergebnisse einer Datenanalyse zählen mehr als ein Bauchgefühl. So war beispielsweise ein deutscher Verlag überrascht, nachdem er bei der Einführung neuer Abo-Modelle durch Split-Tests andere Zielgruppen erreichte, als er ursprünglich gedacht hatte. Zudem fand der Verlag heraus, dass der Preis für das Abo und die Laufzeit nicht so entscheidend sind wie die Verständlichkeit des Angebots. Ab jetzt testet der Verlag neue Ideen und setzt die Ergebnisse in die Tat um.

Da sich die Zukunft des Internets weg vom anonymen Tracking und hin zu einem zustimmungsbasierten System verschiebt, bei dem die Nutzer die Kontrolle erhalten, kann Piano dank seiner Präsenz in der EU weiterhin Lösungen anbieten, die Marken und Verlagen helfen, ihre Datenziele zu erreichen. Das stärkt gleichzeitig auch das Vertrauen ihrer eigenen Kunden in sie.

Über den Autor

Adrien Günther ist Director of Analytics DACH bei Piano am Standort München, wo er seit einem Jahrzehnt Unternehmen in der DACH-Region strategisch in der Planung und Implementierung digitaler Analysen berät. Bevor er zu AT Internet (2021 von Piano übernommen) kam, war Günther Leiter des Bereichs Business Intelligence bei einer Werbeagentur. Er hat außerdem Erfahrung in der Suchmaschinenoptimierung, Suchmaschinenentwicklung, als auch in der Entwicklung von digitalen Assets, Websites und Online-Apps.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

API-Marktplatz nun auch in Berlin

Iddo Gino hat mit RapidAPI ein sehr wachstumsstarkes Unternehmen begründet, dass international aufgestellt ist.

RapidAPI, Anbieter des weltweit größten API-Marktplatzes, gab die Eröffnung seines neuen Standorts in Berlin bekannt, der als europäischer Sitz des wachstumsstarken Unternehmens fungieren wird. Als eines der Hauptzentren für Forschung und Entwicklung wird der Standort Berlin eine zentrale Rolle für die Präsenz von RapidAPI im rasant wachsenden Entwickler*innen-Netzwerk spielen. An dem Standort in der neu renovierten Factory im Berliner Tech-Bezirk werden Teams aus unterschiedlichen Produkt-, Technologie- und Betriebsbereichen beschäftigt sein. Die Zahl der Mitarbeitenden erhöht sich damit bis Ende 2022 deutschlandweit um das Zehnfache. Zur großen Eröffnung des Standorts werden der Firmengründer und CEO Iddo Gino sowie weitere Führungskräfte aus RapidAPI-Standorten der ganzen Welt bei der feierlichen Einweihung am heutigen Abend anwesend sein.

„Wir können uns keinen besseren Ort für unseren europäischen Firmensitz vorstellen. Berlin ist eine pulsierende Metropole mit einer robusten und erfolgreichen Entwickler*innen-Community und einem großartigen Talent Pool. Die zentrale Lage ermöglicht es uns, eine Verbindung zu Kund*innen in ganz Europa herzustellen“, sagte Iddo Gino, Gründer und CEO von RapidAPI. „Unser Ziel ist es, Entwickler*innen die Möglichkeit zu geben, transformative Softwareanwendungen und -integrationen zu erstellen. Das technologische Know-how an unserem Berliner Standort wird dabei eine zentrale Rolle spielen.“

Der Standort Berlin signalisiert die fortwährende Verpflichtung von RapidAPI nicht nur gegenüber dem deutschen Markt, sondern auch gegenüber Europa als eine wichtige Region in seiner globalen Präsenz. Neben Berlin ist RapidAPI auch in San Francisco, Tel Aviv und Tallinn global vertreten. Als Teil seiner Investitionen in die Stadt plant das Unternehmen, eine aktive Rolle in der wachsenden Entwickler*innen-Community in Berlin zu spielen, unter anderem durch die Teilnahme an branchenweiten Veranstaltungen und als Gastgeber eigener Entwickler*innen-Meetups in seinen Räumlichkeiten in den nächsten Monaten.


Dies ist eine Pressemitteilung von RapidAPI


Spektakuläre Schönheiten

Erste Bilder des James-Webb-Teleskops offenbaren ein bisher verborgenes Universum

Mit dem ersten Blick auf die volle Leistungsfähigkeit des James-Webb-Weltraumteleskops der NASA/ESA/CSA hat eine neue Ära in der Astronomie begonnen. Die ersten Farbbilder und spektroskopischen Daten des Teleskops, die eine spektakuläre Sammlung von bislang verborgenen kosmischen Erscheinungen enthüllen, wurden heute veröffentlicht.

Die ersten Beobachtungen des James-Webb-Weltraumteleskops erzählen die Geschichte des verborgenen Universums in den einzelnen Phasen der Geschichte des Kosmos – von benachbarten Exoplaneten bis hin zu den am weitesten entfernten beobachtbaren Galaxien im frühen Universum und allem dazwischen. 

weic2210a.jpeg
Credit: NASA, ESA, CSA und STScI

Der Beginn einer neuen Ära

„Heute bieten wir der Menschheit mit dem James-Webb-Weltraumteleskop einen bahnbrechenden neuen Blick auf den Kosmos – einen noch nie dagewesenen Blick“, sagte NASA-Administrator Bill Nelson. „Diese Aufnahmen, einschließlich der bislang tiefsten infraroten Abbildung unseres Universums, zeigen uns, wie das James-Webb-Teleskop die Antworten auf Fragen finden wird, von denen wir noch nicht einmal wissen, dass wir sie stellen können; Fragen, mit denen wir unser Universum und den Platz der Menschheit darin besser verstehen werden. 

„Der unglaubliche Erfolg des Teams des James-Webb-Teleskops ist Ausdruck dessen, was die NASA am besten kann. Wir verwirklichen Träume zum Wohle der Menschheit. Ich kann es kaum erwarten, die von uns gemachten Entdeckungen zu sehen – das Team hat gerade erst losgelegt!“

„Diese ersten Bilder und Spektren des James-Webb-Teleskops sind eine große Anerkennung für die internationale Zusammenarbeit, die diese ehrgeizige Mission möglich gemacht hat“, sagt Josef Aschbacher, Generaldirektor der ESA. „Ich möchte allen an der Inbetriebnahme dieses großartigen Teleskops und der Auslieferung dieser ersten unglaublichen Produkte des James-Webb-Teleskops beteiligten Personen dafür danken, dass dieser historische Tag zur Wirklichkeit geworden ist.“ 

Die heutigen Bilder und Spektren enthüllen die Fähigkeiten aller vier hochmodernen wissenschaftlichen Instrumente des James-Webb-Teleskops und bestätigen, dass die bevorstehenden Beobachtungen unser Verständnis des Kosmos und unserer eigenen Ursprünge grundlegend verändern werden. 

„Dies ist der Beginn einer neuen Ära in der Beobachtung des Universums und der Erzielung spannender wissenschaftlicher Entdeckungen mit dem James-Webb-Teleskop“, sagt Günther Hasinger, ESA-Direktor für Wissenschaft. „Wenn wir jetzt mit dem regelmäßigen wissenschaftlichen Betrieb beginnen, ist mir klar, dass die europäische astronomische Gemeinschaft es kaum erwarten kann, die Ergebnisse der Beobachtungszeit zu sehen, die sie für das erste Jahr des James-Webb-Teleskops erlangt hat.“ 

„Die Arbeit an dieser Mission war einer der größten Höhepunkte und erfüllendsten Teile meiner Karriere“, sagt Macarena Garcia Marin, MIRI ESA Instrumentenwissenschaftlerin. „Meine Kolleg:innen und ich sind gespannt, was das James-Webb-Teleskop alles leisten kann und welche Überraschungen uns mit seiner beispiellosen Kombination aus Schärfe und Empfindlichkeit noch bevorstehen.“ 


Die mit Spannung erwarteten Beobachtungen deuten auf einen Schatz zukünftiger Entdeckungen hin.“


Erste Beobachtungen

Die ersten Beobachtungen des James-Webb-Teleskops wurden von einer Gruppe von Vertretern der NASA, ESA, CSA und des Space Telescope Science Institute ausgewählt: 

SMACS 0723: Wir müssen diese Galaxien bis zu den Ursprüngen zurückverfolgen, um unsere Anfänge wirklich verstehen zu können. Dieses Deep Field nutzt einen linsenförmigen Galaxiencluster, um einige der am weitesten entfernten Galaxien zu finden, die jemals entdeckt wurden. Dieses Bild ist nur ein Vorgeschmack auf die Fähigkeiten des James-Webb-Teleskops bei der Untersuchung von Deep Fields.

WASP-96b: Durch die Untersuchung anderer Planetensysteme können die Astronom:innen herausfinden, wie typisch oder untypisch unser Sonnensystem ist. Das James-Webb-Teleskop hat Wassermoleküle auf einem Exoplaneten entdeckt und wird nun Hunderte von anderen Systemen untersuchen, um die Zusammensetzung der Atmosphären anderer Planeten zu verstehen.

Southern Ring:  Das James-Webb-Teleskop kann die sich ausbreitenden Staub- und Gashüllen alternder Sterne erforschen, die eines Tages zu einem neuen Stern oder Planeten werden könnten – von der Geburt bis zu ihrem prächtigen Tod als planetarischer Nebel.

Stephans Quintett:  Sterne entstehen aus Gas und Staub, die in großen Mengen um Galaxien herumschwirren, und tragen zu deren Entstehung bei. Der Staub verändert sich mit der Zeit, und das James-Webb-Teleskop kann nahe gelegene und dynamisch interagierende Galaxien untersuchen, um den Staub in Aktion zu sehen. Nun können Wissenschaftler:innen einen seltenen Einblick in noch nie dagewesener Detailtiefe erhalten, wie interagierende Galaxien die Sternentstehung ineinander auslösen und wie das Gas in diesen Galaxien gestört wird.·          

Carina Nebula: Die Wissenschaftler:innen können mit dem James-Webb-Teleskop diese und andere Sternentstehungsgebiete beobachten und das Gas und den Staub untersuchen, aus denen sie entstanden sind. 



Start des wissenschaftlichen Betriebs

Mit der Veröffentlichung der ersten Bilder und Spektren beginnt der wissenschaftliche Betrieb des James-Webb-Teleskops . Astronom:innen auf der ganzen Welt werden die Gelegenheit erhalten, mit den vier Instrumenten des James-Webb-Teleskops alles zu beobachten, von Objekten innerhalb unseres Sonnensystems bis hin zum frühen Universum. 

Das James-Webb-Weltraumteleskop startete am 25. Dezember 2021 mit einer Ariane 5 vom europäischen Weltraumbahnhof in Französisch-Guayana in Südamerika aus ins All. Nach Abschluss der kompliziertesten und schwierigsten Installationssequenz im Weltraum durchlief das James-Webb-Teleskop eine monatelange Inbetriebsetzungsphase, in der seine Spiegel minutiös ausgerichtet und seine Instrumente auf die Weltraumumgebung kalibriert und für wissenschaftliche Zwecke vorbereitet wurden. 

Observatorium für Weltraumforschung

Das James-Webb-Weltraumteleskop ist das weltweit bedeutendste Observatorium für Weltraumforschung. Es wird Rätsel in unserem Sonnensystem lösen, einen Blick in ferne Welten um andere Sterne werfen und die geheimnisvollen Strukturen und Ursprünge unseres Universums und unseren Platz darin erforschen. Webb ist ein internationales Programm, das von der NASA zusammen mit ihren Partnern, der ESA (Europäische Weltraumorganisation) und der kanadischen Weltraumorganisation, geführt wird.

Die wichtigsten Beiträge der ESA zur Mission sind: das NIRSpec-Instrument, die Montage der optischen Bank des MIRI-Instruments, die Bereitstellung der Startdienste und das Personal zur Unterstützung des Missionsbetriebs. Im Gegenzug zu diesen Beiträgen erhalten die europäischen Wissenschaftler:innen einen Anteil von mindestens 15 % der gesamten Beobachtungszeit, ähnlich wie beim Hubble-Weltraumteleskop der NASA/ESA.

Zusätzliche Informationen

https://www.esa.int/Webb
Weitere Informationen über ESA:www.esa.int
Weitere Informationen auf der NASA-Website:https://jwst.nasa.gov/

Bilder

Erste Bilder von Webb
Bilder von Webb
Startkampagne von Webb auf Flickr
Bilder von Ariane 5
Bilder für Druck oder Projektion: https://www.esa.int/About_Us/Exhibitions/Webb ESA-Fotobibliothek für Fachkräfte: https://www.esa-photolibrary.com/
Nutzungsbedingungen für ESA-Bilder: www.esa.int/spaceinimages/ESA_Multimedia/Copyright_Notice_Images
Bei Fragen und für weitere Informationen über ESA-Bilder wenden Sie sich bitte direkt an spaceinimages@esa.int.

Videos

Webb-Videos
Webb-Animationen, Aufnahmen für Profis
Startkampagne von Webb, B-Rollen
ESA-Videobibliothek für Fachkräfte: https://www.esa.int/esatv/Videos_for_Professionals
Nutzungsbedingungen für ESA-Videos: https://www.esa.int/spaceinvideos/Terms_and_Conditions

Für Fragen oder weitere Informationen zu den ESA-Videos wenden Sie sich bitte direkt an spaceinvideos@esa.int

Lizenzen:
Bilder: Credit NASA, ESA, CSA, and STScI
Text: Pressemitteilung ESA

Verschränkung von physischer und digitaler Welt

von Matthias Schmidt

Überlegungen zur neuen Qualität der digitalisierten Gesellschaft

Die Digitalisierung ist ein Phänomen, das unsere Gesellschaft durchdringt und herausfordert. Ihr scheint eine Kraft innezuwohnen, die in vielen Bereichen einen Wandel bewirken kann. Vor diesem Hintergrund ist auch die Rede von einer digitalen Transformation, von einem grundlegenden Umbruch, der unser Miteinander durcheinanderwirbelt, neu strukturiert und sich durch eine neue Qualität der Verwobenheit von Mensch, Organisation und Technologie in nahezu allen Lebensbereichen auszuzeichnen scheint. Digitalisierung, verstanden als digitale Transformation, ist damit weit mehr als eine neue technologische Errungenschaft, die technische Prozesse oder betriebswirtschaftliche Verfahrensabläufe effizienter und transparenter macht. Digitalisierung ist vielmehr die Art und Weise, mit der das Digitale unsere Gesellschaft und unser Verhalten durchdringt und – mehr oder weniger bewusst – verändert.

Zum Inhalt
Narrative und Diskurse über die Transformation
Was Digitalisierung sein kann
Eine Berechnungsweise
Eine neue Logik
Eine Weise der Strukturierung
Verschränkung und Verwobenheit
Recht auf Entzug und Teilhabe
Ausblick: Ethische Herausforderung und Befähigung

Narrative und Diskurse über die Transformation

In der Soziologie sowie im Diskurs um eine nachhaltige Entwicklung unserer Umwelt und Gesellschaft ist die Idee einer „Großen Transformation“ lange bekannt. Unter Transformation kann man allgemein einen Umbruch verstehen, der bestehende Gesellschaftsverhältnisse von Grund auf verändert und neu definiert. Als Beispiel sei der Übergang von der Agrarwirtschaft zur Marktwirtschaft mit all seinen Veränderungen unseres Wirtschaftens und Zusammenlebens genannt. In „The Great Transformation“ analysierte der Wirtschaftssoziologe Karl Polanyi bereits 1944 diese Veränderungsdynamiken und prägte den Begriff „Große Transformation“, der bis heute immer wieder aufgegriffen und inhaltlich gefüllt wird.[1] In einer aktuellen Version könnte man unter der großen Transformation auch ein „identitätsstiftendes transdisziplinäres Narrativ […]“ verstehen, eine sinnstiftende Erzählung also, die in einer Gesellschaft kursiert und fortgesponnen wird und die „[…] ökologische, technologische, ökonomische, sozial- und kulturwissenschaftliche Erkenntnisse zu einem Hoffnung gebenden Gestaltungsprogramm“[2] verdichtet.

Mit dem Digitalen, das in Echtzeit globale Dimensionen erreichen kann, ist eine massiv verändernde Kraft in Erscheinung getreten. Die Rede von Digitaler Gesellschaft, Digitaler Revolution oder auch mittelbar von Industrie 3.0 bzw. 4.0, um nur ein paar Schlagworte zu nennen, verweist auf die Dramatik, die mit der Digitalen Transformation einhergeht. „Gerade die Geschichte der Digitalisierung ist […] durch die Entfesselung von Kräften gekennzeichnet, die unvorhergesehene Wirkungen entfalten und die Notwendigkeit nach sich ziehen, sie wieder einzuhegen, ohne dass sie sich grundsätzlich steuern ließen.“[3]  Wenngleich massive Veränderungen der Verhältnisse verständlicherweise mit Ängsten und Sorgen verbunden sind, muss eine Transformation nicht notwendigerweise zum Schlechten führen. Vielmehr braucht es Hinsichten und Diskurse über das, was sich da in der Welt verändert, sowie darüber, wie diese Veränderungen zu bewerten sind und wie man sie im Rahmen der Möglichkeiten mitgestalten kann.

Was Digitalisierung sein kann

Man kann wohl annehmen, dass die Digitalisierung und die ihr zugrundeliegenden technologischen Entwicklungen ursprünglich auch von dem Anspruch getriggert waren, den Menschen die Arbeit zu erleichtern und Effizienzgewinne zu erzielen. Doch dabei allein ist es nicht geblieben. Das soll der folgende kurze Abriss verschiedener begrifflicher Bedeutungen von Digitalisierung zeigen.

Eine Berechnungsweise

Ein sehr direktes Verständnis von Digitalisierung setzt am grundsätzlichen Wesen der Informatik an. Die moderne Informatik entstand aus der Zusammenführung von ingenieurswissenschaftlichen und mathematischen Bestrebungen. Schon der Philosoph und Mathematiker Gottfried Wilhelm Leibniz (1646 – 1716), den man als Urvater der informatischen Idee bezeichnen kann, betonte die Verbindung von pragmatischen mit theoretisch-mathematischen Momenten, die zur Meisterung von Welt und Leben notwendig seien. Das Ziel der modernen Informatik, deren Begriff 1957 durch den Informationstheoretiker Karl Steinbruch erstmals systematisch verwendet wurde, sollte die Entlastung des Menschen in allen Arbeitsprozessen sein.[4]

Die Idee hinter der Informatik beruht auf der Formalisierung von Rechen- und Steuerungsabläufen. Damit sollten aufwändige Arbeitsvorgänge automatisiert, rationalisiert und beschleunigt werden. Um solche Prozesse in einem informatischen Sinne berechenbar zu machen, müssen sie in die Zahlenwerte Eins und Null transferiert und als Zahlenfolge codiert werden. Sie müssen digitalisiert werden. Das Wort Digitalisieren geht dabei auf das lateinische Wort „digitus“ zurück, das in anatomischer Hinsicht den einzelnen Finger bezeichnet. Als „Digit“ findet man diesen Wortstamm auch im Englischen, womit ebenfalls „Finger“, aber auch „Ziffer“ gemeint ist.

Im Zuge der Digitalisierung werden Prozesse so formalisiert und in eine Form gebracht, dass sie als Ziffer (1 oder 0) bzw. als Ziffernfolge darstellbar und maschinell lesbar werden. Da in diesem Verständnis von Digitalisierung ehedem analoge Abläufe und Sachverhalte zu digitalen Daten gemacht werden, kann man auch von einer Datafizierung sprechen. Datafizierung heißt, etwas in Form eines Zahlenwertes, eines Datums, zu erfassen.[5]

In der englischen Sprache gibt es einen eigenen Begriff für die Überführung von analogen in digitale Informationen, der mit Digitization bezeichnet wird. „Digitization essentially refers to taking analog information and encoding it into zeroes and ones so that computers can store, process, and transmit such information.“[6] In der deutschen Sprache fehlt dieser eigene Begriff, weshalb die Bedeutung des Begriffs Digitalisierung im Sinne dieser elementaren Datafizierung jeweils aus dem Kontext erschlossen werden muss.

Eine neue Logik

Ein weit verbreitetes Verständnis von Digitalisierung bezieht sich auf die Gestaltung von (Geschäfts-) Prozessen bis hin zu digitalen Geschäftsmodellen durch den Einsatz digitaler Technologien. Wenn beispielsweise bestehende Produktionslinien zunehmend durch den Einsatz von digitalen Geräten gesteuert werden, dann werden diese Geschäftsprozesse digitalisiert. Man denke etwa an die digitale Steuerung und Automatisierung von Fertigungslinien bei der Automobilproduktion. Wenn darüber hinaus das ganze Geschäft mit seiner grundlegenden Wertschöpfung der digitalen Welt zuzuordnen ist und gewissermaßen auch einer neuen Logik des Digitalen folgt, dann hat man es mit digitalen Geschäftsmodellen, mit Digital Business, zu tun.[7] Als Beispiele seinen Internetplattformen wie facebook oder Airbnb genannt. Im Fall der Automobilfertigung wird der Produktionsvorgang digital gestaltet, im Fall der Plattformen ist das Produkt selbst digital, und es wird natürlich auch digital erstellt.

Die Übergänge zwischen digitalen Produktionsprozessen und digitalen Geschäftsmodellen können bei dieser Betrachtungsweise fließend sein. Das kann man gut am Beispiel von Elektroautomobilen erkennen. In der Diskussion um den Wettbewerb des US-Herstellers Tesla mit deutschen Herstellern wie etwa Audi, BMW, Daimler oder VW tritt der Unterschied deutlich zutage. Während man Audi und Co als klassische Fahrzeuge beschreiben könnte, die in ihrer Herstellung und Nutzung datafiziert und elektrifiziert werden, könnten die Autos von Tesla als rollende Datensammelplattformen gesehen werden.[8] Das eine wären dann computergesteuerte Fahrzeuge, das andere wäre fahrende Software. Selbst wenn man vermuten möchte, dass die Produkte von Tesla und von den deutschen Autobauern sich mit der Zeit einander annähern, wird doch deutlich, dass sie von unterschiedlichen Seiten und mit unterschiedlichen Denkansätzen ihre Produkte entwickeln und damit unterschiedliche digitale Qualitäten mitbringen. Darüber hinaus dürften die smarten Fahrzeuge insgesamt in nicht unerheblichem Maße auch den Straßenverkehr beeinflussen, etwa durch die Möglichkeiten intelligente Mobilitätskonzepte zu erarbeiten, indem die von den Fahrzeugen gesammelten Daten ausgewertet werden. Fahrtstrecken könnten optimiert und Fahrzeuge durch gemeinschaftliche Nutzung besser ausgelastet werden, wodurch sich in der Folge auch das Verhalten der Verkehrsteilnehmer bis hin zur Eigentumsstruktur der Fahrzeughaltung verändern dürfte. Dabei ist der Verkehrssektor nur einer von vielen Bereichen unseres Lebens, der man hier exemplarisch heranziehen könnte.

Eine Weise der Strukturierung

In ihrem Potenzial als Big Data durchdringt die Datafizierung der Welt mehr oder weniger alle unsere Lebensbereiche. Damit geht die Digitalisierung über rein technologische oder betriebswirtschaftliche Lösungen hinaus und wird so zu einer zentralen gesellschaftlichen Herausforderung und Gestaltungsaufgabe. Zwar ist die Digitalisierung von der Grundidee her zunächst eine binäre Codierung von Phänomenen in der echten Welt. Die datafizierten Phänomene sollen als Daten miteinander verknüpft und – bis hin zur Vorhersage der Zukunft – berechenbar gemacht werden.[9] Doch in der Folge entsteht aus Big Data, aus der Quantifizierung der Welt, aber auch eine neue Qualität. Die Ursache dafür liegt in der Rückkopplung von Big Data mit sich selbst und der Welt: Die geschaffenen Daten, die digital codierten Erkenntnisse und Muster aus der echten Welt, können zugleich auch wieder Voraussetzung für neue Berechnungen in der virtuellen Welt werden. Daraus können Strukturen entstehen, die in der analogen Welt wirksam werden und diese qualitativ verändern. Exemplarisch für solche wirklichkeitsgestaltenden Rückkopplungen und Strukturwirkungen ist etwa die Einflussnahme von Algorithmen auf das Kaufverhalten von Menschen oder auch das Geoscoring, bei dem Algorithmen die Kreditwürdigkeit von Menschen errechnen. Die folgenden beiden Beispiele sollen diese Wechselwirkungen veranschaulichen.

Der Aufbau und die Strukturierung von Filterblasen können das Kaufverhalten und die Kaufentscheidungen von Nutzerinnen und Nutzern beeinflussen und verändern. Das ist beispielsweise dann der Fall, wenn die Algorithmen zum Kauf mit einem Klick immer mehr von denjenigen Waren anbieten, von denen sie berechnet haben, dass sie den Präferenzen der Nutzer*innen entsprechen, oder wenn sie Artikel vorschlagen und vorrangig anbieten, von denen die Berechnungen ergeben, dass sie konform mit dem bisherigen Kaufverhalten sind und entsprechende Kaufentscheidungen erwarten lassen. So werden Kaufangebote und Anreize in der virtuellen Welt vorstrukturiert und führen bei einem entsprechendem Kaufverhalten damit auch zu einer Strukturierung eines Teils der realen Welt dieser Menschen, die sich in den ausgewählten Produkten und den in Anspruch genommenen Dienstleistungen manifestiert. Das, was die Verbraucherinnen und Verbraucher zunächst als Service wahrnehmen, wird quasi zu einer Scheinauswahl aus dem Immergleichen und gestaltet so deren Wirklichkeit.

Beim Geoscoring wiederum berechnen Algorithmen von beispielsweise Banken oder Versicherungen aus gesammelten Daten die mutmaßliche Bonität von Menschen in einem bestimmten Wohngebiet. Unter der Annahme, dass sich Menschen bei der Wahl ihres Wohnortes eher sozial Gleichgestellte suchen, ziehen Algorithmen Rückschlüsse auf das individuelle Finanzverhalten der dort lebenden Menschen.[10] So können beispielsweise Menschen aus einer bestimmten Wohngegend pauschal eine schlechtere Bonität zugeschrieben bekommen als Bewohner*innen anderer Gegenden. Folglich können sich Menschen in einer bestimmten Wohngegend faktisch weniger leisten als andere. Mit der Zeit können so aus Datensätzen komplette Wohnviertel sowie die substanziellen (Kauf- und mithin Lebens-) Möglichkeiten der Menschen in diesem Viertel strukturiert werden.


Über den Autor:

Prof. Dr. Matthias Schmidt
forscht und lehrt an der Berliner Hochschule für Technik (BHT) in den Fachgruppen Unternehmensführung und -ethik sowie im Studium generale.

E-Mail: mschmidt@bht-berlin.de
Web: https://prof.bht-berlin.de/schmidt/


Verschränkung und Verwobenheit

Die digitale Welt ist keine bloß in sich und für sich abgeschlossene Sphäre, sondern sie hat auch konkrete und spürbare Auswirkungen auf die physische Welt, in der wir als körperliche Wesen leben. Und im Gegenzug wirken wir durch unser Nutzungsverhalten beim Gebrauch und der Nachfrage nach digitalen Lösungen bei der (Weiter-)Entwicklung der digitalen Welt mit. Ungeachtet der beiden eher negativ konnotierten Beispiele oben, ist diese Wechselwirkung grundsätzlich wertfrei zu verstehen, da auch viele positiv konnotierte Anwendungsbereiche gegeben sind, man denke etwa an Entwicklungen in Medizin oder Pflege. Es ist dabei natürlich auch eine Frage der kritischen Bewertung der Zusammenhänge, ob man einen Sachverhalt jeweils als eher positiv oder negativ einordnet.

Die physische Welt und die digitale Welt sind in dem beschriebenen Sinne eng und dynamisch miteinander verschränkt und verwoben. In dieser Verschränkung[11] dürfte ein wesentliches Charaktermerkmal der digitalisierten Gesellschaft liegen. Damit wäre die Digitalisierung nicht nur über die primäre Motivation einer technologisch basierten Arbeitserleichterung hinausgegangen und hätte eine Entkopplung vom und Verselbständigung gegenüber dem Menschen erreicht. Sie hätte auch die Entkopplung von Digitalem und Physischem aufgehoben und hätte eine Verschränkung von Gesellschaft und Digitalisierung bewirkt, in der man weder die eine noch die andere Ebene isoliert betrachtet kann. Auf diese Weise wäre der Mensch wieder mit der Digitalisierung gekoppelt, wenngleich in anderer Qualität. Die so genannte Digitale Transformation wäre insofern ein Prozess, der das Digitale in unsere Gesellschaft hinein- und mit dem Menschen verwebt, wodurch – um im Bild zu bleiben – gleichsam ein neuer Stoff, ein neues Muster, also eine neue und andere Gesellschaft entsteht. Die Verwobenheit von Mensch und Digitalisierung, die Verschränkung von physischer und digitaler Welt dürfte nachgerade ein qualitatives Wesensmerkmal der digitalisierten Gesellschaft sein.

Recht auf Entzug und Teilhabe?

Den Vorstrukturierungen der physischen Welt, die aus der digitalen Welt kommen, können wir uns kaum noch entziehen. Mit diesem Aspekt sind in der Folge auch Fragen der Gerechtigkeit und der Verantwortung verbunden. Einerseits ist mit Blick auf die Verwobenheit von Mensch und Digitalisierung in ethischer Hinsicht durchaus auch die Frage interessant, ob es denn überhaupt noch die Möglichkeit eines Digital Detox oder gar ein Recht auf eine analoge Welt geben soll. Sollte man sich der digitalisierten Gesellschaft ganz oder teil-/zeitweise entziehen können dürfen? Immerhin gibt es Stimmen, die sogar davon ausgehen, dass ein solcher Entzug weder sinnvoll noch dauerhaft möglich sei, weil die neuen Strukturen nach der digitalen Entgiftung sowieso wieder dominieren würden. [12] Ein Entzug von der Digitalität wäre dann womöglich sogar kontraproduktiv und nachteilig für den Einzelnen, der dadurch abgehängt werden könnte. Wenn es aber letztlich nur noch ein Always-on ohne systematische und rechtlich belastbare Exit-Option mit entsprechenden analogen Alternativen gäbe, dann würde jeder Mensch für sich auf die existenzielle Frage zurückgeworfen sein, ob er ohne Wenn und Aber in der Digitalität verbleibt oder nicht. Eine Verweigerung der Digitalisierung wäre dann eine Selbstausgrenzung aus dem gemeinschaftlichen Leben in der digitalisierten Gesellschaft und ein Verlust der Teilhabe.

Andererseits hängt die Teilhabe an der digitalen Welt vom Zugang zum Internet ab. Somit haben der Zugang und die dadurch ermöglichte Teilhabe eine sehr grundlegende Bedeutung für die Behebung von Ungleichheiten und zur Herstellung von Gerechtigkeit in der digitalisierten Gesellschaft. Das gilt umso mehr, wenn man die digitalisierte Gesellschaft nicht nur national, sondern sogar global denkt. Zunächst einmal hat man als Bürger*in eines Staates eine bestimmte Nationalität und ein Heimatland. Doch mit den digitalen Möglichkeiten könnten nationale Grenzen transzendiert werden. „Das Internet ist ein Werkzeug, das eine Art von Weltbürgerschaft ermöglicht.“[13] Diese Einschätzung verweist auf die besondere Qualität des transnationalen Miteinanders, das man in der Digitalität und dem digitalen Raum sehen kann. Wie brisant und von welch grundlegend ethischer Relevanz damit der Zugang zu und die Freizügigkeit in diesem digitalen Raum ist, belegt die Bedeutung einer selbstbestimmten Teilhabe an der digitalisierten Gesellschaft. In dieselbe Richtung weisen auch die Forderung nach dem „Internetzugang als Menschenrecht“[14] sowie die Diskussionen um Zensur und Meinungsfreiheit im Internet.

Ausblick: Ethische Herausforderung und Befähigung

Mit dem Zugang zu sowie mit der Nicht-/Teilhabe an der digitalen Welt sind zahlreiche gesellschaftliche Herausforderungen verbunden. Nicht zuletzt gewinnt auch der Schutz der digitalisierten Gesellschaft – die Cybersecurity – zunehmend an Bedeutung; doch dies ist keine rein technologische Angelegenheit.[15] Aus ethischer Perspektive wird es daher nötig sein, einen breiten Diskurs zu führen, in dem die zahlreichen virulenten ethischen Fragen, die die digitalisierte Gesellschaft aufwirft, verhandelt werden können. Um diesen Diskurs vernünftig führen zu können, braucht es ein Bewusstsein für ethische Problemlagen im Kontext der Digitalen Transformation. Mithin braucht es die Befähigung, Sachverhalte ethisch begründet einschätzen, vertreten und Perspektiven – oder auch wie eingangs erwähnt: Narrative – entwickeln zu können. Ebenso bedeutsam wie der Diskurs über die Entwicklung und Gestaltung der digitalisierten Gesellschaft dürfte dabei auch ein einsprechendes reflektiertes Verhalten und bewusstes Handeln im Umgang mit den neuen digitalen Möglichkeiten sein. Zu stark ist die qualitative Verwobenheit von Mensch und Digitalität, die aus der digitalisierten Gesellschaft erwächst.

Literatur

Bloomberg, Jason (2018): Digitization, Digitalization, And Digital Transformation: Confuse Them At Your Peril; in: Forbes vom 29.4.2018, https://www.forbes.com/sites/jasonbloomberg/2018/04/29/digitization-digitalization-and-digital-transformation-confuse-them-at-your-peril/?sh=2b36e1932f2c, letzter Abruf am 19.2.2022.

Der Spiegel (2021): Bytes statt Blech, Ausgabe Nr. 2/9.1.2021, S.62-63.

Gartner Glossary (2021): Digitalization, https://www.gartner.com/en/information-technology/glossary/digitalization, Abruf am 5.2.2021.

Grammatis, Kosta (2018): Internetzugang als Menschenrecht. Ein Schritt in Richtung einer gerechteren Gesellschaft? in: Otto, Philipp/ Gräf, Eike (Hrsg.): 3ETH1CS. Die Ethik der digitalen Zeit, Sonderausgabe der Bundeszentrale für politische Bildung Bonn, Verlag iRights.Media Berlin, 210-215.

Liferay (2021): Was ist Digital Business?, https://www.liferay.com/de/resources/l/digital-business,   letzter Abruf am 5.2.2021.

Maurer, Peter (2018): Geoscoring: Wie mein Wohnort meine Bonität beeinflussen kann, in: Bankenblatt.de vom 16. Mai 2018, https://www.bankenblatt.de/geoscoring-wie-mein-wohnort-meine-bonitaet-beeinflussen-kann /, letzter Abruf 19.02.2022.

Polanyi, Karl (2021): The Great Transformation: Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen, 15. Auflage, Suhrkamp Taschenbuch Verlag Berlin.

Rödder, Andreas (2015): 21.0. Eine kurze Geschichte der Gegenwart. C.H. Beck Verlag München.

Schmidt, Matthias (2021): Ethik in der IT-Sicherheit. Eine Einführung, UVG Verlag Berlin.  https://itethik.pressbooks.com/

Schneidewind, Uwe (2019): Die Große Transformation. Eine Einführung in die Kunst des gesellschaftlichen Wandels. In der Reihe Entwürfe für eine Welt mit Zukunft, hrsg. v. Harald Welzer und Klaus Wiegandt, Fischer Verlag Frankfurt am Main.

Wiegerling, Klaus (2020): Entgeschichtlichung und Digitalisierung, in: Koziol, Klaus (Hrsg.): Entwirklichung der Wirklichkeit. In der Reihe Mensch und Digitalisierung, hrsg. v. der Medienstiftung der Diözese Rottenburg-Stuttgart, Band 3, kopaed Verlag München, 85-119.

Wiegerling, Klaus (2020a): Automatische, informatische Datenerhebung, -verwaltung und Kommunikation, Kultur der Wissensgesellschaft. Lehrbrief, in Arbeit. Stand vom 09.08.2020.

Fußnoten

[1] Vgl. Polanyi (2021).

[2] Schneidewind (2019: 10).

[3] Röder (2015: 18ff.).

[4] Vgl. Wiegerling (2020a: 2) sowie in diesem Band.

[5] Ebd.

[6] Bloomberg (2018).

[7] Vgl. Gartner (2021) und Liferay (2021).

[8] Vgl. Spiegel (2021: 62).

[9] Vgl. Wiegerling (2020: 95).

[10] Vgl. Maurer (2018).

[11] Verschränkung ist hier assoziativ angelehnt an einen Begriff aus der Quantenphysik, bei dem sinngemäß zwei unabhängige Teile eines Ganzen instantan miteinander verbunden sind und nicht hinreichend unabhängig voneinander beschrieben werden können.

[12] Vgl. Kutsche 2020.

[13] Grammatis (2018: 210).

[14] Ebd.

[15] Vgl. Schmidt (2021)

Kompendium Digitale Transformation von Matthias Schmidt wird unter Creative Commons Namensnennung-Weitergabe unter gleichen Bedinungen 4.0 International lizenziert, sofern nichts anderes angegeben ist.

Neue Technologieexperten für die Experience Economy gefragt

Cisco AppDynamics, ein führender Anbieter von Technologien für Observability und Application Monitoring, hat die Ergebnisse der Studie „Agents of Transformation 2022“ veröffentlicht. Der jährliche Report untersucht bereits zum vierten Mal, welche Fähigkeiten und Eigenschaften IT-Spitzenkräfte weltweit ausmachen.

Die Studie zeigt, dass im Zuge der Pandemie eine neue Klasse an Technologieexperten hervorgetreten ist. Diese widmen sich den kritischen Herausforderungen, die die Grenzen zwischen Geschäftsstrategie und IT-Betrieb verwischen. Darüber hinaus verweist der Report auch auf den Bedarf, alle Produkte und Dienstleistungen in der „Experience Economy“ digital verfügbar zu machen – trotz erhöhter Sicherheitsbedrohungen, zunehmender Komplexität und der beschleunigten Verlagerung auf hybrides Arbeiten und die Cloud.

„Die Messlatte liegt immer höher und im letzten Jahr hat sich verändert, was es heißt, ein Agent of Transformation zu sein. Diese Führungskräfte wollen genauer verstehen, wie sich Probleme in ihren jeweiligen Bereichen auf die Gesamterfahrung von Nutzern und Anwendungen auswirken, und sich mithilfe von Lösungen an den Wandel anpassen, die sich positiv auf das gesamte Geschäft auswirken“, erklärt Liz Centoni, EVP, Chief Strategy Officer, GM of Applications.

Laut dem Report von Cisco AppDynamics glauben 74 Prozent der Befragten, dass ihre Erfahrungen der letzten Jahre – insbesondere während der Pandemie – ihre Karriere vorangetrieben haben und 88 Prozent sehen sich inzwischen als Führungskräfte ihres Unternehmens. Jedoch haben lediglich zehn Prozent der Technologieexperten den höchsten Status als „Agent of Transformation“ erreicht. Diese Kategorie steht für hochkarätige Führungskräfte, die erstklassige Anwendungen und Dienste neu konzipieren und bereitstellen, um die von Endnutzern und Kunden geforderten jederzeit verfügbaren, sicheren und außergewöhnlichen Benutzererlebnisse zu schaffen.

Die Befragten führen einen grundlegenden Wandel in der Rolle des Technologen an. Dies betrifft auch die Fähigkeiten und Ressourcen, die notwendig sind, um effektiv und erfolgreich zu arbeiten. Gleichzeitig müssen sie sich mit der zunehmenden Komplexität und wachsenden Datenmengen im gesamten Technologie-Stack auseinandersetzen sowie eine stark steigende Anzahl an Cloud-nativen Diensten in die bestehende­­n On-Premises-Technologien integrieren.

  • 88 Prozent glauben, dass sich die Rolle des Technologen verändert hat.
  • 84 Prozent sind überzeugt, dass sich die Fähigkeiten und Qualitäten, die einen Agent of Transformation ausmachen, weiterentwickelt haben.
  • 66 Prozent sagen, dass es heute schwieriger ist, ein Agent of Transformation zu sein.
  • Jeder vierte Technologe stellt fest, dass sein Unternehmen im reaktiven Modus des Feuerlöschens verharrt.

Die digitale Transformation sorgt dafür, dass fast jedes Unternehmen und jede Organisation über Web- und Mobilanwendungen mit Kunden interagiert, während der Übergang zum hybriden Arbeiten zu mehr Interaktion mit SaaS-Tools und Webschnittstellen führt. Da Verbraucher schnell zu Apps oder Services anderer Marken wechseln können, riskieren Unternehmen, die ihre digitalen Erfahrungen nicht sofort verbessern können, treue Kunden zu verlieren.

„Die neuen Agents of Transformation erkennen die Notwendigkeit, Anwendungen nicht nur als Antwort auf die Herausforderungen nach der Pandemie neu zu konzipieren, sondern auch, um makellose, zuverlässige digitale Erfahrungen zu kreieren, die einige der größten Probleme der Welt lösen – von der Befriedigung wichtiger menschlicher Bedürfnisse bis hin zur Vermittlung von Fähigkeiten und Ressourcen, um in der digitalen Wirtschaft erfolgreich zu sein“, ergänzt Centoni.

Die Befragten des Reports von Cisco AppDynamics sind sich der weitreichenden Folgen dieses Wandels bewusst und wissen, dass sie Hilfe benötigen, um durch die technischen und betrieblichen Unabwägbarkeiten der digitalen Transformation zu navigieren. Insbesondere wünschen sie sich einheitliche Einblicke in ihre IT-Umgebungen, damit sie die Verfügbarkeit und die Performance von Anwendungen besser verwalten und optimieren können. Dies macht es notwendig, Investitionen auf die Anwendungssicherheit, die Observability von Cloud-nativen Anwendungen und Infrastrukturen sowie die Verknüpfung von IT-Performance mit geschäftlichen Entscheidungen zu konzentrieren.

  • 77 Prozent meinen, dass es in den nächsten zwölf Monaten wichtig sein wird, in die Anwendungssicherheit zu investieren, um die Anforderungen von Kunden und Mitarbeitern zu erfüllen.
  • 71 Prozent glauben, dass ihr Unternehmen in die Observability von Cloud-nativen Anwendungen und Infrastrukturen investieren muss.
  • 84 Prozent geben an, dass die Gewährleistung der Performance von Geschäftsanwendungen heute wichtiger ist als je zuvor.
  • 85 Prozent halten Full-Stack Observability für entscheidend, um in ihren Organisationen eine nachhaltige Transformation und Innovationen zu erreichen.

Weitere Informationen unter:


Dies ist eine Pressemitteilung von Cisco AppDynamics


Bildquelle / Lizenz Aufmacher

Photo by Hunters Race on Unsplash

Alles im grünen Bereich

Wer innovative Produkte herstellt und handelt, muss auch innovativ (zusammen)arbeiten. Wie das unter anderem mithilfe von Dropbox und der E-Signaturlösung HelloSign geht, beweist DEMECAN – der 2017 als Start-up gestartete und heute einzige unabhängige deutsche Hersteller von medizinischem Cannabis.

Cannabis ist schon lange als Heil- und Nutzpflanze bekannt, doch erst seit 2017 ist es in Deutschland als Medizin per Gesetz zugelassen. Zum Einsatz kommt das pflanzliche, verschreibungspflichtige Arzneimittel unter anderem in der Schmerzmedizin, wenn andere Behandlungsoptionen ausgeschöpft sind oder nicht angewendet werden können. Das 2017 in Berlin gegründete Start-up DEMECAN erhielt 2019 den Zuschlag der Bundesregierung, als eines von drei Unternehmen in Deutschland – allerdings bislang ausschließlich für den medizinischen Gebrauch – Cannabis anbauen zu dürfen.

2.500 Cannabispflanzen wachsen heute in den eigenen Blüteräumen auf dem EU-GMP-zertifizierten, rund 30.000 Quadratmeter großen Produktionsgelände von DEMECAN nahe Dresden. Transparente, verbindliche Abläufe und optimal angepasste Licht- und Temperaturbedingungen sorgen vom Ableger im Labor bis hin zur Ernte für eine völlig pestizidfreie, konstant hohe Produktqualität der Cannabispflanzen. Damit trägt DEMECAN entscheidend zur Versorgungssicherheit und Unabhängigkeit von Importen bei. Für ein so geschichtsträchtiges Vorhaben braucht es eine gehörige Portion Gründermut, Leidenschaft, Ausdauer und die Courage, althergebrachte Arbeitsweisen neu zu denken.

„Unsere Mitarbeitenden und unsere Arbeitsweisen machen den Unterschied“

Das Team von DEMECAN arbeitet mit Start-up-typisch flachen Hierarchien. Die Belegschaft selbst beschreibt die Stimmung als unaufgeregt unkompliziert, sehr kollegial und über alle Generationen hinweg hilfsbereit. Es herrscht eine Kultur, die durch und durch von Ver- und Zutrauen geprägt ist. Und genau so gestaltet DEMECANs IT-Chef Gordon Lösser auch die digitale Zusammenarbeit, er ist überzeugt: „Wer wirklich offen ist, für Digitalisierung von Arbeitsprozessen, sollte technologisch unvoreingenommen und lernbereit sein“. Der Fachmann baut darauf, besser Tools und Workflows auszuprobieren, Erfahrungen damit zu sammeln und auszuwerten, als durch Klagen und Zaudern innovative Arbeitsweisen und -ergebnisse im Vorfeld zu blockieren.

Die Nutzung von Dropbox für alle circa 90 IT-Arbeitsplätze hatte die Geschäftsführung von DEMECAN 2019 bewilligt, da die meisten Mitarbeitenden mit der Cloud-Lösung schon aus ihrem Privatleben vertraut waren und es keinerlei technische Hemmschwelle zu überwinden galt. Genutzt wird Dropbox Business Advanced in Verbindung mit der E-Signaturlösung HelloSign auf allen Arbeitsplätzen.

Wachsende digitale Workflows lösen Papier und Stift ab

DEMECAN arbeitet nach höchsten Ansprüchen, die bewährten Qualitätsstandards Deutschlands und der Europäischen Union zu Anbau (GACP – Good Agricultural and Collection Practice) und Herstellung (GMP – Good Manufacturing Practice) sind tief in der Unternehmens-DNA verankert. Alle Arbeitsanweisungen und Dokumentationen, Testergebnisse und Sendungen an die Apotheken unterliegen genauen Vorgaben und ständigen Kontrollen. Schließlich sollten Patientinnen und Patienten, die auf medizinisches Cannabis angewiesen sind, auf beste Qualität vertrauen können.

IT-Chef Gordon Lösser sieht enorme Potenziale in der digitalen Zusammenarbeit.

Dabei umfassen allerdings allein die Anforderungen der GMP, denen alle pharmazeutischen Hersteller unterliegen, eine weitreichende schriftliche Dokumentation aller Prozesse und durchgeführter Produktionsaufträge.

Korrespondenz, Aufträge, Lieferprozesse und Verträge waren im (deutschen) Wirtschaftsleben lang geprägt von Ausdrucken auf Papier, dem Unterschreiben, zeitaufwendigem Einscannen und Versenden per Post oder E-Mail. Doch ein junges, innovatives Start-up wie DEMECAN dachte von Stunde null papiergebundene Prozesse neu, und zwar holistisch digital.

Bereits vor der Krise suchte man für Papierdokumente – insbesondere solche, die von mehreren Personen unterzeichnet werden müssen – nach einer digitalen Ersatzlösung, die das Procedere verschlankt. Genau hier setzt die in Dropbox integrierte E-Signatur HelloSign an, denn es geht DEMECAN nicht nur um den Unterschriftenprozess an sich, sondern auch um alle damit verbundenen Workflows. Die Cloud-Signaturlösung mit der API-Schnittstelle überzeugt durch Einfachheit der Bedienung, unmittelbare Verfügbarkeit und Transparenz in allen Schritten. Ergebnis sind schnelle, schlanke, papierlose Arbeitsabläufe und eine direkte Einsortierung am richtigen Ort innerhalb der Dropbox, wo alle in den Prozess involvierten Personen die unterzeichneten Dokumente leicht auf- und wiederfinden. Alle Mitarbeitenden haben von jedem beliebigen Ort aus Zugriff auf alle Daten, eine Flexibilität, die Mehrwert schafft.

Eine Cloud-Plattform ist wie fruchtbarer Boden, auf dem die Zusammenarbeit gut gedeiht

Dabei wird Dropbox für weit mehr als nur zur Ablage und das Teilen von Dateien genutzt. Die Kollaborationsplattform unterstützt das Unternehmen bei wichtigen Workflows wie dem Verwalten von Gruppen oder der Administration von Zugriffen auf Freigabeebene. Dass Dropbox kostspielige Server-Workloads einspart und der mobile Zugriff über die App einfach genial hilfreich ist, freut den IT-Direktor sehr. Die Belegschaft schätzt an Dropbox, dass einfach „nichts verloren geht“ und alle Inhalte stets offline und online abrufbar sind. Dabei bleibt die Verwendung immer nutzerfreundlich und die Handhabung einfach. Ein weiteres Kriterium für die Arbeit mit Dropbox war und ist die hohe Integrationsfähigkeit. Denn für die Standard-Büroarbeit ist Microsoft Teams gesetzt und im Projektmanagement kommt bei DEMECAN “Wrike” zum Einsatz – beides ist optimal in Dropbox integriert.

Durch die Pandemie wurden die digitale Zusammenarbeit und die mediale Konnektivität des Teams besser, für Lösser war deutlich feststellbar, dass „die Mitarbeitenden ihre digitale Kompetenz noch einmal entscheidend erhöht haben“. Er kann heute zufrieden feststellen, dass sich durch die Pandemie-bedingte bessere Vernetzung „die Arbeitsgeschwindigkeit und Effektivität aller Teams noch einmal erhöht hat“.

Obwohl bei DEMECAN alle Mitarbeitenden einen eigenen Firmenlaptop und ein Smartphone erhalten, die ausschließlich dienstlich, aber eben gerne hybrid genutzt werden sollen und dürfen, wurde vor 2020 so gut wie ausschließlich von den Firmenbüros aus gearbeitet. Hybride Arbeitsformen waren die Seltenheit. Doch heute ziehen die Arbeitsteams von DEMECAN einen hybriden Arbeitsstil vor, bei dem sie nur noch zum Teil in den Firmenbüros, zum anderen Teil aber aus dem Homeoffice arbeiten.

Neu verwurzelte Meetingkultur

Lösser weiß von seinen Teams, dass diese mittlerweile Videotelefonie der normalen Telefonie vorziehen, weil man sich stets über den Mehrwert freue, die Kolleginnen und Kollegen auch zu Gesicht zu bekommen. Inzwischen würden sogar virtuelle den persönlichen Meetings vorgezogen. Man spare sich Anfahrtswege, Infektionsrisiken und überzogene Meetingzeiten durch die heute optimale Organisation solcher Zusammenarbeitsszenarien im virtuellen Raum, erklärt Lösser. Er kann zwar die Zukunft nicht vorhersehen, hofft aber – deutlich stolz –, dass der bemerkenswerte „hybride Modus“, den sich das DEMECAN Team zugelegt hat, auch weiterhin beibehalten werden kann.

Blick in eine florierende Zukunft

Weil dabei Netzwerkkonnektivität die größte Herausforderung bleibt, arbeitet DEMECAN bereits an einer Anbindung ans Glasfasernetz. Auch in anderen technischen Belangen hat das Unternehmen konkrete Zukunftspläne und -wünsche: Neben der Erweiterung des ERP-Systems und dem Aufbau weiterer Onlineshops möchte DEMECAN künftig 100 % papierfreie Arbeitsabläufe realisieren und die Zusammenarbeit auf pur digitale Beine stellen. Und außerhalb des Machtbereiches des Unternehmens ist natürlich die Frage zentral, wohin sich die Rechtsprechung in Sachen Legalisierung von Cannabis weiterentwickelt. Es bleibt spannend. Doch feststeht, dass man in Zukunft in vielerlei Hinsicht noch viel von DEMECAN hören wird.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Keine Angst vor Komplexität

Warum Unternehmen offen für neue Technologien sein sollten

Autor: Peter Diefenthäler*

Motivation

Die Softwareentwicklung im 21. Jahrhundert bringt viele neue Herausforderungen mit sich:

  • neue Plattformen, die auf Cloud-Technologien aufbauen
  • moderne Architekturen, die auf diesen Plattformen gut funktionieren
  • eine neue Entwicklerkultur, die auf DevOps-Paradigmen basiert

Mit diesen Herausforderungen steigt auch der Grad an Komplexität in allen drei genannten Dimensionen. Ein Blick auf neue Technologien kann helfen, die Komplexität zu meistern oder sie zumindest beherrschbar zu machen.

Wie heißt es so schön im agilen Manifest: Embrace Change!

Abbildung 1: komplex und kompliziert?

Komplexität

Geht es Ihnen auch so, dass beim Begriff der Komplexität immer so ein negativer Unterton mitschwingt?

Schaut man sich die Definition an, hört sich das alles doch erst mal ganz gut an:

Komplexität (lateinisch complexum, Partizip Perfekt von complecti „umschlingen“, „umfassen“ oder „zusammenfassen“) bezeichnet das Verhalten eines Systems oder Modells, dessen viele Komponenten auf verschiedene Weise miteinander interagieren können, nur lokalen Regeln folgen und denen Instruktionen höherer Ebenen unbekannt sind.

Wikipedia

Liest man sich den Satz ein zweites Mal durch, stößt man auf folgende Formulierungen:

  • viele Komponenten
  • verschiedene Interaktionsmuster
  • verborgene lokale Regeln

So kommt es wahrscheinlich dazu, dass man mit komplex oft kompliziert assoziiert!

Komplexe Systeme sind in der Regel anspruchsvoll, aber sie sind nicht per se kompliziert. Wir müssen aber durchaus lernen, mit Komplexität umzugehen.

Komplexität hat im Wesentlichen zwei Dimensionen:

  • Komplexität der Organisation
    (Größe, Struktur, Ökosysteme, formale und informale Prozesse, Firmenkultur, …​)
  • Komplexität im Zusammenwirken mit Technologie
    (Plattformen, Programmiersprachen, Frameworks, Werkzeuge, Tools, Dienste, …​).

Auf der Ebene der Organisation ist Komplexität sehr viel schwieriger zu adressieren als auf der technischen. Das bekannte Mantra „KISS – Keep it simple, stupid“ sollte zwar auch auf Organisationen anwendbar sein, diese sind aber über die Zeit gewachsen und zu dem geworden, was sie heute sind. Es bedarf viel Fingerspitzengefühl, Verständnis und Durchsetzungsfähigkeit, um Komplexität auf dieser Dimension anzugehen.

Es gibt im Wesentlichen zwei erfolgsversprechende Strategien, um Komplexität in den Griff zu bekommen:

  • Komplexität kann man durch Weglassen, Bündeln und Standardisieren von Produkten, Aufgaben und Prozessen verringern. Hier ist Augenmaß gefordert, denn es können schnell neue Abhängigkeiten entstehen und die Individualität einzelner Kunden oder Alleinstellungsmerkmale der Organisation bleiben auf der Strecke.
  • Ein anderer Ansatz im Umgang mit Komplexität besteht darin, Produkte und Dienste modular aufzubauen. Das erreicht man auf einer hohen Abstraktionsebene mit sogenannten Baukastenlösungen, die man geschickt kombiniert. Auf einer niedrigen Abstraktionsebene gelingt das mit geeigneten Technologien.

Neue Technologien können der Schlüssel sein, Komplexität zu verringern und IT-Systeme und damit letztendlich auch die Organisation weniger kompliziert zu machen.

Neue Technologien

Technologie allein löst keine Probleme! Wählt man sie unüberlegt aus, kann sie neue Probleme schaffen. Daraus resultiert oft die Angst vor neuen Technologien, denn sie können Komplexität erhöhen und alles noch komplizierter machen. Moderne Architekturen und Plattformen basieren auf neuen Technologien und versprechen Abhilfe zu schaffen. Schaut man sich zum Beispiel eine Architektur an, die auf Microservices aufbaut, stellt man fest, dass sie viel Flexibilität beim Einsatz neuer Technologien bietet. Das Risiko wird dadurch minimiert, dass man viele „kleine“ Services baut, diese auf Fachlichkeit ausrichtet und mit passenden Technologien implementiert. Diese sogenannten polyglotten Systeme werden von kleinen Teams mit überschaubarem Aufwand entwickelt und betrieben und es tut nicht besonders weh, wenn man bei der Auswahl einer Technologie in eine Sackgasse gerät und gegebenenfalls von vorne beginnen muss.

Die Idee des MVP (Minimum Viable Product) ist eine weitere Methode, neue Technologien zu verproben und sicherzustellen, dass die Fachlichkeit passt und die Akzeptanz bei der Zielgruppe hoch ist. Entwirft ein Architekt einen neuen Gebäudekomplex, entsteht für den Wettbewerb in der Regel erst mal ein Modell, welches die Gebäude in ihrer Form und Anordnung im Ensemble idealisiert darstellt.

Abbildung 2: 3D-Einsatzmodell aus Kunststoff (Foto: Formicore)

Wird der Wettbewerb gewonnen oder ein Auftrag erteilt, geht es in die Detailplanung der Gewerke. Die Entscheidungen werden dann individuell für die einzelnen Gebäudearten getroffen: welche Baumaterialien stehen zur Verfügung, soll alles unterkellert sein, wie erfolgen Energieversorgung und Heizung, wo liegen Eingänge und wie kommt Licht in die Gebäude.

All diese Probleme muss man auch bei der Umsetzung von Softwarearchitekturen lösen. Allerdings haben wir in der IT einen entscheidenden Vorteil: Flexibilität!
Ist ein Hochhaus erst einmal errichtet, kann man es nicht einfach wieder abreißen, oder einen Keller daruntersetzen. In der IT ist dies sehr viel einfacher möglich. Klar kostet das auch Geld und Zeit, aber nicht in dem Maße mit dem Materialeinsatz und den Auswirkungen auf die Umwelt. Die Einführung oder der Schwenk auf neue Technologien bringt oft einen echten Mehrwert und Applikationen lassen sich einfacher betreiben oder auf einen neuen Stand bringen. Die Konsumenten der Services merken nichts vom eigentlichen Technologiewechsel und profitieren im Idealfall von schnelleren Entwicklungszyklen, höherer Qualität und besserer Performance.

Sind jetzt neue Technologien das Allerheilmittel?

Sagen wir es mal so: Neue Technologien können komplexe Systeme weniger kompliziert machen. Das erkauft man sich aber durch eine steilere Lernkurve und die Gefahr, auf ein falsches Pferd zu setzen. Schließlich müssen Anwendungen auch gewartet werden und dafür müssen Wissensträger für den eingesetzten Technologie-Stack verfügbar bleiben.

Um das Risiko bei der Auswahl neuer Technologien gering zu halten, lohnt sich der Blick auf die Cloud Native Computing Foundation[1] und den Technology Radar von Thoughtworks[2]. Das sind gute Anlaufpunkte, Technologien zu identifizieren und sicherzustellen, dass es auch eine Community und damit Unterstützer gibt, die einem mit Rat und Tat zur Seite stehen.

Fazit

Hat man einmal gesehen, wie elegant Probleme mit funktionaler Programmierung, Microservice-Architekturen und Event-basierter Kommunikation gelöst werden können, findet man schnell Geschmack daran, neue Technologien auszuprobieren. Die modernen Plattformen ermöglichen schnelle Entwicklungszyklen und unterstützen durch ihren hohen Grad an Automatisierung die DevOps-Prozesse und agiles Vorgehen. Das alles macht es heutzutage leicht, neue Technologien auszuprobieren, ohne Angst haben zu müssen, mit einmal getroffenen Entscheidungen in eine Sackgasse zu geraten. Es gibt also wirklich keine guten Gründe mehr, nicht auf neue Technologien zu setzen – aber bitte mit Augenmaß ;=)

Über den Autor:

Peter Diefenthäler arbeitet als Softwarearchitekt bei der ARS Computer und Consulting GmbH in München. Mit vielen Jahren Erfahrung in der Produktentwicklung auf dem Mainframe bis hin zu aktuellen verteilten Anwendungen, beschäftigt er sich heute mit den Schwerpunkten Cloud-native Entwicklung, Migration großer Softwaresysteme sowie Digitale Transformation und hält Trainings und Schulungen in diesen Bereichen.

E-Mail: peter.diefenthaeler@ars.de


[1] https://landscape.cncf.io

[2] https://www.thoughtworks.com/de-de/radar


Bildquelle / Lizenz Aufmacher: Unsplash / Zhu Hongzi

Lokal Einkaufen

Lokal Einkaufen unterstützt Beschaffungsexpert:innen in Deutschland und ganz Europa beim Einkauf aus der Region

Amazon Business hat heute den Start des neuen Features Lokal Einkaufen auf dem europäischen Markt angekündigt. In örtliche Gemeinschaften zu investieren, hat für deutsche Geschäftskund:innen aus den Bereichen Bildung, öffentlicher Sektor, die Automobilherstellung oder Bau und Technologie eine hohe Priorität. Dieses Feature ermöglicht es nun Beschaffungsexpert:innen und ihren Teams, Verkäufer:innen auf Länder- oder sogar Stadtebene zu identifizieren, lokale Kaufentscheidungen zu treffen und in ortsansässige Unternehmen zu investieren.

Lokal Einkaufen bietet den Beschaffungsexpert:innen die Möglichkeit, unternehmensweite Vorgaben schnell umzusetzen, um den Einkauf in der Region zu begünstigen. Dabei helfen individuell einstellbare Filter zu Umgebung und Preisen. Alle Einkäufer:innen einer Organisation können unter den verschiedenen wettbewerbsfähigen Angeboten die lokalen Beschaffungsoptionen sehen. So sorgt das Feature dafür, dass die Mitarbeiter:innen den Vorgaben zum regionalen Einkauf nachgehen können und einen einfachen Zugang zu lokalen Anbieter:innen haben.

Die Beschaffung spielt eine strategische Rolle bei der Erreichung der lokalen Beschaffungsziele eines Unternehmens. In einer kürzlich durchgeführten Umfrage des Unternehmens gaben 90 Prozent der Führungskräfte im Beschaffungswesen an, dass Investitionen in lokale Gemeinschaften eines ihrer Beschaffungsziele sind.

„Lokal Einkaufen vereinfacht den lokalen Einkaufsprozess und bringt Einkaufsleiter:innen mit lokalen oder regionalen Anbieter:innen zusammen.“

Florian Böhme

Florian Böhme, Deutschlandchef Amazon Business

Florian Böhme, Deutschlandchef Amazon Business: „Die Beschaffung von Produkten und Dienstleistungen von ortsansässigen Unternehmen bietet eine große Chance, aber gleichzeitig bleibt es eine Herausforderung, bestehende Lieferketten zu verändern, insbesondere in größeren Unternehmen. Wir haben Lokal Einkaufen mit dem Ziel auf den Weg gebracht, genau das zu erleichtern. Lokal Einkaufen vereinfacht den lokalen Einkaufsprozess und bringt Einkaufsleiter:innen mit lokalen oder regionalen Anbieter:innen zusammen. So können sie nachhaltiger einkaufen und gleichzeitig die aktuellen und zukünftigen Compliance-Richtlinien ihres Unternehmens einhalten.”

Lokal Einkaufen bietet außerdem Zugriff auf die Amazon Business Analysetools, so dass alle lokal getätigten Ausgaben leicht nachverfolgt, verwaltet und mit den Unternehmens- und Teamzielen verglichen werden können. Das gibt Einkaufsleiter:innen alle Informationen, die sie benötigen, um schnellere und strategischere Entscheidungen zu treffen. Mit Echtzeitdaten können Führungskräfte den Fortschritt bei der Erreichung lokaler Einkaufsziele vorantreiben, den Prozess optimieren, künftige Budgets prognostizieren und Richtlinien entwickeln, um die Ausgaben der Einkäufer:innen zu steuern.

In Deutschland geben zahlreiche Unternehmen, die am ersten Rollout des Features teilgenommen haben, bereits bis zu 50 Prozent ihrer Amazon-Business-Einkaufsbudgets über Lokal Einkaufen aus, wobei bestimmte Schlüsselsektoren bei der Nutzung dieser Funktion führend sind.

So haben zum Beispiel die Kund:innen des öffentlichen Sektors in Deutschland ihre Ausgaben bei lokalenVerkäufer:innen während der ersten Einführung um mehr als 18 Prozent erhöht. Auch andere Branchen wie Bildung, Bauwesen und Technologie machen von der Funktion Gebrauch. Zusätzlich zum vermehrten Kauf bei lokalen Lieferant:innen nutzen Hunderte von Kund:innen in ganz Europa, wie etwa führende Universitäten sowie Automobil- und Technologieunternehmen die Funktionen von Amazon Business, so z.B. Guided Buying, das Unternehmen ermöglicht, ihre Ausgaben auf eine beliebige Anzahl von Prioritäten auszurichten.

Oder die Anwendungsprogrammierschnittstellen (API) von Amazon Business, um zeitaufwändige manuelle Aufgaben zu automatisieren, so dass Einkäufer:innen mit ihren bestehenden Einkaufstools problemlos „Climate Pledge Friendly“- Produkte finden und bestellen können. Diese Funktionen ermöglichen es den Einkaufsleiter:innen, unternehmensweite Beschaffungsvorgaben zu setzen. Das gibt Hunderten oder sogar Tausenden Einkäufer:innen die Möglichkeit, mehr Geld für nachhaltige Produkte auszugeben. Gemeinsam mit Lokal Einkaufen werden Beschaffungsleiter:innen so in die Lage versetzt, ihr Unternehmen bei der Einhaltung einer großen Bandbreite an lokalen Einkaufszielen als Teil ihrer umfassenden ESG-Ziele zu unterstützen.

Mehr Informationen finden Sie unter :
business.amazon.de/soziale-verantwortung/lokal-einkaufen

Aufmacherbild / Quelle / Lizenz

Photo by Tim Mossholder on Unsplash

Lizenz Text:
Dies ist eine Pressemitteilung von Amazon Business

Impact Investing oder Impact-Washing: Wohin geht der Trend?

Dr. habil. Moritz Isenmann, Research and Strategy Manager bei Invest in Visions GmbH, grenzt „echtes“ Impact Investing von „unechtem“ ab.

Kaum ein Begriff ist am Finanzmarkt aktuell so populär wie „Impact“. Immer mehr Anbieter von Finanzprodukten geben an, mit ihren Investments eine positive Wirkung für Gesellschaft und Umwelt zu erzielen, sprich „Impact Investing“ zu betreiben. Dies spiegelt sich in den Angaben zum verwalteten Vermögen wider, die Branchenverbände und Netzwerkorganisationen veröffentlichen. Das Forum Nachhaltige Geldanlagen (FNG) beispielsweise, das im Zeitraum 2019/2020 für Deutschland bereits ein Wachstum von 104 Prozent (von 8,1 Mrd. auf 16,6 Mrd. Euro) verzeichnet hatte,[1] gibt in seinem aktuellen Marktbericht eine neuerliche Steigerungsrate von 80 Prozent auf nunmehr 29,9 Mrd. Euro an.[2] Innerhalb von zwei Jahren wäre dies eine Steigerung von knapp 270 Prozent.

Aber wohin geht der Trend, der sich in diesen Zahlen manifestiert, wirklich: zu mehr Impact Investing oder zu mehr „Impact-Washing“? Die Crux mit solchen, in ihrem Steigerungsgrad kaum plausiblen, Marktangaben besteht nämlich darin, dass sie auf Aussagen von Produktanbietern beruhen. Wie viel echter Impact, wie viel gefühlter Impact und wieviel Impact-Washing sich dahinter verbirgt, ist schwer einzuschätzen. Eine unabhängige Datengrundlage gibt es nicht. Durch die Wissenschaft belegt ist jedoch mittlerweile, dass Impact-Washing, also die irreführende Verwendung des Begriffs für werbliche Zwecke, bereits stattfindet.[3] Sollte sich Impact-Washing weiterverbreiten, ist die Legitimität dieses noch jungen Markts bedroht und ein Vertrauensverlust der Anleger zu befürchten.

Was ist eigentlich Impact Investing?

Befördert wird Impact-Washing nicht zuletzt durch unklare bzw. zu breit gefasste Definitionen. Eine gute Orientierung bietet der Definitionsansatz der International Finance Corporation (IFC). Die IFC ist eine privatwirtschaftliche Schwestergesellschaft der Weltbank und selbst einer der weltweit größten Impact Investoren. 2019 hat sie mit den „Operating Principles for Impact Management“ einen ambitionierten Industriestandard für Impact Management vorgelegt, zu dem sich bereits über 160 internationale Impact Investoren bekennen, darunter auch Invest in Visions.[4]

Invest in Visions-Vordenker Moritz Isenmann: „Impact Investing kann einen signifikanten Beitrag zur nachhaltigen Transformation der Wirtschaft leisten.“

Der IFC zufolge müssen für Impact Investing drei Voraussetzungen erfüllt sein: eine Wirkungsabsicht, ein Wirkungsbeitrag (contribution) und die Messung der Wirkung. Nur wenn alle drei Elemente gegeben sind, sollte man von einem „Impact Investment“ sprechen.[5] Die zentrale Position nimmt der Wirkungsbeitrag ein. Ein Wirkungsbeitrag – in der gegenwärtigen Diskussion wird hierfür auch der Begriff „Additionalität“ verwendet – liegt dann vor, wenn ein Unternehmen durch die Investition seine eigene Wirkung (den „Company Impact“) erhöhen oder verbessern kann. Wird der „Company Impact“ hingegen nicht beeinflusst, liegt auch kein „Investment Impact“ vor. Dasselbe gilt, wenn Wirkungsabsicht oder -messung fehlen.

Der Königsweg für das Leisten eines Wirkungsbeitrags ist die Allokation von Kapital. Hier ist der Privatmarkt in einer privilegierten Position, da das Kapital direkt vom Investor an das Unternehmen fließt. Über den Sekundärmarkthandel an der Börse ist ein Wirkungsbeitrag hingegen kaum zu erbringen, da kein neues Kapital allokiert wird, sondern eine Aktie lediglich den Besitzer wechselt. Das bedeutet nicht, dass nicht möglicherweise eine irgendwie geartete Wirkung entfaltet wird, beispielsweise das Stützen eines Aktienkurses. Doch ist diese weder im Vorhinein plan- noch im Nachhinein messbar, wie es die anderen beiden Merkmale von Impact Investing erfordern. Die IFC jedenfalls schließt das reine Investieren am Sekundärmarkt von den eigentlichen Impact-Strategien aus. Das ist auch sinnvoll, wenn Impact Investing als klar definierbare Investitionsstrategie erhalten werden soll. Begriffsschöpfungen wie „Impact Alignment“, die darauf abzielen, auch Investitionen ohne zurechenbaren Wirkungsbeitrag als Impact Investments bezeichnen zu können,[6] werden hingegen, so ist zu vermuten, zu einer Vermehrung von Impact-Washing führen, weil sie den Anspruch an eine Verwendung des Impact-Begriffs senken.

Mikrofinanz und SME-Finanzierung

Eine der ältesten Formen von Impact Investments mit Wirkungsbeitrag, die bis in die 1970er Jahre zurückreicht, ist die Vergabe von Mikrokrediten in den Entwicklungs- und Schwellenländern. Mittlerweile ist Mikrofinanz eine fest etablierte Asset-Klasse. Über Mikrofinanzfonds wie den IIV Mikrofinanzfonds werden Mikrofinanzinstitute in den Entwicklungs- und Schwellenländern refinanziert, die Kleinstkredite an ihre Kunden:innen vergeben. Bei diesen handelt es sich um einkommensschwache Menschen, die keine ausreichenden Sicherheiten bieten können, um Darlehen von traditionellen Finanzinstituten zu erhalten. 1,7 Mrd. Menschen sind Schätzungen zufolge in den Emerging Markets von Finanzdienstleistungen ausgeschlossen.[7] Die Mikrokredite werden mehrheitlich für die Aufnahme bzw. Ausübung gewerblicher Tätigkeiten vergeben, mit denen die Darlehensnehmer:innen sich eine Existenz aufbauen bzw. sichern können, oder für sozial notwendige Ausgaben wie beispielsweise Beerdigungen.[8]

Mikrofinanz bzw. der Zugang zu Finanzdienstleistungen wird von den Vereinten Nationen als Beitrag zu verschiedenen nachhaltigen Entwicklungszielen (Sustainable Development Goals, kurz: SDGs) anerkannt und im Text von mehreren Unterzielen erwähnt.[9] Tatsächlich haben es Mikrounternehmen, ebenso wie SME (Small and Medium Enterprises), die zusammen mehr als 90 Prozent aller Unternehmen stellen, in den Entwicklungs- und Schwellenländern oft schwer, an Kapital zu gelangen. Damit wird ihr enormes Potenzial zur Schaffung von Arbeitsplätzen sowie Wirtschaftswachstum und damit auch zum Abbau von Ungleichheiten stark einschränkt. Die IFC schätzt die Finanzierungslücke für MSME (Micro, Small and Medium Enterprises) in den Emerging Markets auf 5,2 Billionen US-Dollar, von denen 772 Milliarden auf Mikrounternehmen und 4,5 Billionen auf den SME-Sektor entfallen.[10]

Die „Impact-Leitlinien“: ein Aufruf zu mehr Transparenz

Impact Investing (in seiner traditionellen Form) kann, das hat auch der Sustainable Finance-Beirat der Bundesregierung (SFB) in seinem Abschlussbericht vom Februar 2021 festgestellt,[11] einen signifikanten Beitrag zur nachhaltigen Transformation der Wirtschaft leisten. Eine wichtige Voraussetzung dafür ist jedoch, dass Impact-Washing auf dem Finanzmarkt konsequent eingehegt wird. Dazu sollen die „Leitlinien zur Darstellung von Impact im Bereich wirkungsorientierter Investments“ (kurz Impact-Leitlinien) beitragen. Unterzeichnet haben diese zusammen mit der Invest in Visions die GLS Investments, die GLS Bank, die Frankfurt School of Finance, die Bank im Bistum Essen, die Steyler Bank, Arethe Ethik Invest und die Pax-Bank.

Nicht zuletzt plädieren die Impact-Leitlinien auch für einen verantwortungsvollen Umgang mit den SDGs. Unbestritten ist, dass sich die graphisch ansprechenden Piktogramme außerordentlich gut für Marketingzwecke eignen. Falls der Anspruch erhoben wird, einen Beitrag zum Erreichen eines bestimmten nachhaltigen Entwicklungsziels zu leisten, sollte man sich aber auf ein offizielles Unterziel oder einen Indikator des jeweiligen Ziels beziehen. Sonst kann ein Bezug leicht missbräuchlich werden. Schließlich trägt nicht jede Investition in ein Pharmaunternehmen zu „SDG 3: Gesundheit und Wohlergehen“ bei, ebenso wie nicht jeder Lebensmittelkonzern dabei hilft, den Hunger aus der Welt zu schaffen („SDG 2: Kein Hunger“).

Die Impact-Leitlinien sind an allererster Stelle ein Aufruf zur Transparenz, präsentiert in Form von sechs Fragen, auf die man als Impact Investor Antwort geben können sollte. So lautet die erste Frage: „Wer ist für den Impact verantwortlich: Investor oder Investment“? Hier sollte genau differenziert werden, ob durch das Investment Kapital an Unternehmen fließt, mit dem diese eine positive Wirkung erzielen können, oder ob es sich um einen Sekundärmarkthandel ohne Kapitalfluss hin zum Unternehmen handelt. Eine weitere Frage zielt darauf ab, ob spezifische Impact-Indikatoren aufgestellt wurden, um den Beitrag zur Erreichung bestimmter sozialer oder ökologischer Ziele zu messen. Im Mikrofinanzbereich sind solche Indikatoren u. a. die Anzahl erreichter Kreditnehmer:innen (berechnet über den refinanzierten Anteil des jeweiligen Kreditportfolios) oder die Portfolioallokation nach wirtschaftlichen Sektoren.[12]

Die vollständigen „Impact-Leitlinien“ finden Sie hier.


Quellen:

[1] FNG_Marktbericht2021_Online.pdf (fng-marktbericht.org), S. 10.

[2] https://fng-marktbericht.org/deutschland#c1936danlagen (fng-marktbericht.org), S. 10.

[3] Suzanne Findlay / Michael Moran, Purpose-washing of impact investing funds: motivations, occurrence and prevention, in: Social Responsibility Journal 15 (2019), S. 853-873.

[4] Signatories & Reporting | Operating Principles for Impact Management (impactprinciples.org)

[5] IFC, Creating Impact. The Promise of Impact Investing, 2019, S. 3 ff. Online unter: https://www.ifc.org/wps/wcm/connect/66e30dce-0cdd-4490-93e4-d5f895c5e3fc/The-Promise-of-Impact-Investing.pdf?MOD=AJPERES&CVID=mHZTSds.

[6] Timo Busch et al., Impact investments: a call for (re)orientation, SN Bus Econ, 2021 S. 1-33.

[7] Asli Demirgüc-Kunt et al., The Global Findex Database 2017. Measuring Financial Inclusion and the Fintech Revolution, Washington D.C.: International Bank for Reconstruction and Development/Worldbank 2018.

[8] Zu den wichtigsten Entwicklungen im Bereich Mikrofinanz und finanzielle Inklusion in den vergangenen zehn Jahren siehe unseren Impact Report 2021, S. 13-14. https://www.investinvisions.com/media/iiv_impact_report_2021.pdf

[9] So beispielsweise in Unterziel 4 von „SDG 1: Keine Armut“ und Unterziel 2 von „SDG 2: Kein Hunger“.

[10] IFC, MSME Financing Gap: Assessment of the Shortfalls and Opportunities in Financing Micro, Small, and Medium Enterprises in Emerging Markets, 2017, S. 28.

[11] Sustainable Finance-Beirat der Bundesregierung, Shifting the Trillions. Ein nachhaltiges Finanzsystem für die Große Transformation, 2021, https://sustainable-finance-beirat.de/wp-content/uploads/2021/02/210224_SFB_-Abschlussbericht-2021.pdf

[12] Invest in Visions, Impact-Report 2021, S. 30-31.


Bildquelle / Lizenz Aufmacher:

Photo by Katt Yukawa on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Social Media in der B2B-Kommunikation 2022

Homeoffice, Corona, Great Resignation: So verändert sich die B2B-Social-Media-Kommunikation im aktuellen Kontext

Die einzige Langzeitstudie zur Untersuchung der Social-Media-Kommunikation von B2B-Unternehmen ist angelaufen. Die Ergebnisse werden 2022 besonders interessant: So fließen sicher die Veränderungen des Nutzungsverhaltens durch den Homeoffice-Trend, durch Remote-Arbeitsmodelle oder durch das Phänomen der „Great Resignation“ ein – und es wird sich zeigen, inwieweit diese dauerhafter Natur sind. Die Resultate und Vergleichsmöglichkeiten der Studie geben Unternehmen aller Wirtschaftsbereiche und Größenordnungen wertvolle Orientierung und Entscheidungshilfen zur künftigen Planung ihrer Social-Media-Strategien und -Budgets.

Im Kern der Studie stehen Veränderungen, die sich im Nutzerverhalten der Social-Media-Kanäle in der B2B-Branche ergeben haben. Gerade das Alleinstellungsmerkmal eines Datenvergleichs über den Zeitraum von zwölf Jahren hinweg bietet B2B-Unternehmen und Kommunikationsentscheidern im DACH-Raum die einmalige Möglichkeit, ihr eigenes Social-Media-Nutzungsverhalten konkret zu analysieren, sich mit dem richtigen Kommunikationsmix von Marktbegleitern abzugrenzen und Trends in der Nutzung digitaler Kommunikationswerkzeuge auf Grundlage valider Datenauswertung richtig einzuordnen und umzusetzen.

In den letzten Jahren konnten B2B-Unternehmen von den Ergebnissen der Studie in hohem Maße profitieren. Die weitreichenden Nutzungsmöglichkeiten und praxisnahen Erkenntnisse bieten für den gesamten deutschsprachigen Raum nicht nur die Möglichkeit, Social-Media-Strategien und -Budgets zielgruppengenau anzupassen. Die Schlussfolgerungen ermöglichen es Kommunikationsentscheidern auch, sich in den sozialen Online-Netzwerken durch passgenaue, glaubwürdige und geradlinige Auftritte von Mitbewerbern zu unterscheiden.

Corona-Pandemie sorgte bereits im letzten Jahr für große Veränderungen – bleibt es dabei?

Seit Pandemie-Beginn hat sich Social Media für viele Unternehmen zu einem effektiven Werkzeug entwickelt, um dem Fachkräftemangel erfolgreich entgegenzuwirken, also Arbeitnehmer langfristig zu binden und sich im Sinne eines strukturierten Employer Brandings als attraktive Arbeitgebermarke zu positionieren. Wie sich dies nun weiterentwickelt, wird ein weiterer Schwerpunkt der diesjährigen Erhebung sein.

Folgende Schlüsselfragen stehen für die Langzeitstudie des „Erster Arbeitskreis Social Media in der B2B-Kommunikation“ daher im Fokus:

  • Wie hat sich die Social Media Nutzung im vergangenen Jahr weiterentwickelt?
  • Welche Trends und Entwicklungen zeichnen sich nun ab oder etablieren sich?
  • Welche Erwartungen stellt die B2B-Community an ihre Social Media Präsenz?
Jacqueline Althaller, Gründerin des Arbeitskreises und Initiatorin der Studie

„Mit der Pandemie sowie den coronabedingten Folgen haben wir zum ersten Mal wirklich tiefgreifende Veränderungen in der Nutzung von Social-Media-Kanälen festgestellt. 2022 wird zeigen, wie langanhaltend diese Veränderungen sind und ob sich Kanäle wie TikTok weiter etablieren konnten“, so Jacqueline Althaller, Gründerin des Arbeitskreises und Initiatorin der Studie.

Rückblickend auf die Ergebnisse des letzten Jahres erläutert die Kommunikationsexpertin: „Ein großer Trend im letzten Jahr war es, die eigenen Mitarbeiter zu Unternehmensbotschaftern aufzubauen; vielen B2B-Unternehmen ist das unserer Erfahrung nach aber noch nicht gelungen – es wird nun spannend zu sehen, wie sich das in den Studienergebnissen widerspiegelt. Mit Hilfe von erfahrenen und medienaffinen Studienpartnern wollen wir, unsere Teilnehmerzahlen in diesem Jahr noch einmal deutlich steigern und freuen uns über jeden, der sich aktiv beteiligt!“.

Die Datenerhebung für den gesamten DACH-Raum läuft bis zum 8. August 2022.

„Mit der Teilnahme an der Online-Umfrage über den bereitgestellten Link sichern Sie sich den kostenlosen Erhalt der Ergebnisse ab Mitte September“, ergänzt Althaller abschließend.

>>>> Zur Umfrage des 1. Arbeitskreis SOCIAL MEDIA B2B

Cyberangriffe beenden

Reiner Dresbach, Vice President Central bei Cybereason, schreibt über die Verwundbarkeit von Unternehmen in der aktuellen Cybersicherheitslage.

 

 

„Ist der Westen durch russische Cyber-Vergeltung im Zusammenhang mit der Ukraine gefährdet? Es ist kompliziert…“

Schon vor dem Einmarsch Russlands in die Ukraine haben sich Cybersecurity-Experten gefragt: Wann ist es soweit, dass der „große Angriff“ kommt? Russland ist dank seiner aggressiven Cyberfähigkeiten berühmt – oder eher berüchtigt. Dafür sorgen Angriffe wie NotPetya und SolarWinds.

Daher schien es unvermeidlich, dass jede Großoffensive Russlands mit massiven hybriden Angriffen, die sich auch in die digitale Welt erstrecken, gegen die kritische Infrastruktur der Ukraine verbunden sein würde. Als westliche Staaten wie die USA, die EU und viele andere ihre Unterstützung für die Ukraine ankündigten, schien es sehr wahrscheinlich, dass auch sie Ziel solcher digitalen Angriffe werden würden.

Doch wie es aussieht, kam es bislang nicht zu diesen Angriffen – zumindest nicht in dem erwarteten Ausmaß. So sind beispielsweise nicht überall im Westen die Lichter ausgegangen. Russland hat keine Angriffe auf die kritische Infrastruktur der Länder gestartet hat, die die „Frechheit“ besaßen, sich mit der Ukraine zu solidarisieren – obwohl wir solche Attacken in der Ukraine, beispielsweise dem verheerenden Angriff auf das Satellitensystem Viasat, gesehen haben.

Dieser Angriff erinnert an die NotPetya-Attacke des GRU gegen die Ukraine von 2014. Diese verbreitete sich unkontrolliert über die beabsichtigten Ziele hinaus und verursachte Kollateralschäden in anderen Ländern. Letztlich hatte der Angriff jedoch wenige bis keine Auswirkungen. Es gibt zwar eine Reihe von Theorien darüber, warum der Westen weitgehend verschont geblieben ist. Wir müssen uns aber darüber im Klaren sein, dass „bisher noch nicht“ nicht „nie“ bedeutet.

Es gibt eine Reihe von Gründen, warum die Menschen in Ländern, die mit der Ukraine sympathisieren, weiterhin vor potenziellen Angriffen auf der Hut sein sollten. Ein wichtiger Indikator dafür ist auch die Tatsache, dass die US-Regierung, die auch vor dem Einmarsch Russlands in die Ukraine korrekt gewarnt hat, Informationen über mögliche Angriffe weitergibt. Die CISA beispielsweise hat einen dringenden Appell an Unternehmen gerichtet, wachsam zu sein und ungewöhnliche Aktivitäten zu melden. Diesen sollten wir ernst nehmen – denn solche Angriffe können überall und jederzeit beginnen und sind schwer zu erkennen, bevor es zu spät ist.

Die russische Vergeltung könnte schlichtweg langsamer verlaufen als vorhergesagt. Wie Sam Curry, CSO hier bei Cybereason, betont, sind viele der Meinung, dass Cyberangriffe Teil der ersten Offensive sind, um das Zielland und seine Verbündeten als Auftakt zur physischen Kriegsführung lahmzulegen.

Möglicherweise hat Russland solche Angriffe aber auf der Eskalationsstufe höher angesiedelt und ist vorsichtig, sich einem digitalen Gegenschlag auszusetzen, wenn es bereits an so vielen Fronten kämpft. Zudem dürfen wir nicht vergessen, dass Russland nur über eine begrenzte Anzahl von Zero-Days und unbekannten Exploits in seinem Arsenal verfügt. Sobald diese eingesetzt werden, sind die IOCs verfügbar und die TTPs schnell veraltet. Es ist für Russland daher wichtig, seine Ziele und den richtigen Zeitpunkt sorgfältig auszuwählen.

Der Krieg selbst ist noch lange nicht beendet, und der Ausgang ist immer noch ungewiss. Eine weitere Möglichkeit ist also, dass sich Russland schließlich der Cyberkriegsführung zuwendet, um seine eigenen Kassen zu füllen, während sich der Konflikt und die damit verbundenen Sanktionen hinziehen. Selbst wenn sich Russland nicht aus Profitinteresse der Cyberkriminalität zuwendet, haben sich patriotische Hacker wie die Conti-Ransomware-Bande (die vor kurzem zerschlagen wurde und zweifellos bald unter neuem Namen wieder auftauchen wird) öffentlich mit russischen Interessen solidarisiert und werden aus dem Konflikt Kapital schlagen.

Selbst politisch völlig unbeteiligte Akteure könnten durch den Konflikt in Bedrängnis geraten, wie wir es in den Branchen Energieversorgung und Landwirtschaft beobachteten. Denn sie sehen, dass diese Branchen auf eine globale Krise reagieren müssen und wahrscheinloch eher bereit sind, Lösegeld zu zahlen.

Die schlechte Nachricht für westliche Unternehmen ist, dass es bisher kaum Anzeichen dafür gibt, dass die russische Cyber-Kriminalität gestoppt oder auch nur verlangsamt wird – sondern dass sie möglicherweise sogar noch zunehmen wird. Die gute Nachricht ist, dass Russland selbst auch nicht immun gegen diese Gefahren ist. Reuters berichtete beispielsweise kürzlich über Aussagen von Wladimir Putin zu Angriffen auf russische Regierungsziele.

Allein im März hat Russland auch 70.000 IT-Fachleute verloren, die aus Angst vor einem Wehrdienst oder der Schließung der Grenzen aus dem Land geflohen sind. Diese schwindelerregende Zahl entspricht etwa 5 % des russischen IT-Sektors. Weitere Berichte zeigen, dass Russland verzweifelt versucht, diesen Verlust auszugleichen, und sich sogar an Strafgefangene wendet. Möglicherweise ist Russland zu sehr damit beschäftigt, sich als neues schwaches Ziel in die Defensive zu begeben, da es aufgrund der Sanktionen nicht in der Lage ist, seine eigenen Systeme zu reparieren. In diesem Fall wäre es für Russland nicht möglich, die von Experten befürchteten ehrgeizigen Offensivkampagnen zu starten.

In der Zeit, in der wir darauf warten, dass der sprichwörtliche Stein ins Rollen kommt, sollten besorgte Einzelpersonen und Organisationen wachsam sein. Erweitern Sie Ihre Verteidigungsmaßnahmen, patchen Sie Ihre Systeme und informieren Sie sich über Updates.

 

Weitere Informationen unter: https://www.cybereason.com/de/

 

 

Bildquelle: Photo by Ahmed Zayan on Unsplash

SEO entmystifiziert

Ein Google-Ranking auf der ersten Seite ist der Traum eines jeden Webseitenbetreibers. Es zeugt von einem guten Ruf, zieht viele potentielle Kunden an und sorgt damit für großen Umsatz. SEO-Marketing-Experte Oliver E. Bahm hat dies für seine Kunden schon oft erreicht.

„Viele Webseitenbetreiber sind der Ansicht, dass die Algorithmen von Google nach undefinierbaren und undurchsichtigen Prinzipien funktionieren“, weiß Oliver E. Bahm. Für den Webdesigner würde das bedeuten, dass man überhaupt gar keinen Einfluss darauf hat, wo die eigene Seite bei bestimmten Suchanfragen landet. Doch das ist definitiv nicht der Fall und am besten geht man die Sache Step by Step an, wie er nachfolgend beschreibt.

Wie sehen die Suchanfragen aus?

Eine Suchanfrage besteht aus einem oder mehreren Wörtern, den sogenannten Keywords. Ein gutes Keyword zeichnet sich durch ein hohes Suchvolumen, sprich eine hohe Anzahl von Suchanfragen aus. Es wäre jedoch zu einfach, wenn es genügen würde, ein beliebtes Keyword mehrfach in den Text zu schreiben und davon auszugehen, dass damit die Klickraten und die Besucherzahl auf der Webseite automatisch steigt, schließlich wird genau dieses Keyword höchstwahrscheinlich auch auf vielen anderen Seiten zu finden sein. Ziel der Optimierung soll also sein, bei Google vor all diesen Seiten zu ranken. Um dies zu erreichen, ist eine umfangreiche Keywordanalyse erforderlich, die stets auch mehrere Keywords in Kombination verwenden sollte und die Suchergebnisse entsprechend kritisch prüft und hinterfragt. Ist das erledigt, hat man ein gutes Rüstzeug in der Hand, um die Optimierungen in Angriff zu nehmen.

Welche Rolle spielt die Onpage-Optimierung?

“Bei meinen Kunden beginne ich stets mit der Onpage-Optimierung, also einer Verbesserung der Inhalte direkt auf der Seite”, erklärt Oliver E. Bahm. Seiner Erfahrung nach ist die Internetpräsenz von der technischen Seite her gesehen meist ganz gut eingerichtet. Falls das nicht der Fall sein sollte, muss das als erstes nachgeholt werden. Wenn Server und Weiterleitungen dann reibungslos funktionieren, geht es darum, aus den richtigen Meta-Daten das Optimum herauszuholen. Hier bilden SEO Title und Description, das sind die Überschrift und Kurzbeschreibung, die bei den Suchergebnissen angezeigt werden, eine wichtige Grundlage. Wichtig ist auch die richtige Überschriftenstruktur, und zwar so, dass der Tag H1 nur einmal und alle weiteren Tags dann in der richtigen Reihenfolge vorkommen – sonst verwirrt das den Google-Algorithmus und das wiederum wirkt sich negativ aufs Ranking aus. Für die richtige Keyworddichte braucht man einiges an Erfahrung und auch Fingerspitzengefühl, denn zu wenig ist genauso kontraproduktiv wie zu viel: die Suchmaschinen ignorieren nämlich Texte, die ein wildes Keyword-Spamming betreiben. Bei alledem sollte man stets auch berücksichtigen, dass der Text nicht nur für Maschinen, sondern auch für Menschen gut lesbar sein muss.

Wie lange braucht eine gute Agentur, um eine bestimmte Seite auf die erste Seite zu bringen?

Gastautor Oliver E. Bahm beschreibt Prozesse, die dazu führen, dass ein Unternehmen bei Google in den vorderen Suchergebnissen erscheint. Bildquelle / Lizenz: SEO PREMIUM AGENTUR Stuttgart

Oliver E. Bahm garantiert seinen Kunden zwar, dass ihre Website beim gewünschten Keyword durch seine Arbeit bei Google auf Seite 1 rankt, aber wie lange es dauert, bis das geschafft ist, kann er nicht pauschal beantworten. „Bei den meisten Keywords sollte man mit mehreren Monaten, bei besonders schwierigen Keywords sogar mit bis zu einem Jahr rechnen“, so der SEO-Marketing Experte. Je schwieriger die Keywords, desto länger dauert es und desto mehr Geld muss man dafür in die Hand nehmen. Als grobe Richtwerte nennt Oliver E. Bahm Einstiegspreise ab etwa 3.000 €, die bei diffizilen Keywords mit vielen Suchanfragen und entsprechend vielen Konkurrenten, die es zu übertreffen gilt, bis in den mittleren 5-stelligen Bereich steigen können. Er warnt gleichzeitig: „Nicht jede Agentur nimmt übrigens solche herausfordernden Keywords überhaupt an. Das muss unbedingt im Vorfeld abgeklärt werden.“

Was ist zu tun, um auf Seite 1 zu bleiben, wenn man einmal dort ist?

Bekanntlich ist das Internet im stetigen Wandel begriffen, daher liegt es auf der Hand, dass man den Platz auf Seite 1 nicht dauerhaft gepachtet haben kann. Die SEO-Maßnahmen bringen die Webseite zwar vielleicht auf Seite 1, aber um sich langfristig dort zu halten, muss ständig weiter daran gearbeitet werden. Ein sogenannter SEO-Betreuungsvertrag ist deshalb die Empfehlung des Experten. In diesem wird vereinbart, dass die Agentur in regelmäßigen Abständen immer wieder neue Backlinks von themenrelevanten Texten einpflegt und so die Attraktivität für die Suchmaschine auf hohem Niveau hält. Das Linkbuilding ist für ein langfristiges, gutes Ranking essentiell. „Meine Erfahrung ist, dass ein Link-Mix am besten funktioniert, bei dem die Dofollow- und Nofollow-Verlinkungen sich abwechseln. Hier gilt es natürlich, stets die Qualität der ausgehenden Seiten zu prüfen, wobei wiederum viel Erfahrung und Branchenkenntnis gefragt ist. SEO-Tools erleichtern hierbei die Analyse der technischen Daten ungemein“, so Oliver E. Bahm.

Bezieht Google auch Bilder in das Ranking mit ein?

Selbstverständlich beeinflussen auch Bilder das Ranking. Schließlich ist bei vielen Online-Shops das Bildmaterial ja auch sehr wichtig. Zum Teil kommt bei der Bilderkennung schon eine KI zum Tragen. Allerdings bezieht Google hauptsächlich den mit dem Bild hinterlegten Text mit in die Bewertung ein. Wenn dieser gut zum restlichen Textblock passt, bewertet Google dies positiv.

Fazit

Wer ernsthaft mit seiner Webseite Geld verdienen möchte, kommt an gutem SEO-Marketing nicht vorbei. Da die Arbeit der Optimierung sehr zeitaufwendig ist und auch viel Erfahrung erfordert, empfiehlt es sich eine SEO-Agentur, die sich auf diese Tätigkeiten spezialisiert hat, zu beauftragen. Bei der Menge der Anbieter fällt die Auswahl unter Umständen schwer. Ein erster Test sollte deshalb sein, ob die Agentur durch ihre eigene SEO überzeugt und damit gefunden werden kann. Viele von ihnen bieten kostenlose Erstberatungen und auch SEO-Checks an, bei denen das Verbesserungspotenzial sofort erkennbar ist. Spätestens dann lässt sich feststellen, ob man es mit einem kompetenten Partner zu tun hat.


Bildquelle / Lizenz Aufmacher:

Photo by Myriam Jessier on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Social Media für KMU unverzichtbar

Warum KMU am besten sofort beginnen sollten, professionell in Social Media zu agieren, erklärt Florian Hieß, Head of Digital Marketing bei Swat.io

Social Media Plattformen können einen wertvollen Beitrag zum Geschäftserfolg leisten – wenn sie gezielt genutzt werden. Viele Klein- und mittelständische Unternehmen lassen dieses Potential immer noch links liegen oder setzen es nicht ausreichend für ihren Erfolg ein. Zwei der wichtigsten Gründe dafür sind die fehlenden Kapazitäten und Unsicherheit bezüglich der Kosten. Dabei bieten moderne Social Media Management Tools alles, was nötig ist, damit KMU diese beiden Sorgen getrost ad acta legen können. 

Kleine und mittlere Unternehmen gelten als einer der Schlüssel für den wirtschaftlichen Fortschritt und die Verbesserung der Gesellschaft. Wenn es um die Nutzung von Social Media geht, hält sich die ansonsten große Innovationsfreude der KMU aber noch deutlich in Grenzen. Nur jedes dritte KMU setzt Social Media ein, um eigene Produkte und Dienstleistungen zu bewerben oder um mit Neu- und Bestandskunden in Kontakt zu treten. Das zeigte eine repräsentative Umfrage des Forsa Instituts 2021 im Auftrag von Gelbe Seiten. Damit ignorieren viele Unternehmen allerdings die Gewohnheiten ihrer Kund:innen. Bereits 2019 gaben 61 Prozent der Befragten einer PWC-Studie an, beim Einkaufen von sozialen Medien beeinflusst zu werden – entweder als Inspiration oder durch positive Bewertungen. Fakt ist: Soziale Netzwerke haben sich zu einem sehr leistungsfähigen Instrument für Unternehmen entwickelt. Wenn KMU diese Plattformen gut nutzen, können sie neue Kundschaft anziehen und gleichzeitig in direkten Kontakt mit bestehenden Kund:innen treten. De facto führt kein Weg an den sozialen Netzwerken vorbei. KMU sollten sie als wichtiges Instrument für ihr Wachstum einsetzen – je früher sie damit beginnen, desto besser.

Vorteile erkennen und nutzen

Social Media professionell zu nutzen, ist heute keine Frage der Kapazitäten oder des Budgets mehr. Social Media Management Tools wie Swat.io machen die Nutzung so einfach und bequem, dass auch Personen ohne Erfahrung intuitiv zurechtkommen. KMU können entscheiden, welche Funktionen sie tatsächlich benötigen und gezielt nur diese nutzen. Europäische Tools wie Swat.io entschärfen zudem jegliche Bedenken hinsichtlich der DSGVO – sie sind vollständig DSGVO-konform. Besonders wichtig für KMU ist außerdem der hochqualitative Support, wenn die Social Media Arbeit nebenbei oder von Personen mit wenig Erfahrung geleistet wird. Nicht zuletzt spielen die Preise eine wichtige Rolle. Moderne Tools wie Swat.io sind auch für Ein-Personen-Unternehmen leistbar. Auch teure externe Berater:innen und ausschließlich dafür zuständige interne Verantwortliche sind nicht zwingend notwendig. Soziale Medien sind für KMU eine Chance mit klaren Vorteilen:

  • Stärkung der Marke

Soziale Netzwerke bieten die Möglichkeit, sich durch eine klare und nützliche Botschaft in den Köpfen der Zielgruppe zu positionieren und sich so von der Vielfalt der Konkurrenz abzuheben. Wenn KMU hochwertige Inhalte in ihren sozialen Medien teilen, wirken sie nicht nur professionell, sondern auch vertrauenswürdig. Mit ihren Inhalten können KMU Nutzer:innen auf ihre Webseite leiten und sich als Marke hervorheben, was sich auch positiv auf die Interaktion mit dem Publikum auswirkt. Tools wie Swat.io erleichtern das Planen, Erstellen, Teilen und die Auswertung von Inhalten. Social Media Verantwortliche in Unternehmen arbeiten dabei in nur einer Oberfläche, der Wechsel zwischen den Kanälen entfällt und auch die jeweiligen Vorgaben für Dateigrößen oder Fotoformate sind im Tool hinterlegt.

  • Förderung des Dialogs

Soziale Netzwerke bieten die Möglichkeit, mit jeder/m Kund:in in direktem Kontakt zu stehen und kontinuierlich über ihre/seine Bedürfnisse und Rückmeldungen informiert zu sein. Dies ermöglicht es jeder Marke, schrittweise Optimierungen durchzuführen, sich den Kund:innen anzunähern und deren Erfahrungen zu verbessern. Diese direkte Verbindung schafft eine menschliche, ehrliche und sehr vertrauenswürdige Beziehung. Vor allem gewährleisten Social Media eine schnelle Interaktion mit der Zielgruppe. Bei Swat.io fungiert die Inbox als zentrales Postfach, in das Nachrichten und Erwähnungen aller Social Media Kanäle eines Unternehmens eingehen und dort auch bearbeitet werden können. Das erleichtert es den Verantwortlichen, den Überblick über die Reaktionen zu behalten sowie die Bearbeitung im Team zu koordinieren. 

  • Umsatzerhöhung

Menschen kaufen von Menschen. Social Media Plattformen ermöglichen, dass Kund:innen nicht nur mit der Organisation, sondern mit einer konkreten Person des jeweiligen Unternehmens in Austausch treten. Die Schaffung einer solchen Nähe wirkt sich direkt auf den Umsatz des Unternehmens aus. KMU, die auf Fragen, Kommentare, Kritik und Lob reagieren, erhöhen die Zufriedenheit ihrer Kundschaft. Dies kann auch eine Gelegenheit sein, potenzielle Kund:innen anzuziehen oder interessante Allianzen zu bilden. Dafür brauchen KMU ein Social Media Management Tool, das flexibel mit ihnen mitwächst. Swat.io etwa ermöglicht seinen Kund:innen jederzeit Upgrades und Downgrades.

  • Kostenreduktion

Soziale Netzwerke erweisen sich in vielen Bereichen als nützlich, um Geld zu sparen. Etwa in Bezug auf die Marketingstrategie – über soziale Netzwerke können KMU nicht nur Produkte und Dienstleistungen gezielt, ohne Streuverlust, an das passende Publikum herantragen, sondern auch Marktforschung betreiben. Einsparungen ergeben sich aber auch in anderen Bereichen, etwa, wenn es um die Rekrutierung neuen Personals geht.

Hemmschwellen überwinden

KMU, die Inhalte mit ihrer Online-Community teilen, die auf deren Interessen abgestimmt sind, haben mit den sozialen Netzwerken ein mächtiges Erfolgsinstrument an der Hand. Ein Instrument, mit dem sie Bekanntheit, Umsatz und Produktivität steigern können. Selbst, wenn nur wenig Zeit und Budget für die Social Media Arbeit vorhanden ist, kann diese Chance erfolgreich genutzt werden. Ängste und Unsicherheiten sollten abgeworfen, ein modernes, europäisches Social Media Management Tool ausgewählt und mit der Arbeit am besten heute noch begonnen werden.

 

Über den Autor:

Florian Hieß ist Head of Digital Marketing bei Swat.io, einem der führenden Social Media Management Tools im deutschsprachigen Raum. Swat.io unterstützt professionelle Social Media Marketing Teams mit einem hervorragenden Kundenservice und der richtigen technischen Lösung, die alle relevanten Bereiche des Social Media Marketing abdeckt: Content-Planung und -Veröffentlichung, Community Management, Social Customer Service, Analyse und Monitoring.

Digitale Fabrik

Verstehen, vernetzen, verbessern: Die digitale Fabrik als Teil der ganzheitlichen Digitalisierung

Autor: Björn Manderbach, Director DELMIA
Industry Consulting bei Dassault Systèmes

Die wirtschaftlichen und gesellschaftlichen Rahmenbedingungen, mit denen Unternehmen heutzutage konfrontiert sind, haben sich gewandelt: Eine globalisierte Welt, neue Arbeitsmodelle wie Remote Work, aber auch die steigende Relevanz von Nachhaltigkeitsaspekten – all diese Herausforderungen müssen Unternehmen meistern, um ihre Effizienz, Resilienz und Agilität zu steigern. Die meisten Unternehmen haben inzwischen erkannt, dass genau hier die Digitalisierung greift. Lange Zeit war das Projekt „Digitale Fabrik“ überwiegend großen Konzernen vorbehalten, die die nötigen Kapazitäten und Ressourcen aufwenden konnten. Mittlerweile haben sich Technologien sowie der Zugang zu Softwareangeboten gewandelt – Stichwort Cloud – sodass auch Mittelständlern die Möglichkeiten der digitalen Fabrik offenstehen. Doch was genau versteckt sich hinter dem Begriff?

Eine komplett digitale Fabrik – unmöglich oder kinderleicht?

Etwa um die Jahrtausendwende entstand die Grundidee einer „digitalen Fabrik“ im Markt. Sie beschrieb anfangs jedoch nur die virtuelle Planung im Sinne des Product Lifecycle Managements (PLM) – also lediglich die Modellierung und Simulation des Fertigungsprozesses im virtuellen Raum ohne Bezug zur tatsächlichen Ausführung. Mittlerweile wird darunter die ganzheitliche Betrachtung aller Abläufe innerhalb einer Fabrik unter Berücksichtigung der virtuellen und realen Gesichtspunkte verstanden. Was zu Beginn abstrakt und schwer nachzuvollziehen klingt, ist in der Praxis relativ simpel: Alle beteiligten Maschinen, Menschen, Werkzeuge und Ressourcen sollen im Endergebnis, basierend auf einem virtuellen Modell, real miteinander vernetzt sein und miteinander kommunizieren. Es geht demnach um die Digitalisierung von Abläufen. Die Kernfrage lautet: Wie kann ich Prozesse in der Fertigung durch den Einsatz von Software unterstützen und optimieren?

Aller Anfang ist schwer: Auch kleine Schritte führen zur digitalen Fabrik

Um die eigene Fertigung fit für die Zukunft zu machen, ist es keinesfalls notwendig, die gesamte Fabrik in einem Zug zu digitalisieren. Zielführender ist es, schrittweise vorzugehen und drängende Bereiche zu priorisieren. Dieser Ansatz bricht das hochkomplexe Projekt auf greifbare Prozesse sowie Arbeitsschritte herunter. Alle Aktivitäten zahlen trotzdem auf das große Gesamtziel einer möglichst digitalen Fertigung ein. Einen konkreten Startpunkt definieren Unternehmen demnach individuell entlang der gesamten Wertschöpfungskette: Für Firma A kann das die Verzahnung von Konstruktion und Produktion sein, Firma B möchte die Zusammenarbeit mit Zulieferern optimieren, während Firma C eine neue Fertigungslinie am 3D-Modell plant.

Prozessketten virtuell abbilden

Eine Möglichkeit, wie digitale Abläufe die Effizienz erhöhen, ist die Simulation von Produktionsvorgängen. Üblicherweise müssen Roboter, Maschinen oder Anlagen manuell programmiert und für diese Zeit aus dem Betrieb genommen werden. In einer digitalen Fabrik ist es möglich, virtuell abzubilden, wie sich die Bewegungen dieser Ressourcen verhalten und die Arbeitsschritte bereits am Computer zu simulieren. Der Code wird dann lediglich auf die Maschine übertragen, ohne dass die Produktion längere Zeit unterbrochen werden muss.

Die ganze Fabrik als virtuelles Modell

Die Digitalisierung in der Industrie lässt sich aber auch auf die Fabrik selbst – also die Fertigungslinien – anwenden. Häufig erstellen Unternehmen ein 3D-Modell ihrer bestehenden Hallen, um virtuell ein neues Layout zu planen. Mithilfe von speziellem Equipment, das per Laser und Kamera die Halle einmal komplett scannt, wird der Status Quo abgebildet. Das Modell berücksichtigt alle Parameter des aktuellen Fabriklayouts: vom Grundriss über Abmessungen der Maschinen und Freiräume bis hin zu Lüftungsmöglichkeiten und Medienanschlüssen. Bevor neue, kostenintensive Fertigungslinien tatsächlich angeschafft werden, können Architekten und Fabrikplaner nun anhand des 3D-Modells zusammenarbeiten. So können sie nicht nur sicherstellen, dass die Maschinen im Layout auch wirklich Platz finden, sondern auch die optimale Platzierung wählen, um Laufwege zu verkürzen und Abläufe zu beschleunigen.

Mit digitalen Lösungen zur nachhaltigen Fabrik

Das Thema Nachhaltigkeit spielt für Unternehmen in vielerlei Hinsicht eine elementare Rolle: Veränderte Kundenerwartungen, Regularien der Politik, steigende Energiepreise – die Liste ist lang. Hier kommen digitale Lösungen ins Spiel. Sie können dabei helfen, Prozesse und Produkte nachhaltiger zu gestalten. „Nachhaltigkeit“ im Unternehmenskontext lässt sich somit von verschiedenen Seiten beleuchten. Dabei stehen die Bereiche nicht nur für sich, sondern beeinflussen sich gegenseitig.  

Nachhaltige Produkte

Wie klimafreundlich Produkte sind, schlägt sich insbesondere in der Wahl der verwendeten Materialien nieder. Entsprechende Softwaretools können bereits in einer frühen Phase der Entwicklung Informationen darüber anzeigen, welche Bauteile in der Konstruktion und im Betrieb am meisten CO2-Ausstoß verursachen. Auf Basis dieser Daten ist es dann möglich, Änderungen am Produkt vorzunehmen, beispielsweise ein umweltfreundlicheres Material zu wählen. Ein Beispiel ist die Softwarelösung „Sustainable Innovation Intelligence“ von Dassault Systèmes, die Unternehmen dabei unterstützt, Umweltauswirkungen entlang der gesamten Wertschöpfungskette zu minimieren und Kreislaufwirtschaft zu fördern.

Nachhaltiges Wirtschaften

Unter diesem Punkt, der sogenannten „Business Sustainability“, ist die Fähigkeit eines Unternehmens zu verstehen, seine Geschäftsziele zu erreichen und den langfristigen Unternehmenswert zu steigern, indem es wirtschaftliche, ökologische und soziale Aspekte in seine Geschäftsstrategien integriert. Für viele Unternehmen ist ein nachhaltiger Ansatz mehr als nur ein Trend. Es ist Teil einer Strategie zur Verbesserung von unternehmerischer Nachhaltigkeit. Sie versuchen den negativen Einfluss auf Umwelt und Gesellschaft zu minimieren und sicherzustellen, dass künftigen Generationen die entsprechenden Ressourcen für ihre Bedürfnisse zur Verfügung stehen.  Dazu zählen qualifizierte Fachkräfte und lebenslanges Lernen genauso wie Investitionen, die langfristig wirtschaftliche, ökologische, aber auch soziale Kosten vermeiden. Im Rahmen einer digitalen Fabrik lassen sich beispielsweise über das das Lebenszyklusmanagement der Maschinen selbst alle Vorgänge in der Fabrik transparent darstellen. Mit der Unterstützung von Predictive Maintenance, also der vorausschauenden Wartung, erkennt die Software Muster im Verhalten von Maschinen. So können sich Unternehmen rechtzeitig um Reparatur oder Ersatz kümmern – ohne, dass die Kontinuität des Betriebs gefährdet ist – und sind nicht mit plötzlichen Störungen konfrontiert.

Einheitliche Datenplattform für reibungslose Zusammenarbeit und dynamische Optimierungen

Der Grundbaustein einer digitalen Fabrik, um Prozesse zu digitalisieren und dadurch zu optimieren, sind umfassende Informationen über Maschinen, Abläufe und Ressourcen. Hier kommt der Plattformgedanke ins Spiel. Eine Datenplattform, wie beispielsweise die 3DEXPERIENCE Plattform von Dassault Systèmes, bildet die ‚Single Source of Truth‘ für alle relevanten Elemente der digitalen Fabrik und fügt das Puzzle letztendlich zu einem Gesamtbild zusammen. Sie verwaltet also nicht nur Daten zentral, sondern bündelt auch Softwareapplikationen, die in den unterschiedlichsten Prozessen zum Einsatz kommen. Gleichzeitig ermöglicht die Plattform einen Datenrückfluss: Informationen zu laufenden Prozessen werden erfasst und analysiert. Die Auswertung wird dann mit den ursprünglichen Plänen verglichen und ermöglicht Aussagen darüber, welche Prozesse Optimierungspotenzial bieten. Informationen sind auf der Plattform stets aktuell, sodass alle Mitarbeitenden auf dieselbe Datenbasis zugreifen. Zudem können die Beteiligten ortsunabhängig und dennoch kollaborativ arbeiten – ein großer Wettbewerbsvorteil, den Unternehmen besonders in Zeiten zunehmender Remote-Arbeit zu schätzen gelernt haben.

Aus der Praxis: Effizienteres Ramp-Up mit dem virtuellen Zwilling

Wie virtuelle Fertigungslinien die Produktionsleistung erheblich verbessern können, beweist der französische Automobilzulieferer Faurecia, ein Unternehmen der FORVIA Gruppe. Schon vor Beginn der Entwicklung und Produktion der ersten Automobilteile kamen der 3DEXPERIENCE Twin sowie die Simulationssoftware DELMIA auf der 3DEXPERIENCE Plattform von Dassault Systèmes zum Einsatz, um einen virtuellen Zwilling der anstehenden Produktion zu fertigen. Virtuelle Tests deckten Störungen und Stellschrauben zur Optimierung auf, was sich letzten Endes positiv auf die finale Inbetriebnahme auswirkte: reduzierte Produktionsanlaufkosten und ein sichtbar effizienteres und schnelleres Ramp-Up.

Digitalisierung ist jetzt

Die aktuelle wirtschaftliche und gesellschaftliche Lage verdeutlicht, dass Unternehmen jetzt handeln und die Digitalisierung anstoßen sollten, um langfristig am Markt erfolgreich zu bleiben. Fakt ist: An welcher Stelle ein Unternehmen damit beginnt, ist individuell. Der zunehmend einfache Zugang zu Daten – der Grundlage aller digitaler Aktivitäten – sowie preiswerte Software- und Servicelösungen, machen die vernetzte Fabrik zu einem immer beliebteren Konzept. Und auch der Mittelstand greift verstärkt auf entsprechende Methoden und Werkzeuge wie Simulation, Robotik, MES-Systeme oder Virtual Reality-Anwendungen zurück. Kein Wunder, denn die Vorteile liegen auf der Hand: Digitale Prozesse unterstützen die ressourcenschonende Produktion für mehr Nachhaltigkeit, stellen Transparenz über die Abläufe in der eigenen Fabrik sicher und optimieren dadurch Arbeitsweisen hin zu mehr Flexibilität, Effizienz – ein Mehrwert für Mitarbeitende und das Unternehmen.

 

Weitere Informationen unter: https://www.3ds.com/de/

Ist der Einsatz Künstlicher Intelligenz ethisch vertretbar?

Von Jack Klaassen, Director Innovation and Technology bei Macaw

Jack Klaasen: „Ethikrichtlinien für den Einsatz von KI sind unumgänglich, weil die Technologie zu einem immer wichtigeren Faktor für den Unternehmenserfolg wird.“

Digitale Trends eröffnen viele neue Möglichkeiten. Aber sind wir uns auch darüber bewusst, welche Folgen der Einsatz neuer Technologien mit sich bringt? KI ist heute in aller Munde. Die Frage lautet: Wie können wir sie verantwortungsvoll und ethisch vertretbar nutzen?

Das Thema ist so aktuell, dass sich auch der Europäische Gerichtshof damit beschäftigt. Erst vor wenigen Tagen haben die Richter die bestehenden Regeln über den Umgang mit Fluggastdaten in enge Grenzen gewiesen. Demnach dürfen Daten nur noch 6 Monate anstatt wie vorher fünf Jahre gespeichert werden. Und der Einsatz von KI? Auch hier hat das Gericht ein Machtwort gesprochen: Für das Durchsuchen riesiger Datenmengen muss ein klarer Verdacht vorliegen und die Fahnder müssen vorher genau festlegen, nach welchen Merkmalen der Algorithmus suchen soll.

KI hat das Potenzial, sowohl für gute als auch für schlechte Zwecke eingesetzt zu werden. Eine ethische Verwendung von KI kann Unternehmen und Organisationen helfen, effizienter zu arbeiten, nachhaltigere Produkte herzustellen, schädliche Umweltauswirkungen zu verringern oder eben Kriminelle zu suchen. Wird KI jedoch auf unethische Weise eingesetzt – zum Beispiel, um gezielt Falschinformationen zu verbreiten oder zur politischen Unterdrückung – kann dies schwerwiegende negative Auswirkungen auf den Einzelnen und die Gesellschaft haben.

KI ergänzt und ersetzt die menschliche Intelligenz. Gerade in den vergangenen zehn Jahren hat KI einen rasanten Aufstieg erlebt. Sie ist heute eine vollständig integrierte und automatisierte Technologie, die Bestandteil von vielen Produkten und Dienstleistungen ist. Aber KI hat auch negative Effekte. Deshalb beginnen Unternehmen unter folgenden Aspekten, Ethikrichtlinien für ihren Einsatz zu entwickeln:

  1. Wenn der Einsatz von KI nicht von Anfang an unter dem Gesichtspunkt der Verantwortung betrachtet wird, wird sich die Entwicklung in der Zukunft verlangsamen.
  2. KI ist für Menschen nicht in ihrem vollen Umfang verständlich, deswegen müssen sie vor ihren Risiken geschützt werden.
  3. Entwickler und Nutzer von KI-Anwendungen haben die Pflicht, proaktiv einen ethischen Einsatz zu verfolgen.
  4. Organisationen können eine führende Rolle in den Diskussionen rund um KI einnehmen und ihr Unternehmen verantwortungsvoll positionieren; ein wichtiger Beitrag, um ein positives Bild von KI zu etablieren.

Ethikrichtlinien für den Einsatz von KI sind unumgänglich, weil die Technologie zu einem immer wichtigeren Faktor für den Unternehmenserfolg wird. Anwender der disruptiven Technologie haben eine moralische Verantwortung.

KI wird häufig in der Kommunikation mit den (End-)Kunden eingesetzt. Während der gesamten Customer Journey sammelt ein Unternehmen kontinuierlich Kundendaten, um ein vollständiges Bild jedes einzelnen Kunden zu erhalten. Irgendwann gibt es genug Daten, um den Kunden persönlich anzusprechen und ihn zu einer bestimmten Handlung zu bewegen. KI kann in vielen Momenten dieses Prozesses eingesetzt werden. Dabei agiert sie oft im Hintergrund, ist also nicht sichtbar.

Dieser unsichtbare Aspekt wirft die Frage nach ethischer KI auf: Ist es akzeptabel, eine Technologie zu verwenden, die nicht immer erkennbar und in der Lage ist, intelligenter als ein Mensch zu handeln? Hinzu kommt, dass KI die Absicht hat, das menschliche Verhalten zu beeinflussen.

Unternehmen müssen sich im Hinblick folgender Kriterien fragen, wie ein verantwortungsvoller Einsatz von KI möglich ist:

  • Wo setzen Unternehmen KI im Verhältnis zu menschlichen Anwendungen ein?
  • Wie setzen Unternehmen KI ein? Wie zuverlässig ist das Ergebnis? Und kann es die menschliche Interpretation ersetzen?
  • Wissen alle Beteiligten, dass das Unternehmen KI anwendet?
  • Wie kann eine verantwortungsvolle Anwendung von KI helfen, Vertrauen aufzubauen?

Wahrscheinlich sind sich nur wenige Kunden darüber bewusst, wie viele Daten sie einem Unternehmen während ihrer Customer Journey zur Verfügung stellen. Noch weniger Kunden wissen, dass sich aufgrund der Daten Kundenprofile leicht mit denen ähnlicher Personen vergleichen lassen. Durch die Kombination von Datenpunkten kann eine KI-Anwendung fehlende Kundenangaben ergänzen, um ein vollständiges Kundenbild erstellen. Eine unmögliche Aufgabe für einen Mitarbeiter.

Welche Verantwortung haben Organisationen gegenüber Ihren Kunden in dieser Hinsicht? Wie offen und transparent sollte der Umgang mit KI sein? Ist es Aufgabe des Unternehmens, die Kunden darüber zu informieren und sie zu sensibilisieren? Ist es moralisch vertretbar, KI-Algorithmen einzusetzen, um Menschen aufgrund ihres Geschlechts, einer bestimmten Herkunft oder sexuellen Orientierung zu gruppieren? Und wenn dies im Hinblick auf den Algorithmus verantwortungsvoll wäre, bleibt die Frage, wie das Ergebnis genutzt wird.

Wenn Kunden durchschauen, wofür KI eingesetzt wird und wofür die Daten verwendet werden können, sind sie schockiert. Für Unternehmen ist es daher sehr wichtig, sich der ethischen Anwendung von KI bewusst zu werden. Indem sie versprechen, verantwortungsvoll mit KI umzugehen, zeigen sie nicht nur (soziale) Verantwortung, sondern weisen auch darauf hin, dass KI eingesetzt wird, um Geschäftsziele zu erreichen. Durch Offenheit legen sie den Grundstein dafür, den Einsatz von KI transparent zu kommunizieren, noch bevor eine Regierung dies verbindlich vorschreibt. Durch Offenheit schaffen sich Unternehmen einen klaren Vertrauensvorsprung.

Whitebox KI

Wie die Künstliche Intelligenz erklärbar und nachvollziehbar wird

Seit den Diskussionen über den neuen „AI Act“-Vorschlag des EU-Parlaments ist das Thema wieder voll im Gange: Wie lässt man eine KI zu? Welche Risiken bergen probabilistische und scheinbar verschlossene Systeme? Wie kann der Nutzer dem System trauen? Das und vieles mehr sind Fragen, an denen schon lange gearbeitet wird und die bereits heute konkreter beantwortet werden können, als viele denken.

Auch wenn Künstliche Intelligenz (KI) in allermunde ist, fällt selbst in den Fachkreisen die genaue Definition solcher KI-Systeme in der Praxis und die Trennung von anderen, herkömmlichen Technologien schwer. Wesentliche Merkmale sind, dass KI-Systeme Empfehlungs- oder Entscheidungsgebend sind oder bei einer Zuordnung, Vorhersage oder Erkennung unterstützen. Wenn man in die wohl bekannteste KI-Disziplin, Machine Learning, reinblickt, stellt es nicht mehr als die rudimentäre Nachahmung des Erlernens auf Basis bekannter Fälle und dem robusten Agieren auf Basis der erkannten Zusammenhänge in neuen, bisher unbekannten Situationen ähnlicher Art dar.

Wenn man sich den aktuellen KI-Einsatz anschaut, so wird man feststellen, dass bei den meisten Anwendungen – von Bilderkennung in der Medizin bis hin zur Spracherkennung in der Industrie – ein wesentlicher Teil auf Daten aus der Vergangenheit einmalig nach Vorgaben („Labels“) trainiert wird und im Einsatz nicht mehr dazu lernt („Supervised Learning“).

Somit hält der Entwickler, also der Schöpfer der KI, das Ruder in der Hand: Er kann sowohl bestimmen, welche KI zum Einsatz kommt, mit welchen Daten und was der KI für eine Rolle im Gesamtsystem zugeordnet wird. Die praktische KI-Anwendung ist also ein präzises Werkzeug, wie ein Skalpel, das für eine wohldefinierte Handlung innerhalb eines eingeschränkten Bereichs eingesetzt wird.

Auch wenn die Nachvollziehbarkeit von tiefen künstlichen neuronalen Netzen (auch als Deep Learning bekannt) aufgrund der Komplexität beim möglichen Zurückrechnen der Ergebnisse eine Herausforderung darstellt, gibt es auch hierbei Mittel und Ansätze. Selbst im Bereich des „Unsupervised Learning“, also beispielsweise beim „Reinforcement Learning“, bei dem die Systeme eigenständig lernen (z.B. die bekannte „AlphaGo“-KI, die gegen einen Menschen in Go gewann), sind die Lernziele und der Handlungsumfang steuerbar.

Viacheslav Gromov, Gründer und Geschäftsführer von AITAD

Oft wird aber außer Acht gelassen, dass es auch von Anfang an gänzlich transparente „White Box“-Modelle – wie beispielsweise die aus dem Mathematikunterricht bekannte Entscheidungsbäume – gibt, die je nach Use Case passender oder gar performanter sind.


„In der Diskussion nach KI-Zulassung, -Akzeptanz und -Zertifizierung spielt der Begriff der Nachvollziehbarkeit, der mit Unterbegriffen wie Transparenz und Unteilbarkeit einherkommt, eine wesentliche Rolle.“


Wirkungsbereiche der KI

Wenn man bei der KI-Abgrenzung, also der Frage, wo die KI anfängt und wo sie in einem System aufhört, wo ihr Wirkbereich ist und für welche Bereiche ihr Wirken ausschlaggebend ist, beginnt, wird es schnell kompliziert. Oft kommt bei dieser Betrachtung heraus, dass die KI so gezähmt ist oder eine untergeordnete, optimierende Rolle spielt, dass über das angsteinflößende Risiko zu reden deutlich schwerer fällt, als angenommen. Schließlich wird sowohl vor als auch nach der KI-Komponente – zum Beispiel im Bild 1 bei einer Objekterkennung – noch viel gerechnet.


Ein möglicher, vereinfachter Aufbau eines KI-Hybridsystems mit verschiedenen Verarbeitungsgliedern sowie Redundanz. (Quelle: AITAD)


Es werden sowohl schon vorher Daten aufbereitet oder aussortiert als auch im Nachfolgenden das KI-Ergebnis weiterverarbeitet. Letzteres kann bedeuten, dass erst mehrere KIs zum gleichen Ergebnis kommen müssen oder kritische Einschätzungen ganz verworfen werden. In diesem Zusammenhang – wenn also die KI gemischt mit herkömmlicher Algorithmik in einem System fungiert – spricht man öfters von „KI-Hybridsystemen“. Durch die Systemarchitektur und die KI-lose Algorithmik können gegebenenfalls Fehlentscheidungen entdeckt oder von vornhinein überstimmt werden, es werden also Redundanzen im Sinne der Sicherheit (d.h. „Safety“) geschaffen.

Explainable AI – damit KI jeder versteht

Historisch gesehen ist spätestens nach den beiden KI-Wintern – erstmals wegen algorithmischen Problemen und später wegen mangelnder Rechenleistung –, also in den 2000er-Jahren, das Feld namens „Explainable AI“ größtenteils durch das Silicon Valley ernsthaft vorangetrieben worden. Das Eingeständnis, dass die noch jungen KI-Systeme selbst vom eigenen Vorgesetzten, geschweige denn dem Endanwender verstanden werden könnten und ein gewisses Technologievertrauen entstand, führte zum Ziel, KI auf verschiedensten Wegen auf Fach- und Laienebenen besser zu erklären.

Am anschaulichsten ist es in den letzten Jahren beim Thema des (teil)autonomen Fahrens gewesen: Die Technologie hat durch wenige Unfall-Schlagzeilen in einigen Ländern gesellschaftlich auf der Kippe, weil man den KI-Maschinen nicht traute. Das bestätigten auch Umfragen, bei denen die Computersteuerung selbst (kein Hackerangriff!) von den Menschen zu 48% als Angstursache genannt wird. Und dass trotz der rationalen Abschätzung, dass das Unfallrisiko durch den bisher sehr hohen menschlichen Faktor um ein Vielfaches sinken werde.

Dass diese Ängste im Wesentlichen auf einer irrationalen Ebene agieren, macht die Aufklärung und Technologieadaption nicht einfacher. Zur Aufklärung kann man z.B. Fahrern vorführen, an welchen (markierten) Bildbereichen das Fahrzeug die Routenplanung festmacht, sprich was es sieht und wie es folglich handelt („Heatmaps“). Wichtig dabei ist zu sehen, dass die KI sich tatsächlich auf den Straßenrand und die Fußgänger konzentriert und sich nicht vordergründig die Wolken im Himmel anschaut.

In der Diskussion nach KI-Zulassung, -Akzeptanz und -Zertifizierung spielt der Begriff der Nachvollziehbarkeit, der mit Unterbegriffen wie Transparenz und Unteilbarkeit einherkommt, eine wesentliche Rolle. Dabei ist der Begriff oder die Anforderung, dass die KI zu nachvollziehbaren Empfehlungen, Entscheidungen oder Selektionen kommt, je nach Personengruppe anders definierbar. Es stellt sich der Frage, auf welcher Detailebene der Endnutzer das System verstehen muss, verglichen zu einer abstrakteren Entwicklungsebene oder gar dem KI-Entwickler oder den Führungskräften des Herstellers selbst.

KI komplett nachvollziehen

Fakt ist, dass man je nach Anwendungsfall und Rolle der KI zu unterschiedlichen Mitteln im Werkzeugkasten greifen kann: Der Hersteller oder die Prüfstelle kann wesentliche Szenarien abtesten, es können Stellvertretermodelle (sog. Surrogat-Modelle) oder aber anderweitige vereinfachte Simulationen (u.a. Regressionen) aufgebaut werden. Schließlich kann man auch teilweise Modelle bis auf die Sprache und einfache Kausalitäten („Post-hoc“) herunterbrechen. Die Varianz an Erklärungstiefe und -umfang sowie Niveau ist also groß, die Wahl hängt ab vom Anwendungsszenario und dem hinnehmbaren Aufwand in der Praxis.

So betrachtet ist es also kein Wunder, dass auch der „AI Act“ eine risikobasierte Bewertung zugrunde legt. Im Wesentlichen wird wie im Bild 2 unterschieden, ob eine Transparenzvorschrift oder gar schärfere Systemanforderungen greifen. Je höher das Risiko oder die Kritikalität, desto höher der mögliche Schaden und desto mehr Maßnahmen zum Schutz und Zulassung werden gefordert.


Geplante Handlungsvorschriften je nach Risikograd eines KI-Systems im EU‘s AI Act. (Quelle: European Commission)


Hochrisikosysteme können hierbei sowohl selbstfahrende Autos als auch komplexere Bildungs- oder Rechtsberatungssysteme sein. Hier greifen die höchsten Anforderungskataloge. Bei niedrigerem Risiko ist man schon bei Chatbots oder emotionsanalysierenden Systemen. Hier werden einige Transparenzanforderungen vorgeschlagen. Und dann gibt es noch die Gruppe mit keinem bedeutenden Risiko, denkbar ist hierbei z.B. eine industrielle Anwendung, die je nach Beladung der Waschmaschine das intensivere oder das schwächere Waschprogramm auswählt. Hier ist die Schutzbedürftigkeit aller Beteiligten nicht über das Normalmaß hinaus erforderlich.

Fazit

Industrielle KI-Systeme, die Prozesse optimieren, mit Anwendern zusätzlich interagieren oder neuartige Funktionen realisieren, sind meistens mit geringem Risiko verbunden, sodass der Anwendung von „KI“ keine großen Hürden bis auf die üblichen Zertifizierungs- und Dokumentationspflichten bevorstehen. Denn eines ist allen Beteiligten klar: Würden wir noch weiter zögern, wäre die Wettbewerbsfähigkeit gefährdet, geschweige denn, wenn Fremdregulierungen übernommen werden würden.

Das Unternehmen entwickelt elektronikbezogene Künstliche Intelligenz (Embedded KI), die in Geräten und Maschinen lokal und in Echtzeit bestimmte Aufgaben übernehmen. Das Unternehmen befasst sich mit der Entwicklung und Testung von KI-Elektroniksystemen, insbesondere in Verbindung mit maschinellem Lernen im Industriekontext (v.a. Systemkomponenten). Als Entwicklungspartner übernimmt AITAD den kompletten Prozess vom Datensammeln über die Entwicklung bis hin zur Lieferung der Systemkomponenten. Die Spezialgebiete von AITAD sind Preventive/Predictive Maintenance, User Interaction und funktionale Innovationen.

Weitere Informationen: https://aitad.de 

Quellennachweis
1: Briefing: Artificial Intelligence act, T. Madiega, European Parliament, Januar 2022.
2: Studie „Erklärbare KI – Anforderungen, Anwendungsfälle und Lösungen“, Dr. Kraus et al., BMWi, April 2021
3: Autonomes Fahren, T. Fleischer et al., TATuP Ausgabe 27/02, 2018

Shared Factory in der Fashionproduktion

ito ito – Coopetition ermöglicht nachhaltigere Mode

Laut einer Untersuchung von Greenpeace werden ca. 40% aller weltweit produzierten Kleidungsstücke nie oder nur einmal getragen. Gleichzeitig verursacht die Modebranche 10 Prozent der weltweiten CO₂-Emissionen – mehr als die internationale Luftfahrt und Seeschifffahrt zusammen.

Das Geschäftsmodell der Modebranche besteht zu einer Hälfte aus Rätselraten über die Wünsche der Kund*innen und zu einer anderen Hälfte aus einem Wettbewerb um den niedrigsten Preis, der auf dem Rücken von Menschen im globalen Süden ausgetragen wird und die internationalen Klimaziele in Gefahr bringt. Das mag für manche Brands im Bereich von Fast Fashion (noch) profitabel sein – effizient ist das nicht.


Zusätzlich setzen die Corona-Pandemie und der russische Angriffskrieg in der Ukraine die langen und intransparenten Lieferketten, die dieser Überproduktion zugrunde liegen unter Druck und bringen den Einzelhandel in einer ohnehin angespannten Situation in noch größere Bredouille.

Was wäre, wenn wir die Herstellung von Mode direkt an die Nachfrage koppeln und eine Produktionsweise entwickeln könnten, die nicht nur effizienter ist, sondern auch Teil einer Kreislaufwirtschaft mit einer transparenten und lokalen Lieferkette? Was wäre, wenn wir nur das herstellen würden, was bereits verkauft wurde? Was wäre, wenn Kund*innen uns direkt sagen könnten, was sie wirklich wollen, Produkte an ihre Vorstellungen anpassen und so zu Kollaborateur*innen einer Marke würden, anstatt nur ihr/e Abnehmer*innen zu sein (oder auch nicht)?

Was wäre, wenn man 1.000 Stück von einem Entwurf oder jeweils ein Stück von 1.000 unterschiedlichen Entwürfen zum selben Preis herstellen könnte?


„Was wäre, wenn man 1.000 Stück von einem Entwurf oder jeweils ein Stück von 1.000 unterschiedlichen Entwürfen zum selben Preis herstellen könnte?“

Gastautoren: Florian und Friederike Pfeffer, ito ito

Prinzip der Shared Factory

Das ist das Prinzip der Shared Factory von ito ito. Durch die Digitalisierung der Produktion von Knitwear und die geteilte Nutzung von Ressourcen und Materialien sowie die direkte Verknüpfung von vernetzen Strickmaschinen mit einem Order-Management in einer integrierten Cloud-Lösung wollen wir mit unserem Start-Up nicht nur die oben genannten Herausforderungen meistern, sondern gleichzeitig neue Erlebnisse und Möglichkeiten für den Handel und deren Kund*innen schaffen – ob online oder im klassischen Einzelhandel.

Wenn Wettbewerber im Markt kooperieren, gemeinsame Standards entwickeln und Produktionskapazitäten teilen, lassen sich Effizienzgewinne für alle erzeugen, ohne an Differenzierung zu verlieren. Im Gegenteil: Mit einer On-Demand-Produktion können Marken, Händler*innen und Kund*innen neue Verbindungen eingehen und noch individueller werden. Wird die Shared Factory an einen Online-Store angebunden oder Teil eines neuartigen Retail-Konzepts, ist Made-to-Measure zu einem marktfähigen Preis nur noch wenige Klicks entfernt. Ebenso können neue Kollektionen in kleineren Auflagen und Capsule Collections getestet und bei anziehender Nachfrage schnell nachgeordert werden.

In einer Befragung der Unternehmensberatung McKinsey aus dem Jahr 2021 äußern 63% aller Verantwortlichen in der Modebranche die Erwartung, dass sich nennenswerte Teile der Modeproduktion in den kommenden Jahren aus dem weiteren Ausland wieder in die EU bzw. die Länder mit den größten heimischen Absatzmärkten verlagern werden. Sind in den vergangenen Jahrzehnten ganze Industrie- und Handwerkszweige aus Europa abgewandert, kann die zunehmende Digitalisierung – befeuert durch die Pandemie und instabile globale Lieferketten – eine umgekehrte Entwicklung auslösen. 

In einer Welt, in der Energiekosten und die durch den Transport ausgelösten C02-Emissionen einen wachsenden Anteil an den Produktionskosten verursachen, in der Lieferketten-Gesetze stets größere Transparenz verlangen und Kund*innen vermehrt die Frage stellen, wie und wo ihre Kleidung produziert worden ist, können lokale Lieferketten ein entscheidender Faktor für die Wettbewerbsfähigkeit werden. „Made in Germany“ wird in Zukunft nicht mehr nur für technologische Innovation und höchste Ingenieurskunst stehen, sondern zusätzlich auch für emotionale Markenwerte wie Nähe, ethische Integrität und den Optimismus, dass wir auch große Herausforderungen meistern können und unsere Chancen nutzen, wenn wir zusammenarbeiten.

Die Digitalisierung der Modeproduktion bietet aber auch neue Wege zu einer Kreislaufwirtschaft, in der es keinen Müll mehr gibt, sondern nur noch Rohstoffe für das nächste Produkt. Jedes in der Shared Factory hergestellte Produkt wird mit einer digitalen ID versehen, um Produkte nachzuverfolgen, Materialinformationen weiterzugeben und so einfacher recyceln zu können. Für den Handel planen wir, neue Geschäftsmodelle im Bereich des Wiederverkaufs von bereits verkauften Produkten in Kooperation mit den eigenen Kund*innen zu ermöglichen, die neue Besitzer*innen für ihre gebrauchten Kleidungsstücke suchen.

Bleibt noch die Gretchen-Frage: der Preis. Verbraucher*innen bekennen sich gerne zu Nachhaltigkeit und Verantwortung. Wie aber kann ich das als Kund*in erkennen und bin ich auch bereit, dafür einen höheren Preis zu bezahlen? Die Realität an der Ladentheke zeigt, dass sich das Bewusstsein der Menschen zwar langsam ändert – aber nicht in dem Ausmaß wie es notwendig wäre. Die große Herausforderung für die Industrie besteht deshalb darin, nachhaltige Produkte zu wettbewerbsfähigen Preisen herzustellen und so deren Akzeptanz zu erhöhen. Das Luxus-Segment wird den Planeten nicht retten. Andererseits dürfen wir Fast-Fashion nicht einfach so das Feld überlassen. Es ist ein verändertes Bewusstsein für den Wert von Mode notwendig und gleichzeitig müssen nachhaltige Produkte erschwinglicher werden.


„Die Automobilindustrie hat das mit der Entwicklung gemeinsamer Plattformen über Marken und Konzerne hinweg bereits vorgemacht. Jetzt sind wir dran.“

Florian und Friederike Pfeffer, ito ito

Mit ito ito richten wir uns auf das mittlere Preissegment, in dem wir eine On-Demand-Produktion wirtschaftlich attraktiv machen wollen. Je mehr Designer*innen, Label, Marken, Händler*innen und Hersteller*innen sich an der Shared Factory beteiligen, desto einfacher und schneller wird das gehen. Denn der große Hebel einer neuen Art Mode zu produzieren, ist die »Coopetition«, die Verbindung von Kooperation und Konkurrenz. Die Automobilindustrie hat das mit der Entwicklung gemeinsamer Plattformen über Marken und Konzerne hinweg bereits vorgemacht. Jetzt sind wir dran.

https://www.itoi.to/

Aufmacherbild / Personenbild / Quelle / Lizenz

Marcus_Meyer_Photography
Rene_ten_Broeke

Erfolg braucht positive Fehlerkultur

Was treibt erfolgreiche Unternehmer an? Wie gehen sie mit Fehlern um und in welchem Zusammenhang steht Fehlerkultur mit beruflichem Erfolg? Antworten auf diese Fragen liefert eine aktuelle globale Studie.

Die im Auftrag von Herbalife Nutrition durch das Marktforschungsinstitut OnePoll durchgeführte Befragung wurde global unter 8.000 Selbständigen und Angestellten in 15 Ländern durchgeführt, darunter auch 250 Befragte aus Deutschland. Im Rahmen dieser Umfrage wurden die Teilnehmer gebeten, spezifische Erfahrungen und Learnings zu beschreiben, die sich durch Fehler und Missgeschicke am Arbeitsplatz für sie ergeben haben. Denn klar ist: Fehler passieren. Aber ist das wirklich schlimm?

Aller Anfang ist schwer

Nicht jede Business-Idee ist ein Garant für unternehmerischen Erfolg. Das bestätigten auch die Befragten: Im Durchschnitt führte erst die zweite Geschäftsidee zum gewünschten Erfolg. Das kann ein harter Rückschlag für angehende Entrepreneure sein, immerhin waren 70 Prozent der Befragten ursprünglich davon überzeugt, dass ihre Geschäftsidee zu Erfolg führen wurde. Doch die Gründe, sich nicht demotivieren zu lassen und die Selbständigkeit weiter zu verfolgen, sind vielfältig. An erster Stelle steht die Leidenschaft: 61 Prozent der befragten Selbständigen bauten ihr eigenes Unternehmen auf, damit sie beruflich ihrer Herzensangelegenheit nachgehen können. Ein weiterer Grund sind die flexiblen Arbeitszeiten als eigener Chef (46 Prozent) und die Möglichkeit, den persönlichen Erfolg in der eigenen Hand zu haben (41 Prozent). Besonders inspirierend: Ein Viertel der Befragten treibt die Leidenschaft an, anderen zu helfen. Doch welche Rolle spielt die persönliche Fehlerkultur in der Selbständigkeit?



Fehler – der Weg zum Erfolg?

Mehr als die Hälfte (54 Prozent) der Befragten sind der klaren Meinung, dass man aus Fehlern lernt. Ein Großteil (86 Prozent) der befragten Unternehmer findet sogar, dass man auf dem Weg zum Erfolg keine Angst vor Fehlern haben darf. Gestützt wird dies durch die 58 Prozent der Befragten, die Fehler dafür in Kauf nehmen, um sich selbst zu verbessern. Und das scheint zu funktionieren: 83% der Befragten stimmten der Aussage zu, dass sie heute in ihrer Karriere nicht dort wären, wo sie sind, wenn sie keine Fehler gemacht hätten. Gelegentlich zu scheitern und Fehler zu machen ist auf dem Weg zum Erfolg also keineswegs etwas Schlechtes – die meisten Unternehmer (86 Prozent) sind der Meinung, dass ihre Fehler ihnen geholfen haben, in Zukunft erfolgreicher zu sein.

Tipps zur Fehlerminimierung

Auch wenn Fehler für die persönliche Entwicklung wichtig sind – Fehler, die gar nicht erst passieren, sind immer noch am besten. Deshalb wurden die Befragten basierend auf ihren Erfahrungen gebeten, angehenden Entrepreneuren Tipps zur Vermeidung typischer Fehler zu geben. Die häufigsten Empfehlungen sind:

  • Gute Selbstorganisation (42 Prozent)
  • Sich trauen, andere um Hilfe zu bitten, wenn sie benötigt wird (41 Prozent)
  • Nicht zu früh zu viele Angestellte beschäftigen (36 Prozent)
  • Ausgaben genau im Blick behalten und kein Geld verschwenden (34 Prozent)
  • Das benötige Kapital realistisch kalkulieren (34 Prozent)
  • Nicht die Arbeit unterschätzen, die in ein erfolgreiches Business fließt (32 Prozent)
  • Keine zu hohen Versprechungen machen, die am Ende nicht eingehalten werden können (32 Prozent)

“Die großen Benefits für unsere selbständigen Herbalife Nutrition Berater: Sie arbeiten zeitlich und örtlich ungebunden und sind Teil einer weltweiten Community, die ein großes Ziel verfolgt: Ernährungsgewohnheiten zu verbessern und anderen zu einem aktiven Lebensstil zu verhelfen.

Mark von der Meden, General Manager und Leiter der DACH-Region

Selbstständig mit Herbalife Nutrition

Ein weiterer wichtiger Tipp der Befragten ist, den richtigen Partner für die Selbständigkeit zu wählen. Mit Herbalife Nutrition setzen angehende Entrepreneure auf einen Partner mit über 40 Jahren Erfahrung im Vertrieb von Nahrungsergänzungsmitteln und Wellnessprodukten. Als selbständige Herbalife Nutrition Berater arbeiten sie zeitlich und örtlich ungebunden und werden Teil einer weltweiten Community, die ein großes Ziel verfolgt: Ernährungsgewohnheiten zu verbessern und anderen zu einem aktiven Lebensstil zu verhelfen.

Weitere Informationen zur Geschäftsgelegenheit bei Herbalife Nutrition unter folgendem Link:

https://www.herbalife.de/

Ausgezeichnete Projekte

Board International, führender Software-Anbieter einer All-in-One-Entscheidungsfindungsplattform, die Business Intelligence (BI), Planung und Predictive Analytics integriert, hat Unternehmen in drei Kategorien mit dem Board Customer Award für besonders innovative und inspirierende Kundenprojekte ausgezeichnet. Der World Class Transformation Award ging an BASF Agricultural Solutions, der Rising Star Award an Conrad Electronics und der Long Term Achievement Award an Gigaset.

„Wir gratulieren den drei Unternehmen ganz herzlich zum Board Customer Award. Die ausgezeichneten Kundenprojekte zeigen, wie flexibel Unternehmen unsere Software an ihren Bedarf anpassen können, um den Kundennutzen zu optimieren. Damit dienen sie als inspirierendes Vorbild für andere Unternehmen“, sagt Ansgar Eickeler, General Manager Central & Eastern Europe bei Board International.

World Class Transformation Award
BASF Agricultural Solutions: Optimierung der Vertriebssteuerung

BASF Agricultural Solutions setzt Board als zentrale Plattform für Preis- und Rabattmanagement, Planung und Forecasting ein. Ziel ist es, Vertragsverhandlungen und Vertriebsprozesse transparenter, strukturierter und planbarer zu gestalten. Dazu werden nicht nur Kundeninformationen aus ERP- und CRM-Systemen zusammengeführt, sondern auch Simulationsmöglichkeiten intensiv genutzt. Derzeit läuft in Zusammenarbeit mit dem Board-Partner celver AG der schrittweise Roll-Out in den europäischen Ländern, bevor die Niederlassungen in Asien und den USA angebunden werden.

Board ist so flexibel, dass wir die einzelnen Länderspezifika berücksichtigen können und dennoch in der Lage sind, Prozesse zu harmonisieren und zu vereinheitlichen“, freut sich Pau Vinyes, Global Pricing Manager bei BASF Agricultural Solutions.

Rising Star Award
Conrad Electronic: Umfassende integrierte Businessplanung

Conrad Electronic setzt seine Transformationsstrategie konsequent fort und bindet seine Planungs-Systeme und -Prozesse einheitlich an die Cloud an. Board bietet Conrad Electronic eine Lösung für integrierte Business Planung, einschließlich Beschaffungs-, Vertriebs-, Finanz-, strategische Planung und Finanzkonsolidierung. Die Board-Plattform bringt die notwendige Performance mit, um die großen Datenmengen zu verarbeiten, die in einem Handelsunternehmen anfallen.

„Wir haben unsere jahrelange Erfahrung aus dem Betrieb eines großen Datawarehouse auf die Cloud übertragen und setzen als datengetriebenes Unternehmen unsere digitale Transformation konsequent fort. Dazu müssen wir das digitale Mindset unserer Mitarbeitenden stärken und ihnen ermöglichen, mit den gesamten Unternehmensdaten zu planen und zu analysieren. Mit Board haben wir eine Lösung, mit der wir eigenständig entwickeln und so schnell und umfassend unsere Ziele erreichen können“, sagt Michael Stein, Senior Director Controlling bei Conrad Electronic.

Long Term Achievement
Gigaset: Controlling- und Planungssystem, das die Fachanwender selbständig betreuen und erweitern

Gigaset arbeitet seit über 10 Jahren mit Board und hat eine integrierte, umfassende Planungslandschaft und ein eigenes Business Intelligence Competence Center aufgebaut. Board ist nicht nur als strategische Komponente, sondern auch im operativen Geschäft im Einsatz. Gigaset nutzt Board u. a. für Financial und Demand Planning, Sales und Logistics Reporting, PLM Controlling, Fertigungs-Controlling und Finanzreporting.

Uns gefällt vor allem, dass Board im Fachbereich ohne aufwändige Programmierung selbständig angepasst und weiterentwickelt werden kann, ohne unsere IT oder externe Berater hinzuziehen zu müssen. Das bringt uns bei Gigaset eine höhere Agilität, bessere Performance und Kostenersparnisse von mehr als 90 % gegenüber unseren alten Systemen“, sagt Dirk Lörwink, Head of IT Business Applications bei Gigaset.

Die Award-Verleihung erfolgte auf dem Board Day 2022. Die Vorträge dieser Konferenz rund um digitale Transformation und intelligente Planung können als On-Demand-Videos hier abgerufen werden.

Nachhaltigkeit in der Stadt: Smart Grids für Smart Cities

Jarno Wagner, General Manager DACH bei Enphase Energy, beschreibt, wie virtuelle Kraftwerke durch die Vereinigung von Solaranlagen entstehen könnten und welche Vorteile dies für die Smart City haben könnte.

Die Zukunft ist smart. Vom Toaster bis zum Auto werden Gebrauchsgegenstände immer intelligenter und über das Internet untereinander verbunden. Auch unsere Städte werden immer smarter, nicht zuletzt aufgrund der Notwendigkeit, wichtige Probleme wie den scheinbar unaufhörlich zunehmenden Verkehr in den Griff zu bekommen. Smart Cities sind auf den Austausch einer enormen Menge an Daten angewiesen, um zu funktionieren. Das führt auch dazu, dass der Energieaufwand für Speicherung und Transfer von Daten beständig zunimmt. Auch in und um unsere eigenen vier Wände nimmt der Energiebedarf beständig zu. Die Einsparungen durch den Einsatz moderner Geräte werden vom Mehrverbrauch durch die steigende Zahl von Geräten, die unseren Alltag angenehmer und intelligenter gestalten, mehr als wett gemacht. Vom Router über die Klimaanlage, die Wärmepumpe, die Ladestation für Elektrofahrzeuge bis zu einer Vielzahl von Smarthome-Komponenten pro Haushalt wird die Anzahl stromverbrauchender Geräte weiter wachsen. Smart Cities sind darum keineswegs inhärent auch schon nachhaltige Städte. Im Gegenteil: Es bedarf einer intelligenten Energieversorgung, damit aus Smart Cities auch Sustainable Cities werden.

Vorteil Sonnenenergie

Immer mehr Energie, nachhaltig erzeugt oder nicht, über lange Wege von weit her in die Städte zu pumpen, ist dabei kein vielversprechender Ansatz, wie schon die Diskussionen und vielen Verzögerungen beim Bau der für die Energiewende nötigen Stromtrassen aus dem Norden in den Süden verdeutlichen. Deutlich nachhaltiger ist die Erzeugung von Energie vor Ort, dezentral über das Stadtgebiet verteilt. Hierfür drängt sich vor allen eine Technologie auf: Photovoltaik.

Photovoltaik ist nicht gleich Photovoltaik

Mit ihrer Gesetzgebung zu erneuerbaren Energien hat die Bundesregierung bereits dafür gesorgt, dass Solaranlagen bei Neubauten obligatorisch werden. Allein mit Photovoltaik auf Neubauten wird man aber nicht weit kommen. Es gilt also, auch bestehende Gebäude mit entsprechenden Anlagen auszustatten. Zudem ist nicht jedes Photovoltaiksystem gleich gut geeignet, insbesondere im Kontext Smarter Cities. Ein effizientes Szenario für Smart Cities muss letztlich Smart Grids einschließen, intelligente Netze, die flexibel zu verwalten sind und die Kombination diverser Energiequellen genauso ermöglich wie die Einbindung von Speichersystemen. Bei letzteren geht es nicht nur um dezidierte Batterien, die in Wohn- und Bürogebäuden platziert werden oder als kleine Kraftwerke für ein Stadtviertel oder eine Nachbarschaft dienen. Vielmehr werden mit der wachsenden Anzahl von Elektroautos auch diese eine zunehmende Rolle als Speciher für Strom spielen, der bei Bedarf im Haus verbraucht oder ins Netz eingespeist werden kann.

Effizienz

Jarno Wagner wirbt für den Einsatz von Mikro-Wechselrichtern, da diese der Solaranlage Intelligenz verleihen.

Nicht nur bei der Verwaltung von Photovoltaiksystemen gibt es große Unterschiede, sondern auch bei der Effizienz. Das gilt insbesondere in Städten, wo Photovoltaik-Module beispielsweise auch an Fassaden angebracht werden, die zudem nicht immer optimal gen Süden ausgerichtet und durch andere Gebäude in der Umgebung unterschiedlich stark beschattet sind. Wie effizient eine Photovoltaikanlage unter diesen suboptimalen Bedingungen arbeitet, hängt wesentlich von einer grundsätzlichen technischen Entscheidung ab: Anlagen mit Mikro-Wechselrichtern arbeiten effizienter als solche mit einem zentralen Wechselrichter.

Wechselrichter sind erforderlich, weil Photovoltaik-Module Sonnenenergie in Gleichstrom umwandeln. Damit dieser genutzt werden oder ins öffentliche Netz eingespeist werden kann, muss er in Wechselstrom umgewandelt werden. Diese Aufgabe übernehmen Wechselrichter. Bei einer Architektur mit zentralem Wechselrichter werden sämtliche (oder doch eine große Anzahl) Module an einen großen, zentralen Wechselrichter angeschlossen. Beim Einsatz von Mikro-Wechselrichtern wird jedes Photovoltaik-Modul mit einem kleinen Wechselrichter ausgestattet. Zusammen bilden sie ein Minikraftwerk, das weitgehend selbständig operieren kann. Das führt auch dazu, dass jedes Modul sich optimal an die jeweiligen Lichtverhältnisse anpasst, während bei einem zentralen Wechselrichter beispielsweise die Beschattung nur eines Moduls die Produktion aller Module beeinträchtigt, die an denselben Wechselrichter angeschlossen sind. Selbst bei optimaler Ausrichtung der Module, die in der Stadt nur äußerst selten gegeben ist, operieren Anlagen mit Mikro-Wechselrichtern effizienter als Anlagen mit zentraler Architektur. Zudem steigt mit Mikro-Wechselrichtern die Fläche, die überhaupt für Photovoltaik nutzbar ist.

Safety first

Ein weiterer Vorteil von Mikro-Umwandlern, der in Städten im Allgemeinen und bei denkmalgeschützten Gebäuden insbesondere eine wichtige Rolle spielt, ist der Brandschutz. Wie erwähnt sind die Photovoltaik-Module beim Einsatz eines zentralen Wechselrichters in Serie geschaltet. Abhängig von der Anzahl der Photovoltaik-Module kann dadurch ein Gleichstrom-Hochspannungsstrang entstehen, der durchaus über 600 Volt Spannung führen kann. Diese Hochspannung birgt nicht nur Gefahren für die Installateure, sondern sorgt auch für Sicherheitsprobleme im Betrieb. Aufgrund einer beschädigten Isolierung oder eines schlechten Kontakts kann die Hochspannung einen Störlichtbogen verursachen, der mehrere Tausend Grad heiß werden kann. Mikro-Wechselrichter jedoch operieren mit 230V Wechselstrom, der durch jedes auf dem Dach montierte Solarmodul fließt. Sie sind also genauso sicher wie handelsübliche Haushaltsgeräte.

Intelligenz im Netz

Damit das skizzierte Szenario Wirklichkeit werden kann, müssen die einzelnen Elemente des Smart Grids weitgehend autonom funktionieren, und das Gesamtsystem muss sich ebenfalls auf intelligente Weise selbst regulieren können. Anderenfalls werden sich Fälle häufen, wie sie heute schon vorkommen können und zuweilen für Schlagzeilen sorgen. So berichtete die niederländische Tageszeitung Algemeen Dagblad kürzlich davon, dass immer wieder Photovoltaik-Anlagen in kompletten Wohngebieten aus Sicherheitsgründen von Energieunternehmen abgeschaltet werden, weil deren Netze den erzeugten Strom nicht mehr aufnehmen können. Um das zu verhindern, ist es erforderlich, dass möglichst viele Elemente des Smart Grid mit der notwendigen Intelligenz ausgestattet sind und dafür entwickelt wurden in einem Smart Grid mit anderen Geräten zu kommunizieren, sodass viele Geräte z.B. auch als zwischenzeitliche Speicher für Strom fungieren können, der an ganz anderer Stelle im Smart Grid erzeugt wurde, das Elektroauto von Herrn Maier z.B. als Speicher für den Strom, den die Photovoltaikanlage von Frau Mustermann erzeugt. Letztlich werden dezentrale Community-Marktplätze entstehen, integrierte Systeme, in denen die Geräte autonom darüber entscheiden, wo und zu welchem Zeitpunkt möglichst kostengünstig Strom bezogen wird. Und nicht zuletzt muss am Ende des Tages auch die Abrechnung für den gelieferten und verbrauchten Strom stimmen.

Ausblick

Es mag überraschen, aber lange nicht alle Photovoltaikanlagen sind mit der nötigen Intelligenz, Modularität und Konnektivität ausgestattet. Es ist ein wenig wie vor etlichen Jahren in der IT. Als das Internet aufkam, waren viele Anwendungen nicht für den Einsatz im Web geeignet, weil sie entwickelt wurden, bevor das Internet aufkam. Diese Legacy-Systeme halten sich zum Teil zwar erstaunlich lange, sorgen aber immer wieder für Probleme. Auch die Portierung von einer alten Plattform zu einer Internet-Anwendung ist zwar möglich, aber das Ergebnis bei weitem nicht so überzeugend wie eine von Grund auf für das Internet entwickelte Plattform. Ähnliches gilt für Photovoltaiksysteme: die meisten wurden nicht entwickelt, um in einem Smart Grid effizient zu operieren. Deshalb ist beim Aufbau eines Smart Grids besondere Sorgfalt bei der Auswahl auch der Photovoltaik-Komponenten gefordert. Nur mit smarten Komponenten lassen sich Smart Grids und somit Smart Cities realisieren.


Bildquelle / Lizenz Aufmacher:

Photo by Giorgio Trovato on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.