Nachhaltigkeit – kleine Optimierung mit großer Wirkung

Von Sebastian Zoll*

Nachhaltiges Handeln ist für viele Unternehmen inzwischen eine Selbstverständlichkeit und fest in den Firmenwerten verankert. Damit werden sie einerseits ihrer Verantwortung gegenüber der Umwelt und zukünftigen Generationen gerecht, was Kunden, Mitarbeiter, Partner und Investoren zunehmend einfordern. Andererseits ergeben sich aus den Nachhaltigkeitsbemühungen oft erhebliche Einsparpotenziale, etwa bei den Energiekosten, die angesichts steigender Strom- und Gaspreise zu explodieren drohen. Beim Kauf neuer IT-Hardware achten Unternehmen deshalb auf Energieeffizienz oder sie versuchen, ihre Systeme durch den Aufbau Cloud-basierter Umgebungen optimal auszulasten.

Darüber hinaus sind sie intensiv auf der Suche nach weiteren Stellschrauben, um Systeme effizienter zu nutzen, aber auch um IT-bezogene Prozesse zu beschleunigen und IT-Personal zu entlasten. Eine Möglichkeit, diese Dinge geschickt zu verknüpfen, ist eine Optimierung des Bereitstellungsprozesses von Betriebssystem-Images. Im ersten Moment mag sich das nicht besonders spektakulär anhören, doch in einer solch kleinen Verbesserung steckt einiges an Potenzial. Immerhin stellen wir in Gesprächen mit Kunden regelmäßig fest, dass sie neue Rechner oder virtuelle Maschinen mit einem vorbereiteten Master Image aufsetzen, das nicht sehr aktuell ist. Dadurch müssen sie die einzelnen Systeme anschließend immer noch auf den neuesten Stand bringen, sprich: Updates und Patches herunterladen und installieren, was Arbeits- und Rechenzeit kostet. Je nachdem wie häufig neue Systeme bereitgestellt werden, kommen da schnell einige Stunden zusammen.

Sebastian Zoll erläutert Möglichkeiten, wie Energieeinsparungen gerade aktuell umsetzbar sind.

Wir selbst haben das in unserem SVA-Labor lange so gemacht und vor Schulungen die Rechner der Teilnehmer nach Einspielen unseres Master Images von Red Hat Enterprise Linux manuell aktualisiert. Den Aufwand wollten wir gerne reduzieren, weil er kontinuierlich größer wurde – schließlich kommen bei einem gut gepflegten Betriebssystem im Laufe der Zeit immer mehr Updates hinzu. Zudem ist es für die Mitarbeiter auch nicht allzu spannend, die gleiche Tätigkeit zehn oder fünfzehn Mal hintereinander durchzuführen. Daher aktualisieren wir das Master Image mittlerweile regelmäßig automatisch und haben nach dessen Installation stets ein aktuelles Schulungssystem, das keiner Nacharbeiten mehr bedarf. Das dafür notwendige Werkzeug bringt Red Hat Enterprise Linux mit dem „Image Builder“ bereits mit.

Interessant ist ein solcher Bereitstellungsprozess auch für die Rechner neuer Mitarbeiter, bei denen das Master Image neben dem Betriebssystem alle benötigten Anwendungen inklusive aller Updates umfassen sollte. Oder für virtuelle Maschinen, von denen selbst kleinere Hoster und Service-Provider oft mehrere täglich aufsetzen müssen. Dass es weniger Arbeit macht, ein einzelnes Image zu aktualisieren statt unzähliger Rechner oder VMs, ist offensichtlich. Dass sich überdies signifikant Energie sparen und der CO2-Fußabdruck des Unternehmens reduzieren lässt, verdeutlicht ein Rechenbeispiel.

Angenommen ein Unternehmen stellt täglich 15 VMs bereit und nutzt einen Server mit zwei Intel-CPUs vom Typ Xeon Gold 5218, der eine maximale Leistungsaufnahme von 560 Watt hat. Dann bedeutet das bei 200 Arbeitstagen und einer Bereitstellungszeit von 15 Minuten pro VM: 200 Arbeitstage x 15 VMs x 15 Minuten = 49.500 Minuten beziehungsweise 825 Stunden, in denen der Server arbeiten muss. Bei einer Leistung von 560 Watt ist das ein Stromverbrauch von 462 kWh pro Jahr. Sinkt die Bereitstellungszeit durch das stets aktuelle Master Image auf eine Minute, sieht die Rechnung so aus: 200 Arbeitstage x 15 VMs x 1 Minute = 3.300 Minuten beziehungsweise 55 Stunden, und damit einen Stromverbrauch von 30,8 kWh pro Jahr. Die Einsparung liegt also bei 431,2 kWh. Einen Kühlschrank, der 75 kWh pro Jahr verbraucht, könnte man damit fast sechs Jahre lang betreiben, oder mit einem Elektroauto – durchschnittlicher Verbrauch etwa 15 kWh pro 100 Kilometer – mehr als 2.800 Kilometer zurücklegen.

Zugegebenermaßen vereinfacht diese Rechnung den Sachverhalt ein wenig – schließlich läuft der Server nicht unter Volllast und die regelmäßige Aktualisierung des Master Images verbraucht ebenfalls Strom. Allerdings brauchen Unternehmen für das Master Image nur einmalig die seit der letzten Aktualisierung hinzugekommenen Updates herunterladen und ergänzen. Das geht deutlich schneller und erfordert weniger Rechenleistung sowie Bandbreite als der Download recht umfangreicher Pakete mit Updates, die sich über Monate oder Jahre angesammelt haben, für jede einzelne VM. Dass sich viel Arbeitszeit und Energie sparen lässt, sollte deshalb klargeworden sein.

Letztlich zeigt dieses Beispiel, wie Unternehmen auch mit kleinen Verbesserungen etwas für die Umwelt tun können und zugleich ihre Mitarbeiter und Budgets entlasten – ganz ohne große Investitionen oder langwierige Projekte. Es lohnt definitiv, bestehende Prozesse infrage zu stellen und gezielt nach Optimierungsmöglichkeiten zu suchen, selbst wenn sie auf den ersten Blick eher unscheinbar wirken.

* Sebastian Zoll ist System Engineer bei SVA System Vertrieb Alexander


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Effizienzoffensive durch digitale Transformation

Geopolitische Krisen und gesellschaftlicher Wandel prägen die aktuell turbulenten Zeiten und das hohe Maß an Unsicherheit erschwert zukünftige Entscheidungsfindungen bei Unternehmen. Es scheint, als sei der Dauerkrisenmodus zur neuen Realität geworden. Effizienzsteigerungen und Kosteneinsparungen müssen nun in den Fokus rücken. Die digitale Transformation ist hierbei ein Schlüsselelement, schreibt Markus Fost.

Geopolitische Krisen und gesellschaftlicher Wandel – Unternehmen in turbulenten Zeiten mit hoher Unsicherheit

Der Krisenmodus wird zur neuen Realität. Ukraine-Krieg, Energie-Krise, Supply-Chain-Krise, Inflation und der Klimawandel sind die derzeit prägenden Schlagworte. Kein hoffnungsvoller Zustand, hatte man sich doch nach der Corona-Pandemie und den verordneten Lockdowns auf eine Erholungsphase eingestellt. Nicht nur die aktuellen Krisenherde sind eine Herausforderung, auch die Gesellschaft befindet sich im Zeitgeist des Wandels und bürgt Unternehmen weitere Ansprüche auf. Neue Arbeitsformen und New Work setzen sich durch, der Fachkräftemangel weitet sich aus und der Nachhaltigkeitsanspruch der Konsumenten fordert Unternehmen zu teils starken Veränderungen in der Wertschöpfungskette.

Abbildung 1: Turbulente Zeiten – Unternehmen in Unsicherheit

Die globale Wirtschaftslage kühlt sich ab – Implikationen für Unternehmen und Verbraucher

Die Wachstumsaussichten sind flächendeckend negativ. Kontinuierlich passen Wirtschaftsinstitute ihre Prognosen nach unten an. Getrieben von steigenden Energiekosten und einem verknappten Angebot an Vorprodukten und Gütern durch gestörte Lieferketten, erreicht die Inflation immer neue Höchststände. Vor dem Hintergrund von mehr als zwei Jahren Corona und eingeschränkten Möglichkeiten für Konsum, Freizeit und Reisen, entlädt sich nun die aufgestaute Nachfrage, die nur schwer bedient werden kann. Steigende Energiekosten und die zunehmende Gefahr eines Gaslieferstopps durch Russland zwingen Unternehmen auf alternative Energieformen zu wechseln, was kurzfristig Investitionskapital bedarf.

Abbildung 2: IMF Wachstumsprognosen für das Jahr 2022

Das Inflationsthema treibt auch das Zinsniveau. Zentralbanken versuchen mit dem Instrument erhöhter Zinsen die Inflation einzudämmen. Auf europäischer Ebene ist kürzlich der erste Zinsschritt erfolgt und auch die US-amerikanische Federal Reserve hat bereits deutliche Zinserhöhungen vorgenommen. Allein die Ankündigung einer Trendumkehr hat die Aktienmarktkurse von wachstumsorientierten Aktien um mehr als 30% einbrechen lassen. Auch Bauinvestitionen haben stark abgenommen. Kapital kostet nun wieder Geld und die Zeit der irrationalen Übertreibungen ist vorbei. Vergessen werden darf dabei nicht, dass die Corona-Pandemie noch nicht ausgestanden ist und die Verbreitung sowie das Aufkommen von Mutationen die Gefahr neuer restriktiver Maßnahmen auslösen können, die das gesellschaftliche Leben wieder stark ausbremsen können.

Abbildung 3: Implikationen für Unternehmen durch Krisen und Wandel

Die Notwendigkeit – Effizienz und Wachstum durch digitale Transformation

Effizienzsteigerungen und Kosteneinsparungen müssen nun in den Fokus rücken, um die aktuelle Krisenphase zu überstehen und gestärkt in die hoffentlich bald aufkommende Wachstumsphase zu starten. Digitalisierung ist dabei ein Schlüsselelement und darf keineswegs als Luxusgut für Zeiten des Wachstums angesehen werden. Digitalisierung kann maßgeblich dabei helfen, die gesamte Wertschöpfungskette eines Unternehmens deutlich zu automatisieren, effizienter und transparenter zu machen. Eine Vielzahl an Tools kann analoge und zeitintensive Tätigkeiten automatisieren und dies ist in nahezu allen Wertschöpfungsphasen möglich.

Die Frage ist, wie man am sinnvollsten dabei vorgeht. Ausgangspunkt für eine Effizienzoffensive durch digitale Transformation ist ein Digital Health Check, um in kurzer Zeit einen Einblick in den digitalen Reifegrad zu erhalten und Quick Wins zur sofortigen Umsetzung abzuleiten. In einem zweiten Schritt werden einzelne Prozesse der Wertschöpfungskette intensiv analysiert und Optimierungen ausgearbeitet. Ist die Effizienzoffensive als Basis gelegt, kann der Fokus auf Wachstumsinitiativen gelegt werden. Die Neuausrichtung bzw. Ergänzung des bisherigen Geschäftsmodells in Richtung Plattform-Geschäftsmodell ist dabei eine Option. Ergänzend besichert und stärkt eine E-Commerce Distributionsstrategie die Position im Gesamtmarkt. Erforderlich ist dies aufgrund der kontinuierlichen Verschiebung des Marktvolumens von Offline- hinzu Online-Kanälen. Neue agile Online-Spieler nehmen dabei etablierten Anbietern kontinuierlich Marktanteile ab. Um Kunden optimaler zu bedienen – sowohl im B2C als auch B2B Segment – eignet sich die Etablierung eines Digital Sales Center.

Abbildung 4: Effizienzimpulse durch digitale Transformation

Sowohl Effizienz- als auch Wachstumsinitiativen leiten starke Veränderungen im Unternehmen ein, die durch Projekte umgesetzt werden. Projekte stehen dabei immer im Zielkonflikt von Zeit, Geld und Qualität. Zusätzlich unterliegen sie zahlreichen Gefährdungsfaktoren, worunter auch ein schlechtes oder mangelndes Projektmanagement anzutreffen ist. Besonders vor diesem Hintergrund und der Tatsache, dass weltweit nur 35% aller Projekte erfolgreich sind, sollte der Fokus auf ein qualifiziertes und strukturiertes Projektmanagement gelegt werden. Ein qualifiziertes Projektmanagement stellt sicher, dass das Ergebnis einen Mehrwert für das Unternehmen liefert und zur Besicherung der Zukunft beiträgt.

Abbildung 5: Bedeutung von Projektmanagement

Über den Autor:

Markus Fost, MBA, ist Experte für E-Commerce, Online Geschäftsmodelle und Digitale Transformation mit einer breiten Erfahrung in den Feldern Strategie, Organisation, Corporate Finance und der operativen Restrukturierung. Seine Projektthemen erstrecken sich von der Entwicklung bis hin zur Umsetzung von E-Commerce Strategien für Markenhersteller und den Handel. Zu seinen Kunden zählen multinationale Konzerne und mittelständische Unternehmen mit einem breiten Branchenumfeld: Automotive, Bauwirtschaft, Fashion, Industrie- und Konsumgüter, Handel und Medien.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

FuckUp Nights: Mut zur neuen Fehlerkultur

Michael Henninger hat bei Sulzer zu den FuckUp Nights eingeladen. Welche Motivation dahinter steckt und wie eine neue Kultur des Scheiterns etabliert werden kann, beschreibt er im folgenden Gastbeitrag. Die dabei gewonnenen Learnings werden aktiv genutzt, um das Unternehmen voran zu bringen.

Wir bei Sulzer haben uns aktiv für eine offene und transparente Fehlerkultur entschieden. Das hat ganz praktische Gründe. Um es einmal plakativ auszudrücken: „Der Deutsche hat Angst vor Fehlern!“ Tief sitzt die Angst, etwas falsch zu machen. Da kommen ganz schnell Erinnerungen aus der Schule, bei der jedes Abweichen Punktabzug bedeutete. Mit der daraus gelernten Anpassung an „richtig“ und „falsch“ lässt sich zwar sehr gut mit dem Strom schwimmen. Was damit nicht so gut gelingt, ist das Lösen von bisher nicht gekannten Problemen. Dafür braucht es etwa Experimentierfreudigkeit und eine gewisse Gelassenheit, wenn etwas mal nicht sofort funktioniert.

Da viele von uns mit diesem Gefühl der Gelassenheit im Umgang mit Fehlern nicht aufgewachsen sind, beleben und trainieren wir ihn aktiv bei Sulzer jeden Tag in unseren Projekten. Und um das Bewusstsein für diesen positiven Umgang unternehmensweit weiter zu etablieren, tauschen wir uns regelmäßig dazu aus – im Rahmen einer so genannten FuckUp Night in unserer agilen Community.

Was ist eine FuckUp Night?

  

FuckUp Nights sind seit einigen Jahren ein populäres Phänomen und sie werden in entsprechenden Events regelrecht zelebriert. Das Sprechen über (unternehmerische) Fehler für eine neue Kultur des Scheiterns, ist in Mode gekommen. Aber gerade in Deutschland tut man sich oft noch immer noch schwer im Umgang mit Fehlern und Rückschlägen.

Oberstes Ziel einer FuckUp Night ist das Lernen aus den Fehlern anderer und das Akzeptieren der eigenen. Dabei soll das Ganze in einer bewusst lockeren und humorvollen Atmosphäre geschehen. Mit diesem Vorbild haben wir unsere Agile Community zu einer firmeninternen FuckUp Night eingeladen und dabei gelacht, spannende Fragen gestellt und interessante Erkenntnisse gewonnen.

Was haben wir dabei erlebt?

Scheitern tut weh und kann Angst machen: Das zu akzeptieren, kann zu einer gleichzeitigen Gelassenheit auf einer tieferen Ebene führen.

Übers Scheitern kann man häufig erst im Nachhinein lachen: Jeder von uns lacht heutzutage über Anekdoten aus seiner Kindheit. Wir können drüber lachen, weil es vorbei ist. Wenn wir uns in aktuellen Schwierigkeiten befinden, können wir uns bewusst machen: „Kannst du noch nicht drüber lachen, ist das Thema noch nicht abgeschlossen.“


„Blaupausen über Bord werfen und stattdessen experimentieren – das öffnet neue Horizonte: Mal etwas Neues zu versuchen an Stellen, wo es noch nicht so gut klappt.“

– Michael Henninger

Beim Scheitern stellen wir uns selbst in Frage: Das hilft uns dabei, persönlich zu wachsen. Scheitern bedeutet einen Weg gefunden zu haben, wie etwas nicht funktioniert. Wir brauchen noch einen weiteren oder mehrere Versuche.

Mein Scheitern beeinflusst in der Regel auch mein Umfeld: Wenn ich aktiv mit meinen Fehlern und Irrtümern umgehe, kann das als Vorbild für meine Kollegen dienen.

Das klingt nun erstmal gar nicht sehr positiv, jedoch ist es ein zentraler Bestandteil für das Scheitern und dessen Akzeptanz. Wir bei Sulzer haben bereits einige Erkenntnisse aus unseren Fehlern und Irrtümern gezogen. Diese stellen wir im Folgenden vor:

Aus Fehlern gemeinsam lernen

Fehler sind ein wichtiger Impuls für positive Entwicklungen: Viele Wege zu kennen, wie etwas nicht funktioniert – das nennt man Erfahrung. Die wird im Berufsleben geschätzt. Wenn von ihnen berichtet und gelernt wird, können andere sich davon inspirieren lassen.

Blaupausen über Bord werfen und stattdessen experimentieren – das öffnet neue Horizonte: Mal etwas Neues zu versuchen an Stellen, wo es noch nicht so gut klappt. Das hilft dabei, das eigentliche Problem besser zu verstehen. Selbst wenn das Experiment nicht sofort Früchte trägt. Man gewinnt zumindest eine Erfahrung.

Fehler macht man nur auf bekannten Wegen. Wer Neues ausprobiert und wagt, begeht nur Irrtümer. Für uns war eine wichtige Erkenntnis die Unterscheidung zwischen Fehler und Irrtum. Denn nicht alles, was schiefläuft, ist ein Fehler. Stellen wir uns bisher unbekannten Situationen, sind wir darauf angewiesen uns vorzutasten. Das zu verstehen, bringt Gelassenheit im Umgang mit Neuem.

Irrtümer von anderen haben wir alle in ähnlicher Form erlebt – wir sind mit unserem Scheitern also in guter Gesellschaft: Dies ist ein zentraler Punkt von FuckUp Nights. Zu verstehen, dass man mit seinen Fehlern und Irrtümern nicht allein ist und dass andere, auch wenn es vielleicht im Alltag nicht so aussehen mag, ebenfalls auf Irrwegen unterwegs sind.

Schenke der Stimme in deinem Kopf nicht so viel Glauben: Unser Gedankengenerator produziert meist viel schlimmere Bilder als es dann in Wirklichkeit ist: Zu verstehen, dass unser Gedankengenerator automatisierte Gedanken produziert, kann uns helfen, entspannter mit diesen Phantasien umzugehen. Es sind nicht wir als Personen, die diese Gedanken produzieren. Es ist ein Automatismus. Genauso wie wir es nicht sind, die unser Herz schlagen lassen. Es passiert auch einfach.

Wer sich häufiger etwas traut, um sich zu verbessern, wird mit der Zeit mutiger: Wer mit kleinen Experimenten beginnt: „Heute probiere ich mal einen neuen Weg nach Hause“ und sich mit der Zeit steigert, setzt eine mentale Positivspirale in Gang. Auf diesem Weg passieren auch Irrtümer. Doch man bekommt Erfahrung im Umgang damit. So gelangt man zu gelasseneren Reaktionen auf negatives Feedback.

Verbesserungen aus dem Feedback sind Gold wert: Sich Rückmeldungen anzunehmen und daraus zu lernen kann nur gelingen, wenn man diese auch bekommt. Es ist Teil der Kultur bei Sulzer, nach Feedback zu fragen.

All dies sind Learnings aus individuellen Erkenntnissen. Doch es gibt noch mehr…

Die Experimentierfreudigkeit der Organisation weiter stärken

Je mehr Menschen aktiv eine neue Fehlerkultur bei Sulzer leben, desto mehr verändert sich auch die Unternehmenskultur – also das Habitat der Mitarbeitenden.

Neue Mitarbeitende werden automatisch von der neuen Fehlerkultur „beeinflusst“ und merken, dass sie durch ihr Umfeld weitergehende Freiheiten haben, sich auszuprobieren. Das erfordert weniger Mut des Einzelnen, weil ja auch alle anderen experimentieren. Die ganze Organisation wird mutiger und experimentierfreudiger. Wir bei Sulzer wollen diese Entwicklung weiter stärken.

Denn wir glauben, dass viele kleine Fehler und Irrtümer wesentlich kostengünstiger und leichter zu korrigieren sind, als die großen Fehler. Viele Experimente der Mitarbeitenden und daraus resultierendes Feedback ermöglicht Sulzer, seine Position am Markt ständig zu überprüfen und sich schnell an Kundenwünsche und Marktveränderungen anzupassen.


Über den Autor:

Michael Henninger ist seit fast 4 Jahren bei Sulzer und Leiter der Delivery Unit Project Management & Agile. Nach dem Informatik-Studium hat der 49-jährige über unterschiedliche Stationen seine Passion für Projektmanagement und Agilität entdeckt und über die Branchen Medien, Retail bis hin zu Automotive weiterentwickelt. Hierdurch ist auch der Antrieb für Veränderungsprozesse und das stetige Arbeiten an Verbesserung, Teil seiner Überzeugung geworden. Hier finden Sie weitere Informationen


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

KI-Sprachmodelle

Gastbeitrag von Martin Möller-Wettingfeld

KI-Sprachmodelle revolutionieren die Welt des digitalen Contents

Wenn Sie sich gelegentlich mit digitalen Innovationen, mit künstlicher Intelligenz bzw. Machine Learning, oder auch nur mit digitalem Content auseinandersetzen, werden Sie immer häufiger auf Begriffe wie „KI-Sprachmodelle“, „NLG“ „OpenAI“, „GPT-3“ oder „GPT-X“ stoßen. Wir alle registrieren, dass dabei immer von etwas ganz Großem die Rede ist. Dieser Artikel soll Ihnen helfen zu erahnen, was das „Große“ an den KI-Sprachmodellen ist und warum Sie sich nicht früh genug damit befassen können.

Von künstlicher Intelligenz und natürlicher Sprachgenerierung

Artificial Intelligence (AI) bzw. Künstliche Intelligenz (KI), gibt es nicht. Keine Software der Welt hat Urteilsfähigkeit, Verstand oder gar Vernunft und kann deswegen auch nicht intelligent sein. Trotzdem begleiten uns die beiden Kürzel AI bzw. KI permanent, weil sie seit vielen Jahren das gesamte Forschungsfeld beschreiben, irgendwie gut klingen und es sich eingebürgert hat lernfähige Algorithmen als KI zu bezeichnen.

Bei der Erforschung und der Suche nach künstlicher Intelligenz hat man nämlich festgestellt, dass „Maschinen“, oder besser Algorithmen, in gewisser Weise lernen können. Sie kommen bei der Analyse von Daten durch Mustererkennung und Trial-and-Error zu immer besseren Ergebnissen und verbessern sich dabei selbst. Das nennt man Machine Learning (ML) und es ist ein Teilbereich der Künstlichen Intelligenz.

Es liegt in der Natur digitaler Prozesse, dass man sie praktisch unendlich skalieren kann – so auch beim Machine Learning: Die Lern-Schleifen können in Sekunden millionenfach durchlaufen werden, wenn der Rechner bzw. das Rechenzentrum oder der Rechenzentrumsverbund genug Leistung hat. Denn das Internet besteht aus Billionen von Texten, die sich gut durchsuchen und analysieren lassen. Die KI (also der lernfähige Algorithmus) versteht dadurch, dass es sich z.B. bei „Golf“ um eine Küstenform, einen Sport oder um ein Auto handeln kann. Der Kontext, z.B. eines Sportportals, gibt der KI Auskunft darüber, dass es mit hoher Wahrscheinlichkeit um die Sportart geht. Das ist Machine Learning auf der Basis von Texten und der Output dieses ML Prozesses ist ein natürlichsprachlicher Text. Dessen Generierung bezeichnet man als Natural Language Generation (NLG). Dafür gibt es verschiedene Verfahren (s.u.).

Die KI produziert also automatisch Text bzw. Content. Und das in Sekundenbruchteilen und unter Berücksichtigung unfassbar vieler Quellen. Nimmt man nun ein riesiges Rechenzentrum und lässt darin solch eine lernfähige Software unendlich viele Texte analysieren und bringt ihr bei, wie diese Informationen miteinander verknüpft werden, um zu einem Thema Fragen beantworten zu können oder gleich ganze Texte zu formulieren, hat man ein KI-Sprachmodell.


Unser Autor

Martin Möller-Wettingfeld,
Director Business Development bei Valtech Germany


Das (und anderes) wollten Elon Musk, Peter Thiel und Co. im großen Maßstab machen und haben OpenAI finanziert. Das Unternehmen hat den Generative Pre-trained Transformer (GPT-3) entwickelt und letztes Jahr für die kommerzielle, kostenpflichtige Nutzung via Schnittstelle freigegeben. Heute können KI-Sprachmodelle im Allgemeinen und GPT-3 im Besonderen plötzlich viel mehr, als man ursprünglich beabsichtigt hatte. So viel, dass die Beherrschung dieser Technologien in den nächsten Jahren entscheidend werden könnte. Deswegen gibt es auch in Europa bzw. Deutschland ambitionierte Pläne, sich mit einem eigenen KI-Sprachmodell – Arbeitsname GPT-X – zu positionieren, um nicht wieder einen Teil der digitalen Souveränität aus der Hand zu geben.

Die 1. Generation der automatischen Textgenerierung – eigentlich noch ein Workaround

Die erste Generation der automatischen Textgenerierung hat nicht wirklich komplette Texte generiert, sondern Text-Templates, also von Menschen geschriebene Teilsätze, regelbasiert zusammengesetzt und ggf. modifiziert oder angepasst. Es ist leicht nachzuvollziehen, dass dadurch ein relativ großer initialer Aufwand entsteht und nicht alles damit machbar ist.

Aber für bestimmte Szenarien hat sich dieser Aufwand gelohnt bzw. lohnt sich noch. Zum Beispiel für Wetter- oder Sportmeldungen, bestimmte Arten von Beschreibungen (z.B. Produktbeschreibungen) oder für kürzere Reports war und ist die automatische Textgenerierung der ersten Generation schon sehr effektiv. Große Medienunternehmen in den USA erstellen z.B. verschiedene Arten von Meldungen (Sport, Wetter, Verkehr, Börsendaten) schon seit Jahren mit solchen Systemen. Allerdings war das Spektrum der Einsatzmöglichkeiten grundsätzlich eher begrenzt.

Die 2. Generation – ein wichtiger evolutionärer Schritt für die automatische Textgenerierung

Das Berliner Startup 2txt hat sehr viel Know-how im Bereich der Computerlinguistik aufgebaut und eine rein algorithmische Textgenerierung entwickelt, die in der Lage ist aus Daten und Begriffen vollautomatisch hochwertige Texte – ohne Verwendung von Templates – zu generieren.

Vereinfacht gesagt hat 2txt die deutsche Sprache teilweise in einen Algorithmus überführt. Templates waren somit Geschichte und dieses erste echte, regelbasierte Sprachmodell war und ist in der Lage völlig neue Use Cases, quasi out-of-the-box, zu realisieren. Jeder einzelne Text wird auf der Basis einer programmierten, allgemeinen Grammatik sowie themenspezifischen Wortsammlungen und Ontologien in Realtime generiert.

Die 3. Generation – KI-Sprachmodelle bringen den Big Bang für die automatische Textgenerierung

Auf der Grundlage von künstlichen, neuronalen Netzen und Machine Learning ist zunächst GPT-2 und später GPT-3 entstanden. GPT-3 ist ein KI-Sprachmodell und kann Unmengen an Textdaten erfassen und analysieren. Es erkennt dabei Strukturen, Zusammenhänge und Kontexte und nimmt Gewichtungen auf statistischer Grundlage vor.

So kann man dem System z.B. die Frage stellen „Wer ist Olaf Scholz?“ und man wird die Antwort erhalten, dass Olaf Scholz ein deutscher Politiker und momentan Bundeskanzler ist. Dass Olaf Scholz 170 cm groß und sein Bruder Arzt ist, kann die KI auch erkennen. Aber es wird seltener in Texten erwähnt und deswegen untergewichtet.

GPT-3 kann aber auch einen begonnenen Satz sinnvoll beenden. Lautet der Input beispielsweise „Olaf Scholz und Angela Merkel…“, so ergänzt das KI-Sprachmodell den Satz in etwa so: „Olaf Scholz und Angela Merkel haben beide das Amt des deutschen Bundeskanzlers ausgeübt. Angela Merkel vom 22. November 2005 bis zum 08. Dezember 2021 und Olaf Scholzvom…“ GPT-3 führt also ein Thema fort und wird bei Bedarf zum automatischen Copywriter, der komplette Beiträge zu einem Thema verfassen kann.

Das ist aber noch lange nicht alles. Frage ich GPT-3 z.B. nach den größten chinesischen Unternehmen, präzisiert die KI zunächst selbständig die Fragestellung („…größte chinesische Unternehmen nach Umsatz…“) und erstellt dann ein Ranking.

Das System kann mit mir aber auch in einen Dialog über chinesische Unternehmen treten oder eine Tabelle über den Umsatz pro Mitarbeiter der größten chinesischen Unternehmen erstellen. Und wenn mir das alles gefällt, kann GPT-3 aus diesen Inhalten auch noch den HTML-Code für eine entsprechende Website ausgeben. Denn Programmiersprachen sind für KI-Sprachmodelle auch nur Sprachen in Textform.

KI-Sprachmodelle wie z.B. GPT-3 verfügen über eine Reihe von Skills. So können sie Texte vereinfachen, zusammenfassen und übersetzen. Darüber hinaus können sie dokumentieren, chatten, Q&A Listen erstellen, Keywords generieren, Bilder beschreiben und wiederum aus Beschreibungen Bilder erzeugen. Sie können zudem Tabellen erstellen, Code analysieren und Code (z.B. XML) in natürliche Sprache umwandeln.

Der Haken an der Sache

Wie bereits erwähnt arbeiten KI-Sprachmodelle mit Statistiken und kommen über statistische Wahrscheinlichkeiten zu ihren Ergebnissen.

Statistik-basierte Algorithmen haben aber weder ethische Leitplanken noch ein Gefühl für Wahrheit, oder für logische Brüche in einem Text. Deswegen kann es passieren, dass ein KI-Sprachmodell Texte erstellt, die unseren Vorstellungen massiv widersprechen, die Ergebnisse gelegentlich nicht ganz „stubenrein“ sind oder manchmal in originelle, aber irritierende Fantasien abgleiten.

Die Entwickler der diversen KIs arbeiten an entsprechenden Verbesserungen, Filtern etc. Das Problem ist aber sehr komplex und es wird sicher noch eine Weile dauern, bis diese Probleme komplett gelöst sind. De facto ist die unkontrollierte Weiterverarbeitung von KI-Texten also ein Risiko. Damit wird der Einsatz in vielen, vor allem kommerziellen Bereichen, schwierig. Der Einbau einer menschlichen Abnahmestufe wäre das Mindeste, um das Risiko beherrschbar zu machen. Der potenziell enorme Effizienzgewinn wird dadurch aber deutlich eingebremst.

Die Lösung

Die ersten beiden Generationen der automatischen Textgenerierung können sehr viel weniger als die KI-Sprachmodelle und das Skills-Gap wird mit steigendem Tempo größer. Dennoch haben diese „alten“ Lösungen einen großen Vorteil: Sie sind berechenbar und machen so gut wie keine inhaltlichen Fehler. Der Sprachstil kann vorgegeben werden, ebenso die Verwendung einer bestimmten Terminologie.

Insbesondere die sehr flexible Lösung der zweiten Generation kann in Verbindung mit einem aktuellen KI-Sprachmodell zu einer extrem leistungsfähigen und inhaltlich sicheren Lösung kombiniert werden. Die Schwächen und Unwägbarkeiten werden gebändigt und damit schon jetzt kommerziell nutzbar gemacht. Die Ergebnisse erster Umsetzungen sind faszinierend. Damit ist eine neue Lösung für die automatisierte Erstellung von digitalem Content in der Welt, an der vielleicht schon bald kein Weg mehr vorbei geht.

https://www.valtech.com/de-de/

„Die Zukunft von HR und Lohnabrechnung liegt in der Cloud“

Die TREND REPORT-Redaktion spricht mit Dr. Alexander Tiedtke, Managing Director bei der vyble GmbH

„Bis zu 70 % des administrativen Aufwands können Unternehmen durch die Digitalisierung ihres Personalwesens einsparen.“


Herr Dr. Tiedtke, vor welchen Herausforderungen stehen heute kleine und mittlere Unternehmen, die noch nicht mit der Digitalisierung ihres Personalmanagements begonnen haben?
Gerade in KMUs ist das Personalwesen oft noch stark durch aufwendige manuelle Routinen geprägt. Ein Paradebeispiel dafür ist die Lohn- und Gehaltsabrechnung (Payroll). Dabei müssen zahlreiche Daten aus verschiedenen Quellen zusammengeführt werden – häufig in Excel-Tabellen. Ein mühsamer und fehleranfälliger Prozess, der für viele Personalmanager zur lästigen Pflicht gehört. Zeitintensive administrative Tätigkeiten wie diese blockieren damit wertvolle personelle Ressourcen. In Anbetracht der aktuellen Kostensteigerungen in allen Bereichen und des auch im Personalwesen herrschenden Fachkräftemangels ist hier ein Umdenken vonnöten.

Was bedeutet heute eigentlich „cloudbasiertes HR- und Payroll-Management“ (SaaS)?
Im Grunde geht es darum, Mitarbeiterdaten nicht mehr lokal auf dem eigenen Server zu speichern (On-Premise), sondern in einer Cloud-Software. Dies bringt zahlreiche Vorteile mit sich, die vielen Unternehmen noch gar nicht bewusst sind. In einer cloudbasierten HR-Plattform befindet sich ein zentraler digitaler Datenpool, der stets aktuell ist und einen flexiblen standortunabhängigen Zugriff ermöglicht. Durch das Outsourcing in die Cloud werden keine eigenen Server, Infrastrukturen oder Software-Administratoren mehr benötigt. Auch Updates, Backups oder Verschlüsselungen werden automatisch vorgenommen und entsprechend Datenschutz sichergestellt.

Welche Möglichkeiten haben Unternehmen und Lohnbüros, um aufwendige manuelle Routinen im Kontext der Lohnabrechnung online zeitgemäß zu lösen?
Die Digitalisierung des Personalwesens birgt deutliche Effizienzpotenziale, da sich viele Prozesse automatisieren lassen. Z. B. bei der Lohnabrechnung: Durch die Nutzung einer HR-Plattform fließen alle abrechnungsrelevanten Daten automatisiert zusammen. So ist die vorbereitende Lohnabrechnung mit wenigen Klicks erledigt. Unsere Lösung kann sogar kollaborativ mit externen Dienstleistern wie einem Steuerberater genutzt werden. Dieser erhält dabei Zugriff auf die Plattform, so dass er sich die benötigten Daten direkt herunter- und Dokumente hochladen kann. Das verschlankt nicht nur alle Prozesse, sondern reduziert auch deutlich den Kommunikationsaufwand und die Fehleranfälligkeit.

Beim Thema DSGVO hat heutzutage kaum noch jemand den Überblick. Der große Vorteil einer entsprechenden cloudbasierten Lösung ist die automatische rechtliche Sicherheit sensibler Personal- und Gehaltsdaten.

Dr. Alexander Tiedtke

Wie viel Zeit kann eingespart werden und welche Vorteile hat die HR-Abteilung davon?
Bis zu 70 % des administrativen Aufwands können Unternehmen durch die Digitalisierung ihres Personalwesens einsparen, in Abhängigkeit ihrer Prozesse. Die HR-Abteilung wird dadurch massiv entlastet und gewinnt deutlich mehr Zeit für andere Aufgaben wie z. B. das Recruiting. Fehler bei der manuellen Datenerfassung und Datenbrüche bei der Übertragung lassen sich so nahezu ausschließen. Zudem wird weniger Payroll-Fachwissen benötigt, was auch die Notwendigkeit, stets mit allen Gesetzesänderungen Schritt zu halten, reduziert. So zeigen Arbeitgeber gleichzeitig mehr Wertschätzung für ihre (HR-)Mitarbeiter und können den Bedürfnissen der neuen Generation besser Rechnung tragen.

Welche Bereiche des digitalen Personalmanagements deckt Ihre Lösung ab?
vyble® ist eine All-in-One-Plattform, mit der Unternehmen alle Schritte ihres Personalmanagements bis hin zur Lohnabrechnung schneller und effizienter abbilden können. Das umfasst z. B. digitale Personalakten inklusive Dokumentenmanagement, Provisions-, Reisekosten- und Spesenabrechnung, Abwesenheitsmanagement, Arbeitszeiterfassung und Schichtplanerstellung. Die Plattform wird zudem durch Apps für den mobilen Zugriff ergänzt. Eine Besonderheit von vyble® ist die Vergütungsoptimierung: Auf Knopfdruck ermittelt die Plattform anhand eines intelligenten Algorithmus, durch welche Steuer- und SV-Potenziale Mitarbeiter auf absolut legale Weise mehr Netto vom Brutto erhalten können.

Inwieweit können Mitarbeitende in das digitale HR-Management mit einbezogen werden?
In vyble® wirken Mitarbeiter wesentlich an der Pflege der Daten in der Plattform mit. Dieses Prinzip nennt man Employee Self Services oder kurz ESS. Dabei erhalten Mitarbeiter Zugriff auf ihre eigenen Personalakten und tragen ihre Stammdaten wie z. B. Adresse oder Sozialversicherungsnummer selbstständig ein. Auch Änderungen nehmen sie dort direkt vor, so dass keine Daten verlorengehen und die HR-Abteilung zusätzlich entlastet wird. Mitarbeiter können zudem Dokumente hochladen, Abwesenheiten wie Urlaub oder die Erstattung von Reisekosten beantragen und natürlich jederzeit den Status der Bearbeitung einsehen. Das verschlankt die internen Prozesse und schafft Transparenz auf allen Seiten.

„Payroll wird hip: Die vorbereitende Lohnabrechnung ist auf Knopfdruck möglich.“

Was muss beim Datenschutz beim Führen digitaler Personalakten beachtet werden?
Beim Thema DSGVO hat heutzutage kaum noch jemand den Überblick. Der große Vorteil einer entsprechenden cloudbasierten Lösung ist die automatische rechtliche Sicherheit sensibler Personal- und Gehaltsdaten. Dies betrifft sowohl die Speicherung als auch die Übertragung. Eine wesentliche Rolle spielt dabei natürlich der Standort der Cloud. vyble® nutzt z. B. ausschließlich Server innerhalb Deutschlands, die die Einhaltung aller gesetzlichen Vorgaben garantieren. Ein granulares Rechte- und Rollensystem sorgt zudem dafür, dass jeder Mitarbeiter nur für seine Position freigegebene Daten einsehen kann.

Wie schnell kann ich mit Ihrer HR- und Payroll-Lösung starten?
Grundsätzlich ist dies von einem Tag auf den anderen möglich, je nachdem wie viel Vorlauf auf Kundenseite nötig ist. Seit Neuestem bieten wir die Einsteigerversion unserer HR-Plattform sogar direkt online zum Kauf an, um flexibel zum 1. oder 15. eines Monats zu starten. Kunden können entscheiden, ob sie die Datenmigration selbst vornehmen oder durch uns vornehmen lassen möchten, und werden durch ein spezialisiertes Onboarding-Team bei der Einrichtung der Plattform unterstützt.

Was würden Sie Unternehmen empfehlen, die sich mit dem Thema Digitalisierung des Personalwesens noch nicht auseinandergesetzt haben?
Der ideale Einstieg ist die Digitalisierung der Personalakten. Die sogenannten E-Files ersetzen Aktenschränke und ermöglichen die papierlose, rechtssichere Verwaltung aller Personaldaten
und -dokumente. Damit sind sie die Basis für die Digitalisierung des gesamten Personalmanagements. Ein großer Vorteil digitaler Personalakten sind zudem umfangreiche Analysemöglichkeiten in einem Dashboard, die Auswertungen vereinfachen, z. B. die Arbeitgebergesamtkosten. Die Geschäftsführung kann jederzeit standortunabhängig darauf zugreifen, ohne auf Rückmeldung aus der Personalabteilung warten zu müssen. Und Mitarbeiter profitieren vom mobilen Zugriff z. B. auf ihre letzte Lohnabrechnung.


Intuitiv und praktisch: Digitale Personalakten mit mobiler Zugriffsmöglichkeit


Können auch Steuerberater und Lohnbüros, die mit DATEV abrechnen, Ihre Software nutzen?
Ja, gerade für Anbieter externer Lohndienstleistungen ist vyble® ideal. Die Plattform ist umfassend DATEV-kompatibel und vereinfacht die Verwaltung mehrerer Mandanten mit einem einzigen Login. Speziell für Professional Services ist vyble® als abgetrennte Systemumgebung für den eigenen Mandantenkreis verfügbar und White Label-fähig, also mit dem eigenen Logo gebrandet. Auf diese Weise punkten Steuerberater und Lohnbüros bei ihren Mandanten mit einer “eigenen” innovativen Möglichkeit zur Abrechnung.

Können Sie bitte am Beispiel der digitalen Lohnabrechnung und Gehaltsabrechnung kurz erklären, wie genau das Zusammenspiel zwischen Unternehmen mit einem externen Dienstleister geregelt ist?
Die Personalabteilung erhält auf Knopfdruck einen Forecast inklusive Probeabrechnungen. Nach Prüfung und Freigabe exportiert der Steuerberater die Daten direkt aus der Plattform und leitet sie an die erforderlichen Stellen weiter. Die fertigen Lohnauswertungen und weitere Dokumente lädt er auf Knopfdruck wieder hoch. Die Plattform legt die Lohn- und Gehaltsabrechnungen automatisiert in den jeweiligen Mitarbeiterakten ab. Das System unterstützt dabei durch Benachrichtigungen z. B. über Freigaben.

 

Lesen Sie mehr zum Thema Digitalisierung des HR-Managements im kostenlosen Whitepaper “Tipps und Tools zur Mitarbeiterbindung, die Sie kennen sollten”.

 


Webinar

Digitale HR- und Lohnabrechnungssoftware in 30 Minuten: vyble® bietet
kostenlose, unverbindliche Demo-Webinare über die Plattform an.
https://vyble.io/webinare/


Über den Interviewpartner

Dr. Alexander Tiedtke ist seit 2019 Geschäftsführer der vyble GmbH. Der promovierte Wirtschaftswissenschaftler war unter anderem Managementberater, in führender Position im Volkswagen-Konzern sowie als Unternehmer in einem mittelständischen Familienunternehmen tätig.

 

 

Aufmacherbild Quelle Lizenz
Image by MORE ON https://melovess.com from Pixabay


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Energieeinkauf: ohne Digitalisierung keine Chance

Das Unternehmen enPORTAL ist ein führender IT-Dienstleister und Portalbetreiber für die digitale Beschaffung von Strom und Gas und ein cloudbasiertes Energiedatenmanagement. Mittelständische Unternehmen aus allen Branchen mit einem Jahresverbrauch ab 100.000 Kilowattstunden im Jahr nutzen das Energieportal für Ihre Energiedatenverwaltung und für Ausschreibungen über den digitalen Marktplatz mit über 650 Energielieferanten. Seit Jahresbeginn 2022 sind bereits 600 Ausschreibungen mit einem Gesamtvolumen von 7,5 Terawattstunden Energie über den digitalen Marktplatz gelaufen. Wir haben den enPORTAL Geschäftsführer Clemens Graf von Wedel zum Interview getroffen.

Herr Graf von Wedel, wie ist die Lage bei den Energieeinkäufern und welche Stimmung nehmen Sie aktuell wahr?
Unsere Kundenbetreuer stehen im täglichen Austausch mit Energieeinkaufsabteilungen und verantwortlichen Energieeinkäuferinnen/-einkäufern und daher erhalten wir ein recht gutes Bild zur Stimmungslage. Wir bemerken aktuell, dass die Lage sehr angespannt und viele Energieverantwortliche recht unsicher sind. Zwischen Vertriebsstopp-Wochen vonseiten der Energieversorger, kurzen Zeitfenstern mit Bindefristen von max. 5 Minuten oder nur Tranchen-Angeboten an einem einzelnen Tag variieren die Optionen täglich. Die Betonung liegt auf täglich. So haben wir jeden Tag neue Herausforderungen, denen wir uns gemeinsam mit unseren Kunden stellen müssen. Daher gilt es permanent neu zu prüfen, welche Optionen die besten für das jeweilige Unternehmen sind. Aber hier sind wir mit unserem digitalen Tool bestens aufgestellt und können das auch für unsere Einkäufer/-innen gewährleisten.

Welche Veränderungen gibt es bei Energieausschreibungen, die über Ihren digitalen Marktplatz laufen?
Ja, tatsächlich nehmen wir eine elementare Veränderung bei den von uns betreuten digitalen Ausschreibungen von Strom und Gas wahr: Früher haben die Unternehmen bzw. Einkäufer diktiert, welche Beschaffungsform, Zahlungsziele oder z. B. Toleranzbänder sie wünschen – heute sind es aufgrund der extremen Preisexplosionen die Lieferanten, die den Ton angeben bzw. auch angeben müssen, weil sie selbst vom volatilen Energiemarkt abhängig sind. Das Blatt hat sich somit um 180 Grad gedreht. So geben Energieversorger derzeit an, wann sie welche Preise machen können oder eben nicht. Verändert hat sich auch die Prüfung der Bonität, die bei einigen Energieversorgern derzeit bis zu 10 Tage dauern kann.

„Die Lage ist wirklich angespannt, aber auch jetzt zeigt sich, dass sich Wettbewerb auszahlt“, stellt Clemens Graf von Wedel fest. (Bildquelle: enPortal)

Wie viele Angebote erhalten Energieeinkäufer denn derzeit, wenn Sie eine Ausschreibung durchführen?
Vielleicht blicken wir kurz zurück: Durch unsere über 650 integrierten Energieversorger auf dem Strom- und Gasmarktplatz hatten wir bis 2021 im Durschnitt zwischen 10—25 Angebote je Ausschreibung, bei attraktiven Unternehmen natürlich deutlich mehr. Heute sind die Einkäufer froh, wenn sie Angebote erhalten und gar noch auswählen können. Die Lage ist wirklich angespannt, aber auch in der jetzigen Situation zeigt sich: ein Wettbewerb zahlt sich aus und wir finden gemeinsam mit dem Kunden eine Lösung und einen passenden Energieliefervertrag. Manchmal wiederholen wir eine Ausschreibung eine Woche später, wenn von den Lieferanten die Information kommt, dass sie dann voraussichtlich wieder anbieten können. Wichtig ist der direkte Draht zum Markt, zu den Vertriebsentscheidern bei den Energieversorgungsunternehmen und die Kenntnis über die Börsenentwicklung – diese Infos haben wir, sodass wir unsere Einkäufer/-innen bestens auf dem Laufenden halten und beraten können.

Gibt es auch Änderungen bei Beschaffungsformen? Kaufen die meisten eher für ein gesamtes Lieferjahr ein oder eher kurzfristig?
Da sprechen Sie einen spannenden Punkt an. Wir bemerken seit Jahresbeginn, dass immer mehr Kunden, die früher selbstverständlich Festpreise vereinbart haben – was für viele sinnvoll war, bei den damals günstigen Preisen! – jetzt auf horizontale oder vertikale Tranchen umsteigen bzw. es auch müssen. Natürlich deshalb, weil die Lieferanten oft nichts anderes anbieten können. Das führt dazu, dass sich viele Unternehmen neu darauf einlassen und sich gleichermaßen das Wissen darüber aneignen müssen, denn nicht jeder Einkäufer ist mit diesen Beschaffungsformen vertraut. Aber auch hier sind digitale Lösungen die beste Möglichkeit, um schnell reagieren und mit dem entsprechenden Beschaffungsmodell an den Markt gehen zu können – die Grundlage sind vollständige und aktuelle Energiedaten – diese kombiniert mit einem Energieexperten, der den Markt kennt, ermöglicht ein schnelles Wechseln zu einer anderen Beschaffungsform.

Haben die meisten Unternehmen ihre Energiemengen für 2023 schon fest vereinbart oder warten diese noch ab?
Viele unserer Kunden hatten die gefallenen Terminmarktpreise im Zuge des 1. Lockdowns Anfang 2020 für Ausschreibungen genutzt und sich langfristig für mehrere Jahre mit Strom und Gas eingedeckt. Die können sich noch etwas zurücklehnen und müssen sich nicht stressen. Diejenigen, die damals noch weiter spekuliert haben, dass die Preise noch weiter sinken würden, sind dann ab dem 2. Halbjahr 2020 auf dem falschen Fuß erwischt worden und haben zu wesentlich höheren Preisen beschaffen müssen. Denn seitdem geht es preislich nur noch nach oben. Unsere Auswertung zeigt, dass viele unser Kunden für 2023 eingedeckt sind. Für alle anderen ist aber das aktuelle Preisniveau für die Belieferung für 2023 ein wahres Horrorszenario.

Der richtige Zeitpunkt zum Energieeinkauf ist immer der, der am besten in die Wirtschaftsplanung passt.

Clemens Graf von Wedel

Was antworten Sie auf die Frage, wann der richtige Einkaufszeitpunkt ist?
Eine Frage, die uns täglich gestellt wird und auf die wir natürlich eine Antwort haben: Der beste Einkaufszeitpunkt ist der, der in die Wirtschaftsplanung passt. Wie erkenne ich das? Indem ich schon vor der Ausschreibung weiß, mit was für Kosten ich für den Lieferzeitraum rechnen muss. Das haben wir mit unserem Onlineportal mittels einer individuell auf das Verbrauchsprofil des Kunden erstellten Energiepreisprognose umgesetzt: das bedeutet, der Kunde sieht jeden Tag auf Basis der Terminmarktkonditionen mit welchen Preisen er für die vertragsfreien Lieferjahre rechnen muss. Wenn das in die Kostenkalkulation passt, wird eingekauft. Alles andere ist unserer Ansicht nach Börsenflüsterei und entzieht sich jeder Grundlage. Keiner kann wissen, wann der beste Zeitpunkt in der Zukunft ist. Es gilt jeden Tag zu wissen, wie sich die Marktlage der Strom- und Gasbörsen auf meine noch zu beschaffenden Lieferzeiträume auswirkt. Wenn Einkäufer/-innen das wissen, können sie auch Entscheidungen fällen. Natürlich gilt es, die Marktentwicklungen zu kennen und zu beobachten, aber auch hier stehen wir mit Marktnews von professionellen Marktredaktionen parat.


Bildquelle / Lizenz Aufmacher:

Photo by Andrey Metelev on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Welche Empfehlungen können Sie Energieeinkäufern abschließend geben?
Wir empfehlen ganz klar: Wer seine Energiedaten noch nicht online managt und mit den aktuellen Börsenentwicklungen verknüpfen kann, sollte dies schnellstmöglich umsetzen. Wer noch offline seine Beschaffung umsetzt und nur mit dem örtlichen Versorger verhandelt oder und seine Energiedaten in Excel-Tabellen verwaltet, hat unserer Ansicht nach keine Chance, das Beste aus der schwierigen Situation herauszuholen und gefährdet im schlimmsten Fall seine Existenz. Es gibt die digitalen Möglichkeiten im Markt und wer nicht erkannt hat, wie elementar wichtig es geworden ist, sich jetzt mit dem Energiemarkt digital zu vernetzen, der braucht im Grund – so hart es klingen mag – auch keine weiteren digitalen Prozesse innerhalb des Unternehmens umzusetzen. Auf ein professionelles Energiedatenmanagement sollte der Fokus gelegt werden, denn ohne Energie zu den bestmöglich günstigen Preisen auch keine erfolgreiche Produktion oder Dienstleistung. Aber wir merken auch, dass diese Einsicht bei vielen Geschäftsführern und Entscheidern von mittelständischen Unternehmen angekommen ist und derzeit aktiv umgesetzt wird.

Neues Lieferkettengesetz nimmt Unternehmen in die Verantwortung

Von Christopher Wojciech, Digital Consultant bei Macaw

Am 11. Juni 2021 wurde vom Deutschen Bundestag das Gesetz über die unternehmerischen Sorgfaltspflichten in Lieferketten beschlossen. Ab dem 1. Januar 2023 tritt das Lieferkettengesetz bereits in Kraft. Das Ziel: Die Rechte der Menschen schützen, die für unmittelbare Zulieferer Waren für den deutschen Markt produzieren. Hat ein Unternehmen Kenntnisse über Menschenrechtsverletzungen, dehnt sich diese Pflicht auch auf diese unmittelbaren Zulieferer aus. Was bedeutet das nun konkret für Firmen? Neben dem Sicherstellen von Menschenrechten und einer umfassenden Berichtspflicht geht es auch um ein angemessenes Risikomanagement sowie das Einrichten von Beschwerdemöglichkeiten und Maßnahmen zur Vermeidung von Rechtsverletzungen. Wichtig dabei: Das neue Gesetz gilt auch für kleine und mittelständige Unternehmen, wenn sie als Zulieferer für große Firmen agieren.

Am Anfang steht die Analyse

Grundlage für die Erfüllung der Sorgfaltspflicht ist das Wissen darüber, wie die Lieferkette aufgebaut ist und welche Parteien involviert sind. Welche Unternehmen dienen als mittelbare, welche als unmittelbare Zulieferer? Dafür raten wir zu einer anfänglichen Analyse, ähnlich einer Bestandsaufnahme. Dies kann ganz klassisch in einer Excel-Liste durchgeführt werden. Besser sind jedoch Lösungen, die gleichzeitig auch Möglichkeiten zur Interaktion bieten. Personalisierte und automatisierte Prozesse helfen und können mühelos durch die Fachabteilungen selbst erstellt werden. Auf diese Weise können manuelle Aufwände drastisch reduziert werden. Um die einzelnen Bestandteile dieses Prozesses zu kombinieren, eignen sich besonders Low-Code- oder No-Code-Lösungen wie die Microsoft Power Platform. Mit ein wenig Hands-on-Mentalität können hier schnelle Ergebnisse erzielt werden. Ein erster Schritt kann beispielsweise darin bestehen, eine Liste mit Unternehmen anzulegen, die Teil der Lieferkette sind – egal ob mit Sharepoint, Excel oder im Dataverse. Für die Abfrage der benötigten Kriterien bei den jeweiligen Zulieferern und Partnerunternehmen ist eine automatisierte Kontaktaufnahme ratsam, die die Lieferanten beispielsweise in einer PowerApp durch die Prozesse führt. So werden individuelle E-Mails, ein manuelles Übernehmen der Inhalte und damit auch Fehler vermieden. Bleibt die Rückmeldung der Zulieferer und Partnerunternehmen zunächst aus, sind automatisierte Follow-up-E-Mails mit verschiedenen Eskalationsstufen zu empfehlen. Auch diese können von der Fachabteilung eigenständig konfiguriert und umgesetzt werden. Für die spätere Auswertung werden die eingetroffenen Antworten automatisch in der zu Anfang angelegten Liste abgespeichert.

Mit Automatisierung zu datenbasierten Reportings

Zu Anschauungszwecken für ein mit Daten angereichertes Reporting haben wir ein PowerBI-Dashboard erstellt, das einen individuellen Score pro Unternehmen berechnet. Mit der Software für Geschäftsanalysen von Microsoft lassen sich etwa interaktive Visualisierungen derart simpel gestalten, dass sich das Programm auch für Endnutzerinnen und Endnutzer ideal zur Erstellung von Berichten eignet. Für die bessere Steuerung beziehungsweise Überwachung der Prozesse erfolgt im nächsten Schritt die Berechnung eines KPIs für das gesamte Unternehmen – in Form einer einzigen Kennzahl. Deutlich wird dabei, wie einfach Unternehmen die verschiedenen Quellen und Daten zentral sammeln und als automatischen Prozess mit der Microsoft Power Platform abbilden können. Mit diesen Reportings erhalten Unternehmen alle relevanten Daten über ihre Zulieferfirmen und können ihrer Beweispflicht in aller Sorgfalt nachkommen.

Alle Daten immer auf einen Blick

Unternehmen, die stets einen aktuellen Überblick über ihre Lieferketten haben möchten, sind auf das Just-in-Time-Reporting angewiesen. Im Grunde führen sie damit regelmäßige Risikoanalysen durch. Mit Lösungen wie Microsoft PowerBI gibt es die Option, alle dazu notwendigen Datenquellen an einem Ort zu vereinen und auf dieser Grundlage die passenden Dashboards zu entwickeln.

Das Lieferantenmanagement besteht aus vielen Prozessen. Ein zentrales Tool ist dringend nötig, um der gesetzlichen Berichtspflicht nachzukommen, ohne dabei Mehraufwand zu erzeugen. Ein großer Vorteil der Power Platform ist, dass Mitarbeitende bereits nach kurzen Trainings eigenständig mit der Technologie arbeiten und Anpassungen vornehmen können.

Automatisierung im Rechenzentrum: vom Hype zur Überlebensstrategie

Autor: Oliver Parpart*

Die Automatisierung ist aus allen Lebens- und Unternehmensbereichen nicht mehr wegzudenken. Als Evolution zieht sie sich seit der Industrialisierung durch unsere wirtschaftliche Weiterentwicklung und ist beispielsweise für die deutsche Industrie stets ein Garant für globalen Erfolg gewesen – trotz steigender Personalkosten.

Egal, ob das erfahrene Gastroteam im Sterne-Restaurant heutzutage auf die intelligente Küchenmaschine zurückgreift, um Soßen „à la minute“ zuzubereiten, oder der Abteilungsleiter der Schadensabteilung einer Versicherung mit Robotic Process Automation seinen Sachbearbeitern wiederkehrende Eingaben abnimmt: Im Vordergrund stand und steht immer das gleiche Ziel, nämlich höhere Produktivität und geringere Fehlerquoten. Das führt wiederum zu geringeren Kosten und höherer Qualität.

Vor Kurzem noch wurden Überlegungen zu Automatisierung außerhalb der industriellen Produktion oft noch mit mittlerer Priorität vorangetrieben, da es ja „auch so irgendwie immer geht“. Solche Ansätzen galten als innovativ, aber letztlich nicht hochkritisch für den Unternehmenserfolg. Das hat sich in kurzer Zeit grundlegend und radikal verändert.

Oliver Parpart: „In der IT wird die Notwendigkeit zur Veränderung durch weitere Trends befeuert: Agile Entwicklung und neue hybride Cloud-Technologien beschleunigen Innovationszyklen und bringen viele Vorteile und Chancen für Unternehmen mit sich. Deshalb breiten diese sich auch atemberaubend schnell aus.“

Als Brandbeschleuniger für den Veränderungsdruck wirken dabei aktuelle gesellschaftliche Entwicklungen wie geburtenschwache Jahrgänge, Krisensituationen wie die Corona-Pandemie oder die Energiekrise als Folge der aktuellen politischen Verwerfungen.

In der IT wird die Notwendigkeit zur Veränderung durch weitere Trends befeuert: Agile Entwicklung und neue hybride Cloud-Technologien beschleunigen Innovationszyklen und bringen viele Vorteile und Chancen für Unternehmen mit sich. Deshalb breiten diese sich auch atemberaubend schnell aus.

Die Auswirkungen des Veränderungsdrucks auf das Rechenzentrum

Für den Rechenzentrumsbetrieb und damit die IT-Leiter birgt der Veränderungsdruck große Herausforderungen. Dazu gehören unter anderem der immense Kostendruck aus steigenden Energiepreisen und steigenden Preisen der IT-Hersteller sowie der allgemeine Fachkräftemangel. Außerdem fehlt es oft an Skills und Know-how, sich die Vorteile neuer (Cloud-)Technologien nutzbar zu machen.

Enterprise-Container-Plattformen wie Red Hat OpenShift können Abhilfe schaffen, indem sie echte Unabhängigkeit von der darunterliegenden Infrastruktur bringen und das Deployment der Workloads auf der kostengünstigsten und energieeffizientesten Infrastruktur sowie die ständige Flexibilität der Verlagerung ermöglichen. Sie sind die Basis für den Betrieb von Software-Containerlösungen, die die Innovationszyklen dramatisch verkürzen.

Hinzu kommt die neue Generation von Lösungen im Bereich Application Performance Management (APM) und Application Resource Management (ARM), die den Kunden theoretisch eine deutliche höhere Stabilität und Verfügbarkeit der Anwendungen erlaubt – egal ob es sich um alte Legacy-Anwendungen oder neue Container-Lösungen ohne Überprovisierung von teuren, energiefressenden Ressourcen handelt. Nicht zuletzt helfen Cybervault-Konzepte den Kunden nach Ransomware-Attacken in unter 24 Stunden, statt in durchschnittlich 21 Tagen, wieder voll betriebsfähig zu sein. Theoretisch!

Aber wer kümmert sich darum, die Rechenzentrumsumgebung zeitnah anzupassen – damit die Kunden von den Lösungen bestmöglich profitieren?

Automatisierung im Rechenzentrum als Schlüssel

Genau hier kommt die Automatisierung im Rechenzentrum ins Spiel, die eine Schlüsselrolle einnimmt, da sie genau diese zeitnahe Anpassung der Umgebung ermöglicht. Automatisierung wird so zur Überlebensstrategie und Chance für Unternehmen.

Bis heute bieten viele Hersteller jedoch ausschließlich proprietäre Teilautomatisierungsansätze an, die an ihre Technologie gebunden sind.

Im Gegensatz dazu stellt Red Hat Ansible eine universelle Open-Source-Automatisierungslösung dar, die heute schon in vielen IT-Abteilungen im Einsatz ist. Wir als CANCOM sehen den Schlüssel zur Entfesselung des ganzen Potentials der Automatisierung im Data Center darin, ein Open-Source-basiertes Framework wie eben Red Hat Ansible Automation Platform zum Aufbau und Betrieb von Automatisierung strategisch in die gesamte Organisation einzubringen.

Im Tagesgeschäft lassen sich damit beispielsweise SAP-Instanzen, Worker Nodes oder generell Infrastrukturen mit einem Klick schnell aufsetzen oder Netzwerkabschnitte einrichten.

Erfolgreiche Ransomwareattacken und Cybervaults zeigen, worum es außerdem geht: Hier können SIEM-Systeme zwar den Zeitpunkt des Angriffes eingrenzen und Sicherungs-Snapshots im Angriffsfall auslösen. Speichersysteme können diese unveränderbaren Snapshots aus geschützten „Datentresoren“ bereitstellen. Der Wiederaufbau der IT-Umgebungen allerdings erfordert vorbereitete Planung und viele automatisierte Abläufe, um schnell die Umgebungen wieder aufzubauen.

Wir als CANCOM fokussieren uns bei der Beratung und Unterstützung auf Enterprise-fähige Lösungen wie Red Hat Ansible Automation Plattform, die neben dem Support und der zentralen Managementkonsole viele vorgefertigte Integrationen und Assets mitbringt. Auch eigene Assets für diverse Szenarien stellen wir bereit und erweitern diese ständig.

Fazit: Automatisierung im Rechenzentrum wird zur Überlebensstrategie, aber auch zur großen Chance für Unternehmen, die Potentiale neuer IT-Technologien zum eigenen Vorteil erfolgreich einzusetzen.

* Der Autor Oliver Parpart ist Director Business Development bei CANCOM

Weitere Informationen unter
https://www.cancom.de

Wachstum durch Reduzierung?

Warum Subscription-Geschäftsmodelle in einem starken Ecosystem ein Weg in eine grüne Zukunft sind, beschreiben Dr. Lennard Holst, Gerrit Hoeborn und Lukas Bruhns vom FIR an der RWTH Aachen.

Nachhaltigkeit und damit eine Reduzierung der eingesetzten Ressourcen stehen häufig im Widerspruch zu den angestrebten Wachstumszielen. Das Neugeschäft sowie ergänzende Serviceleistungen bauen auf Obsoleszenz, also den Verschleiß und folgenden Ausfall der Maschinen und Anlagen. Mehr Verschleiß bedeutet somit mehr Umsatz. Erst in einem Ecosystem erbrachte Subscription-Geschäftsmodelle ändern die Anreizstruktur, sodass Umsatz und nachhaltiges Wirtschaften sich gegenseitig befruchten.

„Wir müssen nachhaltiger werden!“. So oder so ähnlich werden bei Ihnen in letzter Zeit öfter Gespräche begonnen haben. Die endliche Verfügbarkeit von Ressourcen führt dazu, dass der einmalige, transaktionale Verkauf und die abschließende Entsorgung der Produkte, nicht mehr zeitgemäß sind. Es bedarf neuer Muster der Wertschöpfung abseits des Take-Make-Waste-Prinzips, die den Ressourcenverbrauch reduzieren. Gleichzeitig steigt die Komplexität der Leistungen, sowohl auf der technischen Ebene der Maschinen und Anlagen als auch auf der Ebene der notwendigen Services. Dadurch sind in zunehmender Anzahl spezialisierte Akteure involviert. Zusätzliche Investitionen sind notwendig, um Partner und Technologien abzustimmen, zu integrieren und eine gemeinsame Lösung anzubieten. Ein Kreislauf, an dessen Ende die Forderung nach Wachstum der Forderung nach Reduzierung und Verschlankung gegenübersteht.

Stehen also Wachstum und ressourcenbewusstes Handeln in einem unlösbaren Widerspruch zueinander? Dass Wachstum nicht zwangsläufig mit einer Steigerung des Verbrauchs einhergeht, demonstriert die Landwirtschaft seit über 5.100 Jahren. Da Anbauflächen sowie Nährstoffe im Boden begrenzt sind, kann der Ertrag nicht beliebig über weitere Felder oder das Ausbringen zusätzlichen Saatguts gesteigert werden. Um trotz der Limitierung Wachstum zu ermöglichen, kommen Düngemittel zum Einsatz, die das Ertragspotenzial der Pflanzen steigern. Vor dem Hintergrund eines zunehmenden Drucks zur Verfolgung und Einhaltung nachhaltiger Geschäftsziele bei gleichzeitigem Wachstum ist es notwendig, auch in der produzierenden Industrie „Dünger“ einzusetzen.

Das transaktionale Geschäft von Unternehmen basiert noch überwiegend auf Obsoleszenz. Der Verkauf neuer Maschinen und Anlagen ist davon abhängig, dass die Kunden entweder selbst expandieren oder Bestandsanlagen, bspw. aufgrund von Defekten oder nicht mehr zeitgemäßer Technik, ersetzen. Ergänzend kommen Serviceleistungen hinzu, die Unternehmen während der Nutzungsphase anbieten. Sie verdienen an der Durchführung von Instandsetzungs- und Wartungsleistungen oder dem Verkauf von Ersatzteilen. Das Anreizsystem ist folglich darauf ausgerichtet, Leistungen unabhängig vom tatsächlichen Bedarf des Kunden so oft wie möglich zu verkaufen. Es bedarf eines neuen Geschäftsmodellansatzes, bei dem die Anreizstruktur und das Handeln aller Beteiligten gleichgerichtet orientiert sind.

Subscription-Geschäftsmodelle, auch bekannt unter zahlreichen Synonymen wie Pay-per-Use- und Pay-per-Outcome-Modelle oder Everything-as-a-Service-Angebote, bieten diese Möglichkeit. Die Modelle können mithilfe von vier wesentlichen Merkmalen charakterisiert werden.

  1. Nutzenversprechen
  2. Ertragsmechanik
  3. Subscription-Kunden
  4. Wertschöpfungskette

Im Rahmen eines nachhaltigen Subscription-Geschäftsmodells kauft der Kunde nicht mehr einzelne Produkte oder Services. Das Nutzenversprechen geht weit darüber hinaus und garantiert dem Kunden vielmehr eine Maximierung seines individuellen Erfolgs. Um dies zu erreichen, verspricht der Anbieter etwa die Steigerung oder den Erhalt eines Produktivitätsniveaus. Infolgedessen wird ein Teil der Kundenrisiken aus dem Betrieb der Anlage auf den Anbieter übertragen, indem dieser ein Lösungspaket aus Produkten, Software und Services schnürt. Dieses gewährleistet die Erreichung oder Aufrechterhaltung des produktiven Zustands im Kundenprozess. Die hinter dem Lösungspaket liegende Ertragsmechanik orientiert sich in der Regel an der Nutzungszeit oder an den Produktionsergebnissen. Somit wird es für den Anbieter unattraktiv, Leistungen ohne unmittelbare Notwendigkeit zu erbringen. Da er damit seinen eigenen Gewinn schmälern würde ist die Folge, dass sich das Anreizsystem wandelt. Kundenerfolg wird in direkter Konsequenz zum Anbietererfolg. Diese Win-Win-Situation führt dazu, dass die gleichzeitige Forderung nach Wachstum und Reduzierung keinen direkten Widerspruch mehr darstellt.



Die Realisierung eines Subscription-Geschäftsmodells erfordert immer eine vorausschauende Auswahl der Kunden. Da im Maschinen- und Anlagenbau oft hochpreisige Assets beim Kunden integriert werden, stehen zumeist die Kunden mit den besten Zukunftsaussichten im Fokus. Für diese Kunden lassen sich langfristige Erfolge besser prognostizieren, um daraufhin einen positiven „Lock-in-Effekt“ zu erzeugen, den Kunden also langfristig an das eigene Unternehmen bzw. Produkt zu binden. Damit sowohl Anbieter als auch Kunde gleichermaßen vom Subscription-Geschäftsmodell profitieren, ist darüber hinaus die Etablierung einer integrativen, akteurübergreifenden und effizienten Wertschöpfungskette notwendig. Dies kann mittels des Ecosystem Design, dem gezielten Aufbau von Ökosystemen, gelingen. Das Ecosystem schafft die Voraussetzungen für nachhaltige Geschäftsmodelle, indem Produkte intelligent vernetzt sowie Kundenkontaktpunkte digitalisiert und an die Systeme des Anbieters angebunden werden.

Die Gestaltung dynamischer Subscription-Ecosystems von untereinander abhängigen aber autonomen Akteuren baut auf drei zentralen Schalen auf, die aufeinander aufbauend das System charakterisieren. Diese drei Schalen stehen in vielfältigen Wechselbeziehungen zueinander und unterstützen dabei, das Ecosystem aufzubauen:

  1. Ecosystem Zentrum
  2. Ecosystem Beziehung
  3. Ecosystem Umfeld

Im Ecosystem Zentrum steht die Gestaltung eines abgestimmten und gemeinschaftlichen Wertangebots. Dies wiederum definiert, wie die einzelnen Akteure koordiniert werden, um das Lösungspaket auf die individuellen Bedürfnisse und das Nutzungsverhalten der Kunden zuzuschneiden. Vor dem Hintergrund immer komplexerer Lösungspakete und der Integration von spezialisierten Anbietern für Teilleistungen der Subscription kommt dem Dialog der Anbieter untereinander, aber auch dem Dialog zum Kunden eine immer wichtigere Rolle zu. Damit die Lösung am Ende mehr ist als die Summe der Einzelleistungen, wird innerhalb der Schale zudem die Modularität der Leistungen definiert. Dies gewährleistet, dass verschiedene Akteure auf einfache Weise unabhängige Bausteine zu dem Lösungspaket beisteuern können, ohne ihre individuellen Entscheidungen vorher formell abzustimmen.

Mit der Integration zusätzlicher Partner mit wiederum eigenen Geschäftsinteressen nimmt die Komplexität innerhalb des Ecosystems zu. Auf der mittleren Schale werden deswegen die notwendigen, materiellen sowie nicht-materiellen Verbindungen zwischen den Akteuren des Subscription-Ecosystems definiert und beschrieben.

Auf der äußeren Schale wird die Interaktion des Ecosystems mit dem Umfeld betrachtet. Um Leistungen langfristig skalieren zu können, ist zunächst die Einbindung oder Schaffung einheitlicher Standards sowie die Nutzung einer gemeinsamen Plattform erforderlich. Sie gewährleisten eine reibungslose Interaktion des Ecosystems mit seinem Umfeld und ermöglichen dadurch einen selbstverstärkenden Zyklus. Die auf Netzwerkeffekten beruhende Eigendynamik stellt schließlich sicher, dass sich die positiven Folgen der durch die Akteure im Ecosystem verfolgten nachhaltigen Geschäftsmodelle verstetigen.

Subscription-Geschäftsmodelle bieten Maschinen- und Anlagenbauern ein gewaltiges Potenzial, um sich auch zukünftig erfolgreich aufzustellen und ihr Geschäft sowohl nachhaltig zu gestalten als auch zu sichern. Unternehmen sind dabei keine Einzelkämpfer mehr. Zusammen mit vielen, teils spezialisierten Akteuren generieren sie im Ecosystem Mehrwert für sich selbst und für den Kunden. Verinnerlichen Sie daher diese neue Denkweise und bringen Sie den Dünger aufs Feld, sehen Sie Ihre Kunden wachsen und profitieren Sie mit.


Die Autoren

Dr. Lennard Holst
Bereichsleiter Dienstleistungsmanagement
FIR an der RWTH Aachen
Tel.: +49 241 47705-202
E-Mail: Lennard.Holst@fir.rwth-aachen.
de

Gerrit Hoeborn
Bereichsleiter Business Transformation
FIR an der RWTH Aachen
Tel.: +49 241 47705-302
E-Mail: Gerrit.Hoeborn@fir.rwth-aachen.de

Lukas Bruhns
Fachgruppe Subscription Business Management im Bereich Dienstleistungsmanagement
Tel.: +49 241 47705-212
E-Mail: Lukas.Bruhns@fir.rwth-aachen.d
e


Bildquelle / Lizenz Aufmacher:

Photo by Taisiia Shestopal on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.


Most Successful Influencers

Study reveals the 20 most iconic influential people in the SEO and digital marketing industry.

As the digital marketing industry continues to evolve, the global market is estimated to be worth $786.2 billion by 2026, with the SEO industry worth currently worth $80 billion alone. 

And, as the industry grows, so does the interest in careers, as Google Trends data shows a 76% increase in global searches for ‘SEO jobs’ in the last 12 months.  

But who are the industry’s most influential figures? And, who should you be following for the latest industry trends and updates?  

To find out, SaaS SEO agency, Rock The Rankings, analysed social media to find the top 20 influencers for 2022.  

Using a list of popular figures who are prominent on social media, the SEO experts tracked the number of Twitter and Linkedin followers, number of tweets, engagement rate, and mentions, to create a weighted rank which scores overall popularity.   

Here’s what the study found… 

  • Most influential overall – Dharmesh Shah, Hubspot 
  • Most followed on Twitter – John Rampton, Due (1,257,792) 
  • The highest number of Tweets – Pam Moore, MarketingNutz 
  • The highest engagement rate – Julie Joyce, Link Fish Media  

The 20 most influential SEO experts of 2022 

Rank SEO Influencer  Twitter followers Linkedin followers No. of tweets  Mentions (7 days) Engagement rate (%) * 
Dharmesh Shah 296,500 1,036,649 20,803 178 0.16 
John Rampton 1,257,792 45,454 38,277 141 
Pam Moore 285,548 348,243 134,776 11 0.72 
Danny Sullivan 533,000 261,623 78,888 442 0.02 
Rand Fishkin 466,241 128,000 68,857 732 0.3 
Neil Patel 437,410 453,000 25,517 348 0.14 
Barry Schwartz 184,452 23,067 128,483 1809 0.01 
Shama Hyder 45,121 615,959 25,377 45 0.01 
Aleyda Solis 125,110 36,465 122,052 717 0.57 
10 John Mueller 139,233 6,175 40,019 2110 0.01 
11 Matt Cutts 508,454 5,757 32,352 20 0.02 
12 Dr. Pete Meyers 73,918 3,734 123,872 675 0.1 
13 Julie Joyce 23,151 2,850 52,520 3.43 
14 Ann Smarty 66,016 13,472 81,794 301 
15 Glenn Gabe 52,610 3,163 76,663 418 0.02 
16 Brian Dean 125,445 68,385 7,167 25 0.87 
17 Shane Barker 29,956 23,995 82,147 46 0.01 
18 Mike Volpe 74,428 1,496 26,295 10 1.26 
19 Wil Reynolds 55,641 20,661 41,697 64 0.35 
20 Cyrus Shepard 95,977 13,610 26,249 248 0.06 

With a staggering 1,036,649 Linkedin followers, and over 296,000 Twitter followers, Dharmesh Shah, co-founder of Hubspot, is the most influential person in SEO from the study. Prior to HubSpot, he was founder and chief executive officer of Pyramid Digital Solutions, a software company, and has published a number of books including Inbound Marketing: Get Found Using Google. 

In second place comes John Rampton, who is an entrepreneur, investor, and online marketing guru He is also founder of the online payments company Due and productivity company Calendar. 

He was recently named #2 on Top 50 Online Influencers in the World by Entrepreneur Magazine and blogging Expert by Time, so it’s no surprise to see he has the highest number of Twitter followers from our study, with a staggering 1,257,792. 

With the highest number of Tweets in the study, third place goes to Pam Moore, founder of digital marketing agency, Marketing Nutz. Sharing her 25+ years’ experience with the world, Pam has composed 134,776 tweets, giving advice and industry views to her 285,548 followers

Two more influential females in SEO appear in the top 10, including founder of Zen Media Shama Hyder who comes in ninth place, and International SEO Consultant and founder of Orainti, Aleya Solis. Shama Hyder is most popular on Linkedin with an incredible 615,959 followers, while Aleyda Solis has a higher number of Twitter followers (125,110).  

Google’s very own Public Liason Officer, Danny Sullivan, is also in the top five, thanks to his impressive number of tweets (78,888) and Twitter followers (533,000). It’s probably no surprise to also see Google’s John Mueller further down the list, known in the SEO industry for sharing tips and dropping hints about what to expect next from Google. With the most Twitter mentions in our study, it’s clear his followers are keen to get his advice and opinions on the latest industry trends. 

Next up are two popular figures, Rand Fishkin and Neil Patel. Rand Fishkin is famously the founder of Moz while Neil Patel is the founder of Kissmetrics. Both figures are extremely popular on social media, especially Twitter, where they both have over 400,000 followers. When it comes to Linkedin Neil Patel has a substantially higher number of followers (453,000) while Rand Fishkin has 128,000.  

And, while Rand Fishkin is the most influential figure from Moz overall, Marketing Scientist, Dr Pete Myers is 12th on the list, followed by Julie Joyce from Linked Fish Media and Anne Smarty from Viral Bee Content.  

Further down, we see Gsquared Interactive’s Glenn Gabe, followed by Brian Dean from Banklink.io, a service which offers SEO and Link Building strategies to businesses and marketing professionals.  

With the lowest number of Tweets in the study (7,167) it’s possible that Brian Dean gives more advice via his subscription service, rather than social media.  

Marketing consultant, Shane Barker, and Former Hubspot CMO Mike Volpe are also among the most influential, and although Volpe has over 40,000 more Twitter followers than Barker, Barker tweets a lot more advice, with 82,147 posts overall.  

Last but not least, Will Reynolds from SEER Interactive makes the top 20, followed by Cyrus Shepard from Fazillion Media, both of whom are definitely worth a follow.  

To help you get connected, here are the Twitter Handles for each influencer in the top 20.

SEO InfluencerCompanyTwitter Handle
Dharmesh ShahHubspotdharmesh
John RamptonDueJohnRampton
Pam MooreMarketing NutzPamMktgNut
Danny SullivanGoogledannysullivan
Rand FishkinMozrandfish
Neil PatelKissmetricsNeilPatel
Barry SchwartzRusty Brickrustybrick
Shama HyderShama HyderShama
Aleyda SolisOriantialeyda
John MuellerGoogleJohnMu
Matt CuttsUS Digital Servicemattcutts
Dr. Pete MeyersMozdr_pete
Julie JoyceLink Fish MediaJulieJoyce
Ann SmartyViral Content Beeseosmarty
Glenn GabeGsquared Interactiveglenngabe
Brian DeanBanklink.ioBrianEDean
Shane BarkerConsultantshane_barker
Mike VolpeLola.commvolpe
Wil ReynoldsSEER Interactivewilreynolds
Cyrus ShepardFazillion mediaCyrusShepard

A spokesperson from Rock The Rankings commented on the findings: “Within the SEO industry, there is a lot of conversation on social media, and for those who are new to the industry, it’s vital to connect with the right people. This study aims to help those who want to stay up to date with the latest trends by taking a close look the industry’s most knowledgeable figures who are sharing content on social media.  

“There is so much talent in the industry, and as it continues to grow, there will no doubt be new influencers cropping up in the near future, however, we are incredibly lucky to get such incredible insights from our current top 20.” 

The study was conducted by Rock The Rankings, which is dedicated to helping grow SaaS and B2B Tech companies with SEO-focused content marketing. 

Methodology 

We collected various data points to assess each SEO influencer and provide a final popularity score, the metrics included: Number of Twitter followers, No. of Linkedin followers, No of tweets, Tweets including twitter handle, Engagement rate (%) 

Mentions was calculated via the Twitter API – we were able to search for any tweets including the twitter handle of each SEO 

Engagement rate was calculated for each tweet by adding together retweets, likes and replies and dividing it by the follower count – we then took an average across all tweets for each SEO 

We then converted all of the data points into a relative score (out of 100) – multiplied each metric by the weighting to provide a relative popularity score and give an overall ranking. 

For more informations click rocktherankings.com

Ohne sichere Energieversorgung gibt es keine IT-Sicherheit

Die IT-Sicherheit bekommt im Zeichen der Energiekrise eine ganz neue Deutung und eine Brisanz, mit der wir nicht gerechnet haben, so formuliert es Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug. Es ist ihrer Meinung nach höchste Zeit, die richtigen Konsequenzen daraus zu ziehen.

Leere Pipelines im Osten und stillstehende Atomanlagen im Westen, beispielsweise in Frankreich, sorgen für horrend steigende Preise und massive Versorgungsengpässe. Damit ist nicht nur die Energieversorgung der IT und damit die IT-Sicherheit insgesamt in Gefahr, sondern vitale Interessen unseres Gemeinwesens an sich. Gesellschaften mit hoher Digitalisierungsreife hängen an der Nabelschnur der IT. Diese „virtuelle“ Grenze haben wir schon lange überschritten. Und die IT wiederum hängt am Tropf eines reibungslosen Energienachschubs. Weite Teile unserer Wirtschaft, unserer Infrastruktur und unserer sozialen Dienstleistungen sind ohne stabile IT-Unterstützung funktionsunfähig. Und die braucht nun mal den Strom aus der Steckdose – ob wir wollen oder nicht. IT-Sicherheit muss also zuallererst als IT-Resilienz gedacht werden. Und die Voraussetzungen dafür sind aktuell denkbar schlecht.

IT-Netze hängen an Versorgungsnetzen

Statt blauäugigem Voluntarismus und taktischen Spiegelfechtereien brauchen wir spätestens jetzt strategische Weitsicht, geopolitische Nüchternheit, Konzentration auf das Notwendige und den Komplettverzicht auf ideologische Scheuklappen. Klar ist: Die Ereignisse der letzten Wochen haben uns gezeigt, wie sehr unsere arbeitsteilige Gesellschaft von einer sicheren Energieversorgung abhängt. Gewusst haben wir das schon immer – aber höchst erfolgreich verdrängt. Es gab ja auch keinen Anlass, sich in Boom-Zeiten mit dieser unangenehmen Gewissheit zu belasten. Aber jetzt ist Zahltag, die Rechnung wird serviert. Ganz weit oben listet sie die Abhängigkeiten auf, die wir mit der IT und der Digitalisierung aller Lebensbereiche für unsere Lebensgrundlagen eingegangen sind. Was passiert in einem digitalisierten Lager, wenn die IT-Steuerung ausfällt? Versuchen Sie mal, dort ohne Roboter Zugriff auf ein Hochregal zu bekommen. Händisch geht da gar nichts. Selbst wenn beispielsweise dringend benötigte Ersatzteile für Pipeline-Pumpen dort lägen, finden und zugreifen darauf könnten wir nicht. Was passiert in Krankenhäusern, Wasserwerken oder Entsorgungsbetrieben ohne sichere, sprich schlicht und einfach nur laufende IT? Die Liste ließe sich unendlich fortsetzen. Kritische Infrastrukturen sind mehr oder weniger digitalisiert. Ohne funktionierende IT müssen sie den Betrieb genauso einstellen wie mehrwertschaffende Betriebe mit Hunderttausenden von Arbeitsplätzen. Ein düsteres Bild, zugegeben, aber mit nicht unerheblichem Wahrscheinlichkeitsfaktor.

Schluss mit den Träumereien

IT-Sicherheit heißt also zuallererst Versorgungssicherheit. Das haben wir in unserer Digitalisierungs-Euphorie als selbstverständlich vorausgesetzt. Doch dieser naive Optimismus ist geplatzt. Moderne Gesellschaften hängen um so mehr an der energiehungrigen IT-Nabelschnur, je stärker sie digitalisiert sind. Digitalisierte Funktionen aber sind nicht durch manuelle Eingriffe zu ersetzen. Das ist konzeptionell so vorgesehen und innerhalb der digitalen Logik ja auch richtig. Aber wehe, der energetische Nachschub fehlt. 1973 konnten wir noch einen autofreien Sonntag einlegen. 2022 ein IT-freies Wochenende? Absurd. Selbst scheinbar so profane Aktivitäten wie Melken oder Tanken wären nicht mehr möglich. Die idealisierende Vorstellung von der Reversibilität technologischer Entwicklungen entpuppt sich auch im Fall von IT und Digitalisierung als eine romantische Illusion. Statt vom Roll-back zu träumen, muss sie ein stabileres Fundament bekommen. IT-Resilienz beginnt bei den Förderanlagen und Pipelines, den Windrädern und Solar-Anlagen, den Kraftwerken und Versorgungsnetzen. Und diese fundamentale Form von IT-Sicherheit muss dringend an die Spitze der To-do-Agenda

Die Rolle des E-Contracting im neuen Lieferkettengesetz

Andreas Zipser beschreibt eine bürokratische Mammutaufgabe. Aber dafür gibt es Tools.

Wenn 2023 das neue Lieferkettengesetz in Kraft tritt, braucht es smarte Technologien, um die neuen Vorgaben auch umzusetzen. Das digitale Vertragsmanagement spielt hier eine wesentliche Rolle – und bietet neben Rechtssicherheit und einem 360-Grad-Überblick auf Vertragspartner auch schlankere Geschäftsprozesse.

Als ob die globalen Lieferketten den Unternehmen momentan nicht schon genug schlaflose Nächte bereiten würden, droht das Supply Chain Management im nächsten Jahr zu einer bürokratischen Mammutaufgabe zu werden. Denn ab dem 1. Januar 2023 tritt in Deutschland das Lieferkettensorgfaltspflichtengesetz (LkSG), kurz Lieferkettengesetz, in Kraft. Unternehmen mit mehr als 3.000 Mitarbeitenden müssen dann nachweisen, dass sie bei der Erbringung ihrer Dienstleistungen oder bei der Herstellung ihrer Produkte die vorgeschriebenen Sorgfaltspflichten in Bezug auf Menschenrechte und Umweltschutz einhalten – und zwar bei jedem Schritt, von der Gewinnung der Rohstoffe bis zur Lieferung an den Endkunden. Ab 2024 schließt das Lieferkettengesetz zudem auch Unternehmen ab 1.000 Mitarbeitenden ein.

Transparenz im bürokratischen Supply Chain-Dschungel

Sinnvolles Gesetz, massig Arbeit: Der Maßnahmenkatalog ist lang, die Berichterstattung umfangreich und der Begriff „Lieferkette“ weit gefasst. So gilt es zukünftig, die Tätigkeiten des Zuliefer-Netzwerks genauestens zu kontrollieren und sich vertraglich von seinen Partnern versichern zu lassen, dass die gesetzlichen Anforderungen auch tatsächlich erfüllt wurden. Da kann die Compliance schnell zur Sisyphos-Arbeit mutieren. Das betrifft auch den Mittelstand. Je nach Konstellation der Lieferkette, der Größe von Zulieferern und Kunden sowie anderen Faktoren erstreckt sich das Gesetz auch auf kleinere und mittlere Betriebe.

Um den Sorgfaltspflichten entlang komplexer und weit verzweigter Lieferketten nachzukommen und weiterhin reaktionsfähig zu bleiben, ist im Vertragsmanagement ein 360-Grad-Überblick unabdingbar. Geschäftliche Beziehungen, deren Verträge rein in Papierform bestehen, sind da keine Hilfe. Im Gegenteil: Die Überwachung und Rückverfolgung von Vereinbarungen und Verhaltenskodizes, Zulassungs- und Qualifizierungsdokumenten, Service Level Agreements (SLA) von Logistikpartnern sowie Lieferantenunterlagen ist in gedruckter Form kaum noch zu stemmen – und zudem mit einem enormen Effizienzverlust verbunden. Das Gebot der Stunde lautet: Raus aus dem Papierdschungel und hin zur Digitalisierung von Geschäftsprozessen.

Das sollte eine Vertragsmanagementlösung aufweisen können

Digitales Vertragsmanagement setzt dort an, wo das Optimierungspotenzial am größten ist: bei einer effizienteren Zusammenarbeit aller Prozessbeteiligten. Moderne, webbasierte Vertragsmanagement-Software erzeugt dafür eine zentrale Plattform für die Erstellung, Unterzeichnung und Archivierung von Verträgen. Im Mittelpunkt steht in der Regel die E-Akte, die alle mit einem Vertrag verbundenen Dokumente wie Vertragsgegenstand, Vertragspartner, Vertragstyp, Laufzeiten, Fristen, Zusatzvereinbarungen sowie die Kommunikationsverkehr, E-Mails und Notizen enthält. Es gibt aber noch weitere Kriterien, die Unternehmen bei der Auswahl einer Vertragsmanagementlösung berücksichtigen sollten.

  • Einfaches und einheitliches Erstellen: Idealerweise bietet die Vertragsmanagement-Software Templates sowie vorgefertigte Textpassagen und Parameter zur Vertragserstellung. Auch neue Vertragsvorlagen sollten sich unkompliziert in die Lösung einpflegen lassen. Wie bei einem Baukastensystem können Mitarbeitende dann Verträge rechtsicher (z. B. LkSG-konform) verfassen und dabei flexibel Konditionen des Vertragspartners einbeziehen. Der hohe Automatisierungsgrad sorgt nicht nur für mehr Einheitlichkeit und weniger Fehler, sondern verkürzt auch die Bearbeitungsdauer und macht Workflows planbarer.
  • Sicher und jederzeit zugreifbar im Cloud-Archiv: Die revisionssichere Dokumentation und Archivierung von Verträgen ist bei der Umstellung auf ein digitales Vertragsmanagement unverzichtbar. Vor allem wenn es darum geht, lückenlos nachweisen zu können, dass alle Compliance-Vorgaben nach bestem Wissen und Gewissen erfüllt wurden. Die Cloud hat sich hier als sicherer Aufbewahrungsort etabliert, in dem Verträge rund um die Uhr und mit einem Klick zentral und ortsunabhängig erstellt und gespeichert werden können, um jederzeit auf sie zuzugreifen. Entsprechende Vertragsmanagementlösungen bieten integrierte Sicherheitsmaßnahmen, um Zugriffsrechte schnell und zuverlässig zu verwalten. Zugleich unterstützen sie rechtliche Standards wie die Datenschutz-Grundverordnung (DSGVO), die Grundsätze ordnungsmäßiger Buchführung (GoB) und die Prüfbarkeit digitaler Unterlagen (GDPdU).
  • Gezielte Suche: Einmal im Cloud-Archiv abgelegt, bleiben Verträge eine wichtige Informationsquelle für den Einkauf, die Rechts- und Finanzabteilung sowie für Compliance- und Supply-Chain-Experten. Mit einem Mausklick erhalten Unternehmen Einblick in alle Details, inklusive der vollständigen Protokollierung der Vertragsschritte. Moderne Vertragsmanagementlösungen greifen auf Künstliche Intelligenz (KI) und Algorithmen zurück, um Informationen zielsicher im Kontext der Daten zu finden. Inhalte sollten dabei sowohl über Schlagwörter als auch über eine semantische Volltextsuche auffindbar sein. Wer beispielsweise nach bestimmten Compliance-Standards zum Thema Menschenrechte und Umweltschutz sucht, kann schneller auf relevante Passagen in einem Vertrag zugreifen. Je nach Automatisierungsgrad der Vertragsmanagement-Software lassen sich auch Workflows zur Prüfung und Freigabe implementieren sowie Alerts einrichten (z. B. Fristenkontrolle).
  • Grenzenlose Zusammenarbeit: Innerhalb globaler Lieferketten heißt es, Vereinbarungen mit Unternehmen und Zulieferern in unterschiedlichen Ländern, unterschiedlichen Gesetzesgrundlagen, Formaten und Zeitzonen auszuhandeln. Das digitale Vertragsmanagement kann für diese Art der Zusammenarbeit eine Plattform darstellen, auf der Verträge einfach eingesehen und in Absprache mit dem Vertragspartner angepasst werden können. Ein Berechtigungsmanagement sorgt zudem für eine schnelle Einbindung interner und externer Entscheidungsträger in Prüf- oder Freigabeprozesse.

Das i-Tüpfelchen: Die E-Signatur

Andreas Zipser erläutert, wie digitales Vertragsmanagement für mehr Rechtssicherheit sorgen kann. (Quelle: Andreas Zipser)

Ein Vertrag ohne Unterschrift ist nur ein Stück Papier – oder im E-Contracting nur eine Datei aus Bits und Bytes ohne Rechtsgültigkeit. Hier kommt die E-Signatur ins Spiel: Der Vertragspartner erstellt ein elektronisches Dokument und schickt eine Aufforderung zur Unterschrift. Der Empfänger öffnet den Link und unterzeichnet das Dokument. Je nach Sicherheitsbedürfnis und Rechtsrahmen lässt sich dieser sehr vereinfachte Workflow weiter anpassen. Technisch gesehen gibt es drei verschiedene Möglichkeiten der digitalen Unterschrift.

Die einfache elektronische Signatur (z. B. die Unterschrift als Bilddatei) gilt in Deutschland juristisch zwar als „Signatur in Textform“, bietet jedoch Spielraum für Fälschungen und Betrug. Die fortgeschrittene elektronische Signatur (FES) unterzieht die Unterschrift daher einer technischen Prüfung und stellt z. B. über ein SMS-TAN-Verfahren die Identität des Unterzeichnenden sicher. Größte Sicherheit bietet allerdings die qualifizierte elektronische Signatur (QES). Hier erfolgt die Identifizierung der Vertragspartner vorab über ein elektronisches Verfahren (z. B. Video-Ident, Vor-Ort-Ident, Post-Ident oder elektronischer Personalausweis).

Und wie sieht es mit der Rechtssicherheit aus? Die Europäische Union hat bereits 2014 mit der eIDAS-Verordnung (electronic IDentification, Authentication and Trust Services) einen rechtlichen Rahmen für die Verwendung elektronischer Signaturen geschaffen. Und inzwischen wird die digitale Signatur auch in zahlreichen Ländern außerhalb der EU anerkannt. Damit steht der weltweit Nutzung der E-Signatur auch im Zusammenhang mit dem Lieferkettengesetz nichts mehr im Weg.

Mit jeder Unterschrift Kosten sparen

Grundsätzlich punktet das digitale Vertragsmanagement in allen Bereichen – nicht nur entlang der Supply Chain. Nach einer Umfrage des Branchenverbands Bitkom wechselten 60 Prozent der befragten Unternehmen während der Corona-Pandemie zumindest teilweise von der manuellen Unterschrift auf eine digitale Signatur. So ersparen sie sich nicht nur den lästigen Briefverkehr, sondern verkürzen darüber hinaus die Durchlaufzeiten von Vertragsabschlüssen von mehreren Tagen auf wenige Stunden. Im Vergleich zum analogen Vertragsmanagement sinken die Betriebskosten um ein Vielfaches. Während eine Signatur in Papierform ein Unternehmen im Durchschnitt 23,50 Euro kostet, kommt die E-Signatur gerade mal auf 1,65 Euro. Das reduziert die Kosten um knapp 93 Prozent.

Ein weiterer positiver Nebeneffekt des digitalen Vertragsmanagement: Statt Unmengen von Papier zu produzieren und in verschlossenen Schränken zu horten, lässt sich mit E-Contracting und E-Signatur Nachhaltigkeit praktizieren – und zwar über die Einhaltung von gesetzlichen Umweltschutz-Vorschriften hinaus.

Die Zeit drängt für die Digitalisierung von Geschäftsprozessen. Mit dem im Februar 2022 eingereichten Vorschlag des EU-Lieferkettengesetz steht der Supply Chain nämlich bereits die nächste Compliance-Hürde bevor. Dabei geht die EU in ihren Anforderungen sogar weit über das deutsche Lieferkettengesetz hinaus. Unternehmen, die heute schon auf smarte Lösungen für das digitale Vertragsmanagement zurückgreifen können oder bereits kurz vor der Einführung stehen, haben hier einen deutlichen Vorsprung und den entscheidenden Wettbewerbsvorteil.

Über den Autor

Andreas Zipser ist seit März 2021 CEO und Vorstandsvorsitzender der EASY SOFTWARE AG. Mit über 20 Jahren in führenden Positionen in der Softwarebranche vollzog er zuletzt beim britischen Softwareunternehmen Sage als Managing Director Central Europe erfolgreich den strategischen Schritt von On-Premise-Lizenzprodukten zu subskriptionsbasierter Software in der Cloud. Der Diplom-Mathematiker und Betriebswirt verfügt über langjährige Expertise in Wachstum und Transformation von Softwareunternehmen sowie mit Cloud-Computing im Mittelstand.


Bildmaterial:

Bildquelle / Lizenz Aufmacher: Easy Software


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Prevention first: Die vier größten Cybersicherheitsgefahren für Unternehmen und die passende Abwehrstrategie

Nach wie vor ist Sicherheit und Datenschutz ein dominierendes Thema – und wiederkehrend zeigen Studien verlässlich die Schwachstellen auf. Hans-Peter Bauer, SVP EMEA bei BlackBerry zeigt wirkungsvolle Strategien, die schnell anwendbar sind.

Die Arbeitswelt verändert sich dynamisch: Homeoffice und Remote Work bewähren sich als begehrte Option für Arbeitnehmer, den Arbeitsplatz in die eigenen vier Wände zu verlegen. Allerdings führt das zu neuen Herausforderungen, denn laut dem aktuellen Threat Report 2022 von BlackBerry haben Cyberangriffe um 400 Prozent zugelegt – und daran hat die Arbeit im Homeoffice einen großen Anteil. Denn mehr Eintrittspunkte in Netzwerke durch Homeoffice bedeuten zugleich mehr Angriffsfläche beispielsweise für Ransomware. Einen wirksamen Lösungsansatz bieten moderne Sicherheitskonzepte auf Basis von künstlicher Intelligenz und unter dem Stichwort Prevention first.

Erpressung mithilfe von Ransomware gehört zu den besonders heimtückischen Angriffsmethoden und stellt für Unternehmen in vielfacher Hinsicht eine existenzielle Gefahr dar. Der BlackBerry Threat Report 2022 belegt, dass das Volumen um 935 Prozent zugelegt hat und Hacker gestohlene Daten von mehr als 2.300 Unternehmen auf eigens dafür eingerichteten Seiten platziert haben. Parallel dazu arbeiten Millionen von Arbeitnehmern an virtuellen Arbeitsplätzen, die alle von zu Hause aus eingerichtet werden. Viele Unternehmen versuchen immer noch, sich an diese neue Normalität des Homeoffice anzupassen und der Einsatz von Technologien wie Videokonferenzen und VPNs steigt sprunghaft an.

New Work und IT-Sicherheit in Einklang bringen

Die Zukunft der Arbeit wird schon seit fast einem Jahrzehnt als eine fast vollständig ferngesteuerte oder virtuelle Arbeit angepriesen. Aber erst jetzt ändert sich auch die Einstellung zur Telearbeit. Essenziell sind Ansätze, bei denen Technologie und Sicherheit mit dem Wandel Schritt halten können. Denn die aktuelle Generation von Arbeitnehmern erwarten von ihren Arbeitgebern, dass sie ein neues Arbeitsumfeld schaffen, das allen Arbeitsstilen und den individuellen Bedürfnissen jedes einzelnen Mitarbeiters gerecht wird. Dabei gilt es verlässlich sicherzustellen, dass die zusätzliche Komplexität nicht zu weitreichenden Sicherheitslücken führt.

Um zu beantworten, wie Hacker immer wieder einen Weg ins Innere von IT-Netzwerken finden und was Unternehmen tun können, um sich umfassend zu schützen, lohnt ein Blick auf die vier zurzeit größten Cyber-Bedrohungen für Unternehmen.

  1. Phishing
    Phishing ist zwar keineswegs neu, aber immer noch eine der größten Bedrohungen für Unternehmen. Die Angriffswellen können für Cyberkriminelle selbst dann von Vorteil sein, wenn nur ein winziger Prozentsatz der zahlreichen versendeten Nachrichten ihr Ziel erreicht. Besonders gefährlich ist Spear-Phishing, eine Methode, die zielgerichtet auf eine bestimmte Person, Gruppe oder Organisation zugeschnitten ist. Im Gegensatz dazu werden bei regulären Phishing-E-Mails Massen-E-Mails an eine große Anzahl ahnungsloser Kontakte verschickt.
    Für normale Benutzer wird es immer schwieriger, Phishing-Versuche zu erkennen. Daher erfordert die Phishing-Abwehr koordinierte Maßnahmen von Arbeitnehmern und Arbeitgebern. Mitarbeiter sollten unbedingt die Sicherheitsrichtlinien des Unternehmens befolgen und sicherstellen, dass alle ihre Geräte durch Sicherheitssoftware geschützt sind. Zudem sind automatische Aktualisierungen umgehend durchführen, damit Phishing-Angreifer keine bekannten, behebbaren Schwachstellen ausnutzen können. Arbeitgeber können das Bewusstsein für Phishing durch regelmäßige Mitarbeiterschulungen stärken. Empfohlen wird außerdem eine Kontrolle der Endpunktsicherheit für unternehmenseigene und mitarbeitereigene Geräte, die sowohl online als auch offline eingesetzt werden.
  2. Social Engineering
    Ähnlich wie beim Phishing werden die Opfer beim Social Engineering in eine Falle gelockt. Das geschieht etwa via E-Mail, Telefon, SMS oder über soziale Medien. Ein Angreifer könnte beispielsweise ein gefälschtes LinkedIn-Profil erstellen, das für die Mitarbeiter überzeugend genug aussieht, um ihre Freundschaftsanfrage zu akzeptieren. In den darauffolgenden Nachrichten werden oft winzige Informationen erfragt, um den Angreifern den Einstieg zu ermöglichen, nach dem sie gesucht haben.
    Das Aufkommen von Künstlicher Intelligenz (KI) als Werkzeug im Cyberspace bedeutet, dass Social Engineering-Kampagnen in großem Maßstab durchgeführt werden können. Auch hier ist das schwache Glied in der Sicherheitskette der Mensch. Sobald die Mitarbeiter die grundlegenden Sicherheitsprotokolle beherrschen, verstehen sie, wie viele Angriffe allein durch konsequentes Verhalten verhindert werden können.
  3. Schwachstellenmanagement
    Als wesentlicher Bestandteil der IT- und Netzwerksicherheit umfasst Schwachstellenmanagement die Identifizierung, Klassifizierung, Priorisierung, Behebung und Entschärfung von Softwareschwachstellen. Heutzutage warten Hacker nicht mehr darauf, dass ein Exploit veröffentlicht wird – sie installieren stattdessen Hintertüren, die so lange schlummern, bis sie ein geeignetes Exploit finden. Dennoch gehen einige Unternehmen immer noch davon aus, dass sie sicher sind, bis eine Sicherheitslücke veröffentlicht wurde. Leider bedeutet das, dass Unternehmen ihre Systeme oft zu langsam aktualisieren oder mit Patches versehen, und so den Angreifern hinterherhinken.
    Unternehmen sollten daher eher proaktiv als reaktiv vorgehen. Lösungen, die KI oder ML nutzen, ermöglichen eine noch schnellere Erkennung von Bedrohungen oder Schwachstellen. Falls das nicht möglich ist, kann die Aufgabe an externe Sicherheitspartner ausgelagert werden.
  4. Alarm-Müdigkeit
    Für Unternehmen, die mit internen Ressourcen arbeiten, ist die schiere Menge der Sicherheitswarnungen, die jeden Tag bearbeitet werden müssen, ein großes Problem. Nur ein Prozent der Sicherheitswarnungen erfordert eine Untersuchung und ein Zehntel davon verlangt Aufmerksamkeit. Bei der ständigen Flut von Warnmeldungen fällt es jedoch schwer, sich auf die wirklich wichtigen Dinge zu konzentrieren, und das kann dazu führen, dass echte positive Meldungen übersehen werden.
    Für Unternehmen kann es daher kostengünstiger sein, abonnementbasierte Managed Detection and Response (MDR)-Lösungen zu nutzen. Diese Dienste bieten eine kontinuierliche Bedrohungsverfolgung und -überwachung mithilfe von KI.
    Damit gelingt es, Daten zu filtern und echte Bedrohungen für das Unternehmen zu erkennen. Sobald eine Eskalation erforderlich ist, kann das interne Sicherheits-Team Prioritäten setzen und seine Bemühungen darauf konzentrieren.

Smarte Technologien für umfassende IT-Sicherheit

Die wichtigste Voraussetzung dafür, dass die genannten Schwachstellen nicht entstehen, ist die flächendeckende Einführung von intelligenten Sicherheits- und Datenschutzlösungen. Denn die Unternehmenssicherheit muss systematisch auf die Herausforderungen des New Work abgestimmt werden. Am besten wird dieser Schutz durch eine umfassende Sicherheitslösung gewährleistet, die maschinelles Lernen und prädiktive KI-Technologien nutzt, um Sicherheitsrichtlinien auf der Grundlage von Verhaltens- und Standortmustern, Netzwerkvertrauen und Gerätenutzung dynamisch anzupassen.

Im Wesentlichen handelt es sich dabei um eine Sicherheitslösung, die menschliche Schwächen ausgleicht, Telearbeit auf globaler Ebene erleichtert und ermöglicht, Netzwerke vor Ort schützt und die Unzulänglichkeiten von VPNs ausgleicht. Darüber hinaus schützt sie die Flut neuer Endgeräte, die aus einer boomenden BYOD-Umgebung resultiert, sowie die Privatsphäre von Arbeitnehmern, die in ihrer neuen Arbeitsumgebung viele verschiedene Technologien nutzen müssen.

New Work verpflichtet Unternehmen dazu, ihre Sicherheitsrichtlinien kontinuierlich anzupassen, um mit den neuen, sich schnell verändernden Risiken Schritt zu halten. Vor allem aber müssen sie vorausschauend und proaktiv handeln, um ein sicheres Arbeitsumfeld zu schaffen, in dem Mitarbeiter nicht belastet, sondern unterstützt werden.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Panel: Nachhaltigkeit und Rezession?

Ist Nachhaltigkeit nur ein „Schön-Wetter-Thema“, wenn es der Wirtschaft gut geht oder machen nachhaltige Geldanlagen und nachhaltiges Investieren auch dann Sinn, wenn – wie jetzt – sich die wirtschaftlichen Aussichten verdunkeln und Anzeichen einer Rezession erkennbar sind? Wir haben uns umgehört.


Guy Wilkinson ist ESG Analyst bei La Française AM.

Nachhaltigkeit gewinnt langfristig

Klimawandel und Nachhaltigkeit können den Aufschwung nach einer Rezession erschweren. Infolge der Pandemie, der Invasion in die Ukraine und der Energiekrise steht nun das Thema Nachhaltigkeit im Fokus – eine Baisse kann als Bewährungsprobe für nachhaltiges Investieren verstanden werden. Die EU versucht, sich vorsichtig von russischem Gas zu lösen, und fordert gleichzeitig durch den Green Deal mehr Investitionen in saubere Energie. Kurzfristig wird die potenzielle Abkühlung infolge des Inflationsdrucks bei den Unternehmen vermutlich zu sinkenden Gewinnmargen und Barmitteln führen, was ihre Kapitalaufwendungen und damit ihre Investitionen in saubere Energie und Energieeffizienz verringern wird. Langfristig werden jedoch der Regulierungsdruck zugunsten eines sauberen Energiesystems und der Verbraucherdruck zur Senkung der Energiekosten das Wachstum grüner Anlagen vorantreiben. Nachhaltige Portfolios haben sich bisher in Abschwungphasen als stabil erwiesen und bieten weniger Volatilität, was sich auch in der bevorstehenden Rezession nicht ändern dürfte.


Paul Schofield bekleidet bei NN Investment Partners die Position Head of Sustainable & Impact Equity.

Nachhaltigkeit liegt auf der Hand

Zwar gibt es Stimmen, die behaupten, dass „nachhaltige“ Geldanlagen ein neues Phänomen sind, aber viele verwalten ihr Geld schon seit Jahrzehnten so. Nachhaltiges Investieren ist daher auch unter Rezessionsbedingungen erprobt und hat sich in der Vergangenheit bewährt. Der Grund dafür liegt für mich auf der Hand: Ein Unternehmen, das seine wesentlichen Umwelt-, Sozial- oder Governance-Risiken gut im Griff hat, schneidet meist auch in schweren Börsenzeiten besser ab. Gute Unternehmensführung ist eindeutig ein Pluspunkt in schwierigen Zeiten. Ist der Arbeitsmarkt angespannt, wie derzeit, können Unternehmen mit einer vielfältigeren und integrativeren Belegschaft gewöhnlich leichter Talente gewinnen und binden und somit unsichere Zeiten besser überstehen.

Außerdem dürfte ein nachhaltiges Aktienportfolio dazu führen, dass man sich von zyklischeren Marktbereichen, wie Rohstoffen, ab- und den nicht-zyklischen Sektoren wie dem Gesundheitswesen zuwendet. Dies kann zu einer defensiveren Ausrichtung der Fonds führen, die auch für ein Rezessionsumfeld geeignet sein dürften.


Adrienn Sarandi ist Head of ESG Strategy & Development bei Janus Henderson Investors.

Drei Gründe für Nachhaltigkeit

Es gibt drei Gründe, warum ESG eine Rezession überdauern wird.
Erstens: ESG-Fonds zeigten sich bisher resistent gegen Marktrückgänge. Wissenschaftler der Harvard University haben herausgefunden, dass besonders nachhaltige Unternehmen zwischen 1993 und 2010 selbst in Abschwungphasen deutlich besser abschnitten als ihre weniger nachhaltigen Mitbewerber.
Zweitens: Die Gründe für eine Integration von ESG sind stärker denn je. Wir benötigen dringend Lösungen gegen den Klimawandel, den Biodiversitätsverlust und viele andere Nachhaltigkeitsfragen. Regierungen spielen eine wichtige Rolle, aber wir sind auch auf Innovationen angewiesen und auf langfristige Kapitalallokationen.
Drittens: ESG-Anleger verfolgen in der Regel eine langfristige Strategie über Marktzyklen hinaus. Wir glauben, dass die Entwicklung hin zu ESG-Investitionen anhält, denn Regularien werden verschärft und die Gesellschaft wird umweltbewusster und sozialer.

ESG ist keine Modeerscheinung oder ein Luxus, der in schwierigen Zeiten vernachlässigt werden kann. ESG ist ein entscheidender Faktor für langfristig stabile Renditen und eine nachhaltige Welt.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Graphtechnologie schafft Kontext für ethische Standards

Dirk Möller, Area Director of Sales CEMEA, Neo4j, beschreibt, wie KI für mehr Transparenz in der medizinischen Forschung sorgen kann.

Algorithmen, KI und smarte Technologien sind in aller Munde – doch neue Möglichkeiten bringen eine neue Verantwortung mit sich. Um ethischen Standards in der Medizintechnik und der medizinischen Forschung gerecht zu werden, braucht es eine Technologie, die umfassenden Kontext liefert.

Ob beim autonomen Fahren, bei Chatbots im Internet oder Empfehlungen von Streamingdiensten – KI und smarte Algorithmen sind längst Teil unseres Alltags geworden. Damit rückt die Frage nach ethischen Standards als Rahmen für deren Einsatz in den Fokus.

Die EU-Kommission gab in ihrem Vorschlag von April 2021 die Richtung vor. Der Entwurf für den Artificial Intelligence Act (kurz: AIA), soll einen einheitlichen Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz schaffen. Der AIA stellt hohe Anforderungen an Transparenz, Genauigkeit und Aufzeichnungspflicht. Es wäre die erste EU-Verordnung dieser Art zur Regulierung von Produkten basierend auf Künstlicher Intelligenz. Von ein paar Ausnahmen abgesehen, würde sie für die meisten KI-Systeme gelten, also auch im HealthCare und Life Science Bereich.

Um diese Standards zu erfüllen, sind Technologien notwendig. Insbesondere Machine Learning und Deep-Learning übernehmen hier eine wichtige Rolle. Sie ermöglichen es, hoch vernetzte Daten – wie sie in der Biowissenschaft sowie im Gesundheits- und Patientenwesen existieren – effektiv zu verarbeiten und zu analysieren.

Fehlender Kontext bedeutet Fehleinschätzungen

Damit künstliche Intelligenz gerade in einem so sensiblen Umfeld wie der Medizin menschenähnliche und situationsgerechte Entscheidungen treffen kann, muss sie den Kontext einbeziehen. Mit „Kontext“ sind alle verwandten und relevanten Informationen eines Entscheidungsprozesses gemeint – aus unterschiedlichen Quellen. Eine kontextgesteuerte KI trägt dazu bei, die Erklärbarkeit und Transparenz einer Entscheidung zu gewährleisten.

Dabei muss KI bestimmte Anforderungen erfüllen: Sie muss mit Ambiguität umgehen können. Sie braucht ein umfassendes Training, strenge und klar definierte Regeln und muss für spezifische Anwendungen konzipiert werden. Zudem sollten die Systeme auch auf neue Situationen angemessen und im Rahmen ihrer Konfigurationen reagieren können. Fehlt es an Kontext, so sind die Entscheidungen schlimmstenfalls sogar schädlich – zum Beispiel, wenn es zu voreingenommenen Empfehlungen oder schädlichen Interpretationen kommt.

Graphtechnologie für vernetzte Daten

Wie schafft man einen solchen Kontext? Hier kommt Graphtechnologie ins Spiel. Laut einer Prognose von Gartner werden bis 2025 bereits 80 Prozent aller Daten und Analysen darauf basieren. Graphdatenbanken räumen Beziehungen zwischen Daten denselben Stellenwert ein wie den Daten selbst. Daten und Beziehungen werden dabei realitätsnah abgebildet – in Knoten und Kanten. Im Graphen ist der Knoten „Patient“ zum Beispiel mit Ärzten, Medikamenten oder bestimmten Therapien verbunden. In der medizinischen Forschung werden Gene, Targets und Wirkstoffe als Knoten-Kanten-Konstrukt dargestellt. So lässt sich leicht erkennen, wie jede einzelne Entität mit anderen in Verbindung steht. Was hierbei entsteht, ist ein semantischer Kontext.

Graphmodell: Dreieck aus Patient, Symptomatik und Arzt

Fünf zentrale Faktoren für KI mit mehr Kontext

  • Vertrauenswürdigkeit dank Transparenz
    Weltweit sind 54% der Menschen bereit, sich im Rahmen der Gesundheitsversorgung auf KI und Robotik einzulassen. Das setzt jedoch umfassende Transparenz voraus. Von Assistenzsystemen berechnete Diagnosen und Therapievorschläge müssen möglichst leicht interpretierbar und nachvollziehbar sein. Andernfalls kommen schnell Zweifel auf. Hier gilt es auch, Ängste zu nehmen, Vorbehalte abzubauen und die Wissenskluft in der Gesellschaft zu schließen.

KI-Diagnosen umfassen Prozesse, die Krankheiten oder Symptome eines Patienten auf Grundlage von Daten erklären. Analysiert wird die Krankengeschichte des Patienten sowie Messwerte aus Tests und Untersuchungen (z. B. EEG, MRT). Während menschliche Diagnoseprozesse zeitaufwändig und anfällig für subjektive Interpretationen sind, bieten computergestützte Verfahren bei ausreichendem Kontext einen objektiven Blick auf die Daten. KI ersetzt damit keinesfalls die menschliche Erfahrung, Kompetenz und Empathie. Sie dient stattdessen als wichtige Ergänzung und steigert zudem den Automatisierungsgrad. Vor allem in überlasteten Gesundheitssystemen kann diese KI-Unterstützung Kosten einsparen und den Zugang zu Gesundheitsdiensten und Ärzten verbessern.

  • Data Lineage sorgt für hohe Verlässlichkeit
    Graphtechnologie eignet sich hervorragend für Data Lineage, also für Einblicke in die Herkunft bestimmter Daten. Im Graphen ist leicht erkennbar, wie Daten geändert wurden, wo sie Verwendung finden und wer auf sie zugreift. Insbesondere bei vertraulichen, hochsensiblen Daten über Patienten oder umfassenden Daten in der medizinischen Forschung garantiert dies eine hohe Datenintegrität. Das Verstehen und Überwachen der Datenherkunft schützt auch vor der Manipulation von Eingabedaten. Kontextbezogene Informationen helfen zudem, die eigentliche Ursache eines Problems zu erkennen, anstatt nur ein Symptom zu behandeln.

Anschaulich wird diese Eigenschaft von Graphen am Beispiel des Deutschen Zentrums für Diabetesforschung, kurz DZD. Dort wurde 2018 ein standortübergreifendes Knowledge Management auf Basis der Graphdatenbank Neo4j errichtet: DZD Connect. Wissenschaftler stellen Fragen in natürlicher Sprache und profitieren von Nachforschungen zu Metadaten: Wie viele Blutproben von männlichen Patienten unter 69 Jahren haben wir? Aus welchen Studien stammen die Proben? Wie alt sind die Studien? Die Mitarbeiter des DZDs nutzen Graphtechnologie in ihrer Forschungsarbeit für mehr Vergleichbarkeit, um den Weg der Daten nachvollziehen zu können und um Daten entsprechend ihren Forschungsfragen gewichten zu können.

Algorithmen für mehr Transparenz bei KI-Entscheidungen
  • Fairness: Data Bias & Diskriminierung
    Im Kontext vernetzter Daten aus unterschiedlichen Quellen wird schneller offenbar, ob sogenannter Data Bias innerhalb der vorhandenen Daten vorliegt. Die aus der intensiven Produktion und Verarbeitung von Daten entstandene Verzerrung kann erheblichen Schaden anrichten – vor allem, wenn entsprechende Systeme Entscheidungen über Menschen treffen. Falsche algorithmische Ergebnisse können so zu Diskriminierung führen und soziale Ungleichheiten verstärken. Dadurch wird auch die Art und Weise beeinflusst, wie neue Daten erhoben und KI-Modelle trainiert werden.

In der medizinischen Forschung stolpern Wissenschaftler zum Beispiel immer wieder über sogenannten Gender Bias in Datensätzen. Damit sind systematische Verzerrungseffekte gemeint, die durch geschlechterbezogene Stereotypisierungen und Vorurteile geprägt sind und sowohl Wahrnehmungen als auch Entscheidungen beeinflussen. Frauen sind besonders betroffen. Viele klinische Studien liefern nur Datensätze von streng limitierten Kohorten, die jedoch nicht immer repräsentativ für die gesamte Patientengruppe stehen. Graphdatenbanken sorgen hier für ein ganzheitliches Modell und können so präventiv dem Data Bias entgegenwirken.

  • Situationelle Flexibilität & Angemessenheit
    KI-gestützte Systeme müssen flexibel sein. Bei der Entwicklung von KI muss deshalb die Interaktion mit dem Benutzer für die Gestaltung und Umsetzung autonomer Entscheidungssysteme als essenziell wichtiger Aspekt angesehen werden. Das gilt sowohl für Ärzte, die mit KI-Assistenzsystem zusammenarbeiten, als auch für Personen, die sich über medizinische Portale im Internet (z. B. NetDoktor) informieren wollen.

Ein Chatbot beispielsweise agiert im Idealfall bei einer Interaktion mit einem 7-Jährigen anders als mit einem 30-Jährigen. Kontextbezogene Informationen helfen einer KI-Lösung, sich in neuen Situationen zurechtzufinden, für die sie nicht trainiert ist. Wie es nicht funktioniert, zeigte ein Chatbot, der auf die psychologische Beratung von Kindern spezialisiert war. In einem Fall konnte das KI-System eindeutige Hinweise auf sexuellen Missbrauch nicht erkennen.

  • Bessere Vorhersagen – Prädiktive Analytik
    Eine der größten Herausforderungen beim Training von KI-Modellen besteht darin, genügend relevante Daten zu sammeln. Graph-Algorithmen wurden speziell entwickelt, um die Topologie solcher stark vernetzten Daten abzufragen: Gemeinsamkeiten finden, einflussreiche Komponenten aufdecken und Muster und Strukturen ableiten. Prädikative Elemente lassen sich in Machine Learning-Verfahren überführen. Das erhöht die Modellgenauigkeit und Präzision von Analysen – und das auf Basis von bereits vorliegenden Daten.

Wie prädikative Analysen im Gesundheitssektor helfen, zeigt das Beispiel der Association for the Advancement of Artificial Intelligence in den USA. Dort erkannten Graph-Algorithmen Cluster in der Interaktion zwischen Patienten, Ärzten, Apotheken und Versicherungen und konnten verdächtige Aktivitäten bei verschreibungspflichtigen Opioid-Schmerzmitteln aufdecken. Die Analyse des Graphen ergab Anomalien – zum Beispiel Apotheken mit sehr hohen Betäubungsmitteleinnahmen bei gleichzeitig kleinem Kundenstamm.

Graphtechnologie schafft den Kontext, um Ethik-Leitlinien beim Einsatz von KI im HealthCare und Life Science Bereich zuverlässig nachzukommen. Je größer der Kontext, desto besser die Entscheidungen. Der Entscheidungsweg ist nachvollziehbar, transparent, flexibel anpassbar und fair. So lassen sich sowohl gesetzliche Rahmenbedingungen erfüllen als auch Vorbehalte im Umgang mit KI proaktiv in Angriff nehmen. 


Über den Autor:

Dirk Möller ist seit über 20 Jahren in der IT-Branche unterwegs. Dank leitender Positionen bei Unternehmen wie Symantec, MongoDB und Couchbase entwickelte er detailliertes Fachwissen im Bereich NoSQL und Graphdatenbanken. Als Area Director of Sales CEMEA bei Neo4j unterstützt Dirk Möller Kunden, bestehende Datenbank-Lösungen zu ersetzen bzw. zu erweitern, Kosten einzusparen und mit der Graphdatenbank Neo4j echten Mehrwert aus Daten zu gewinnen.

LinkedIn: https://www.linkedin.com/in/dirkmoeller/
Twitter: https://mobile.twitter.com/dirk_1564


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Rechenzentren: Paradebeispiel für Vereinbarkeit von Umweltschutz und Wirtschaftlichkeit

Rechenzentren gelten als Stromfesser. Dabei geht es auch anders. Eric Herzog, Chief Marketing Officer bei infinidat, zeigt auf, auf welche Weise Rechenzentren nicht nur Energiefresser sein können.

Wenn Daten das neue Öl sind, dann sind Rechenzentren die neuen Motoren unserer Wirtschaft. Wie andere Motoren auch verbrauchen sie eine Menge Energie und tragen stark zum weltweiten CO2-Ausstoß bei. Laut Untersuchungen wird die IT-Branche bis 2025 voraussichtlich 20 % des weltweiten Stroms verbrauchen, mehr als jede andere Branche. Ein großes Rechenzentrum kann in einem Jahr mehr als 30 GWh Strom verbrauchen, was seinen Betreiber allein für den Strom rund 3.500.000 Euro kostet. Neben den Kosten sorgt der wachsende öffentliche Druck dafür, dass Rechenzentrumsbetreiber nach Möglichkeiten suchen, ihren CO2-Fußabdruck zu verringern. Schon jetzt verursachen etwa acht Millionen Rechenzentren Kohlendioxidemissionen, welche die der globalen Luftfahrtindustrie in den Schatten stellen. Nicht zuletzt das veränderte Bewusstsein der Konsumenten führt dazu, dass eine schlechte Energiebilanz zu einem Image-Problem werden kann.

Vor allem zwei Faktoren sind für den Energieverbrauch von Rechenzentren verantwortlich. Zum einen benötigen die IT-Geräte im Rechenzentrum Strom zu ihrem Betrieb. Das gilt für Server und Netzwerkkomponenten ebenso wie für Speichersysteme. Weil diese Geräte einen guten Teil, der verbrauchten Energie in Hitze umsetzen, benötigen sie zum anderen zusätzliche Strom zur Kühlung, weil sie nur innerhalb eines begrenzten „Temperaturfensters“ funktionieren können.

Zombie-Server

Neben einem Umstieg auf erneuerbare Energien bietet sich eine Reihe technischer Maßnahmen an, um die Nachhaltigkeit von Rechenzentren zu verbessern. Noch immer finden sich in vielen Rechenzentren Server, die nur zu einem geringen Prozentsatz ausgelastet sind. Während die großen Hyperscaler schon lange beinahe ausschließlich mit virtualisierten Servern operieren, finden sich in vielen kleineren Rechenzentren noch immer Server, die ohne Virtualisierung arbeiten und lediglich einen Workload unterstützen. Schlimmer noch finden sich zuweilen Server, die gar keine sinnvolle Arbeit mehr leisten, sogenannte „Zombie-Server“. Allein durch die Abschaltung dieser Zombie-Server und eine rund 80%ige Auslastung der benötigten Server durch Virtualisierung der Workloads lässt sich eine Menge Energie einsparen. Die Organisation, die den „Energy Star“ für besonders energieeffiziente Geräte vergibt, geht von einem Einsparpotenzial zwischen 10 und 40 Prozent allein durch Virtualisierung aus.

Temperaturtoleranz

Wie beim Stromverbrauch zum Betrieb der Server lässt sich auch bei der Kühlung sparen. Abgesehen von der Installation einer modernen, energieeffizienten Klimaanlage kann man bei der Kühlung beispielsweise Energie sparen, indem man die Anordnung der Racks ändert, um die Vermischung der warmen Abluft mit der kühlen Luft der Klimaanlage zu vermindern. Ein verhältnismäßig einfacher Schritt besteht darin die Reihen von Serverschränken jeweils in Paaren Rücken an Rücken anzuordnen. Hierdurch lässt sich die Abwärme kontrolliert zwischen den Racks abführen, während die Kühlluft von vorne an die Racks geführt wird.

Ein Schritt, mit dem sich nahezu sofort Energie sparen lässt, und das auch noch kostenlos, ist die Anpassung des Klima-Managements. So hat die American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE) bereits 2008 einen Temperaturbereich von 18 bis 26 Grad Celsius für den Betrieb von Servern empfohlen. Dessen ungeachtet streben viele Rechenzentrumsbetreiber eine Temperatur von unnötig niedrigen 13 Grad Celsius an. Mit der einfachen Maßnahme, die Klimakontrollen auf den oberen Rand des empfohlenen Temperaturbereichs einzustellen, lassen sich bis zu acht Prozent der Energiekosten pro Grad Celsius für die Kühlung einsparen.

Daten und Speicher nicht vergessen

Rechenzentrumsbetreiber, die ihren Energieverbrauch senken wollen, beschränken ihr Augenmerk häufig auf Server und deren Kühlung. Dabei lassen sich auch bei Datenmengen und deren Speicherung signifikante Einsparungen erzielen. Dass die Menge der erzeugten Daten beständig steigt, lässt sich nicht vermeiden, jedenfalls nicht durch Rechenzentrumsbetreiber. Durch geschicktes Datenmanagement können sie allerdings die Menge der gespeicherten Daten deutlich reduzieren und damit die Menge der benötigten Speichersysteme. Benutzer von Rechenzentren sollten sich überlegen, welche Daten sie für wie lange speichern sollten. Für viele Daten ist eine langfristige Speicherung weder wirtschaftlich sinnvoll, noch gesetzlich vorgeschrieben. Indem Unternehmen diese Daten nach einer jeweils angemessenen Frist löschen oder auf Systemen archivieren, die keine Energie verbrauchen (Bänder beispielsweise), können sie viel Speicherraum gewinnen und Energie sparen.

Zudem handelt es sich bei vielen gespeicherten Daten um Dubletten, Daten die mehrfach gespeichert sind. Um diesen Missbrauch von Speicherkapazität zu vermeiden, sollten Unternehmen Speicher- und Backup-Technologien mit Deduplizierung und Datenkomprimierung einsetzen. In manchen Fällen lässt sich so die gespeicherte Datenmenge um die Hälfte reduzieren.

Nicht zuletzt sollten Unternehmen ihre Storage-Systeme auf den neuesten Stand bringen und konsolidieren. Dank der Fortschritte in der Speichertechnologie für Unternehmen besteht kein Bedarf mehr an 25 oder 50 verschiedenen älteren Arrays, die jeweils eine Anwendung oder einen Workload unterstützen, wenn alle diese Anwendungen und Arbeitslasten auf nur einer oder zwei modernen Speicherplattformen für Unternehmen Platz finden können. Unternehmen können häufig 50 ältere durch zwei neue Arrays ersetzen und dennoch die erforderliche Kapazität, Leistung, Verfügbarkeit, Cyberresilienz und Zuverlässigkeit erhalten. Die Vereinfachung des Rechenzentrums durch die strategische Konsolidierung von Speichersystemen spart Ausgaben für Strom und Kühlung, minimiert den Personalbedarf für den Betrieb, verringert den Bedarf an Rack- und Bodenfläche und reduziert die Investitions- und Betriebskosten für die Speicherung im Rechenzentrum erheblich.

Schnell handeln

Einige der beschriebenen Maßnahmen lassen sich beinahe sofort umsetzen. Auch mit den etwas aufwändigeren Anpassungen sollten sich Rechenzentrumsbetreiber und -nutzer nicht allzu lange Zeit lassen. Denn für alle Maßnahmen gilt, dass sie den Rechenzentrumsbetrieb nicht nur umweltgerechter gestalten, sondern auch für erhebliche finanzielle Vorteile sorgen. Rechenzentren können letztendlich als Paradebeispiel für die Vereinbarkeit von Umweltschutz und Wirtschaftlichkeit dienen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

5 Wege zu einer nachhaltigeren Software-Architektur

Von Markus Eisele*

Markus Eisele beschreibt die Stellschrauben einer nachhaltigeren IT.

Wenn Unternehmen sich ernsthaft mit ökologischer Nachhaltigkeit beschäftigen, reicht es nicht aus, nur die Geschäftsreisen zu reduzieren oder im Büro entsprechende Maßnahmen umzusetzen. Auch die Software hat einen großen Einfluss darauf, wie viele CO₂-Emissionen anfallen. Kernstück einer nachhaltigen Architektur ist dabei immer die Verringerung des Ressourcenverbrauchs. In der IT geht es darum, den Energiebedarf – die größte Stellschraube in diesem Zusammenhang – deutlich zu reduzieren. Immerhin werden anstatt sauberer Stromquellen nach wie vor oft günstigere fossile Brennstoffe genutzt. Die Branche arbeitet bereits mit Hochdruck daran, die Umweltbilanz bei der Herstellung und dem Betrieb zu verbessern. Bei den Hyperscalern beispielsweise hat Azure 2020 seinen Leitfaden für nachhaltige Architektur veröffentlicht, Ende 2021 hat AWS den Punkt Sustainability zu den Säulen seines Well-Architected Framework hinzugefügt.

Natürlich sollten beziehungsweise müssen sich auch die Kunden Gedanken darüber machen, welche Auswirkungen ihre IT-Infrastruktur – allen voran die Software-Architektur – auf die globale Erwärmung und den Klimawandel hat und mit welchen Maßnahmen sie die CO₂-Bilanz verbessern können. Dafür gibt es fünf Bereiche:

  1. Datendesign, -nutzung und -speicherung
    Zunächst einmal sollten Unternehmen die Datenspeicherung und -nutzung auf ein absolutes Minimum reduzieren. Erreichen lässt sich dieses Ziel, indem Richtlinien für die Datenklassifizierung eingeführt werden. Dabei wird festgelegt, welche Daten wie lange und wofür gespeichert werden. Zudem sollten Unternehmen Zugriffsklassen und Speichertypen nach „schnell“ oder „langsam“ definieren. Wichtig ist, zu verstehen, welche Auswirkungen ein Zuviel an Daten auf den Ressourcenverbrauch hat. Unnötige Daten sollten immer unter Einhaltung der Bestimmungen gelöscht werden. Unternehmen sollten zudem eine Überprovisionierung an Speicherplatz vermeiden und Datenbewegungen über Netzwerkgrenzen hinweg so weit wie möglich einschränken. Sinnvoll sind Technologien für den Zugriff, die einen standortbezogenen Datenabruf und unterschiedliche Speichermuster unterstützen.
  1. Anwendungsdesign
    Im zweiten Schritt sollten Unternehmen Richtlinien für die Verwendung von Komponenten definieren. Ein „Always on“-Ansatz verbraucht unnötig Energie. Zudem sollten sie darauf achten, dass eine parallele und asynchrone Verarbeitung der Ressourcen möglich ist. Aufgaben, die nicht zeitkritisch sind, lassen sich aufteilen und dann asynchron abarbeiten. Dann können Workloads zum Beispiel zu einem Zeitpunkt, an dem genügend sauberer und günstiger Strom zur Verfügung steht, ausgeführt werden. Darüber hinaus helfen Komponenten zum Application-Monitoring, Runtime und Auswirkungen auf die Nachhaltigkeit zu verfolgen. Wo möglich, ist es außerdem sinnvoll, die Verantwortung an besser geeignete, weil nachhaltig betriebene, Managed Services auszulagern.
  1. Plattformbereitstellung, -nutzung und -skalierung
    Das Thema Deployment, Nutzung und Skalierung ist kompliziert, da es einige dedizierte Entscheidungen bezüglich der Architektur voraussetzt. Technologien, die auf Auslastung und Skalierung abzielen, wie Knative und Serverless, kommen einem dabei in den Sinn. Eine gängige Kubernetes-Umgebung arbeitet häufig nach dem Prinzip „ein Cluster pro App“, manchmal auch „mehrere Cluster (Staging/Prod/Dev) pro App“. Die Auslastung in diesen Clustern ist allerdings gering. Das heißt, selbst wenn ein Pod auf Null skaliert, haben Unternehmen immer noch einen Overhead an Kubernetes, inklusive CO2-Fußabdruck der kompletten Hardware. Zwar ist der Stromverbrauch des Workloads geringer, die Verbesserung der Klimabilanz ist jedoch marginal. Unternehmen müssen deshalb unbedingt ihre Gesamtkonfiguration genau unter die Lupe nehmen, bevor sie zusätzliche Technologien für eine Anwendung anschaffen. Idealerweise kommt für die Entwicklung und den Test eine Minimalumgebung mit repräsentativen Applikationen zum Einsatz. Zusätzlich ist es sinnvoll, das Design mit Automatisierungsansätzen zu optimieren und damit die Nutzung zu maximieren.
    Technologien mit Burst-Möglichkeiten bieten einen weiteren großen Vorteil. Ein Beispiel ist ein Standard-Jenkins mit definierten Worker- und Management-Knoten im Vergleich zu einer skalierbaren Tekton-Build-Pipeline. Außerdem sollten Unternehmen die Verwendung spezieller Hardware für ihre Workloads in Betracht ziehen. Dieser Ansatz ist auf Fließkommaeinheiten und Grafikverarbeitung (FPU/GPU) sowie Compute-intensive Berechnungen ausgelegt, kann aber schnell auf Instanzen erweitert werden, die für bestimmte Arbeitslasten geeignet sind.
  1. Code-Effizienz
    Die Green Software Foundation bringt es treffend auf den Punkt: „Der effizienteste Code ist gar kein Code. Und der beste Zeitpunkt, um unnötige Workloads zu erkennen, ist so früh wie möglich im Designprozess.“ Unternehmen, die Ziele und Anforderungen entspannt definieren, erreichen viel. Das betrifft beispielsweise eine Änderung der Aufbewahrungszeit von Protokolldateien oder die Anpassung der Service Level Agreements (SLAs) an den tatsächlichen Bedarf. Selbst wenn regulatorische Vorgaben verschärfte Anforderungen bedeuten, sollten Unternehmen die Maßnahmen hinterfragen und notwendige Schritte identifizieren. Die Vorstellung, dass eine bestimmte Programmiersprache Vorteile in puncto Nachhaltigkeit verschafft, ist jedoch mehr oder weniger falsch. Das zeigt eine Studie aus 2017, die im letzten Jahr aktualisiert wurde.
  1. Operations
    Die hohe Rechendichte von verwalteten Cloud-Diensten ist ein grundlegender Vorteil. Solche Services teilen sich die Ressourcen mit Tausenden oder sogar Millionen von Nutzern, wodurch eine extrem hohe Auslastung erreicht wird und der Aufwand für SRE (Site Reliability Engineering)-Teams, die sich um den Betrieb von Infrastruktur und Anwendungen kümmern, verringert wird.

Darüber hinaus gibt es eine wachsende Zahl von Open-Source-Projekten, die Unternehmen helfen, ihre Nachhaltigkeitsziele zu erreichen:

  • Kube-green ist ein Kubernetes-Add-on, das Ressourcen automatisch herunterfährt, wenn sie nicht benötigt
  • Cloud Carbon Footprint ist ein Tool zur Schätzung des Energieverbrauchs und der CO2-Emissionen bei der Nutzung einer Public Cloud.
  • Scaphandre ist ein Metering-Agent, um den Stromverbrauch jedes Prozesses zu berechnen.
    Kube-downscaler fährt Kubernetes-Workloads während der arbeitsfreien Zeit herunter oder „pausiert“ sie komplett.
  • Kepler (Kubernetes Efficient Power Level Exporter) verwendet eBPF, um energiebezogene Systemstatistiken zu ermitteln und als Prometheus-Metriken zu exportieren.

Es gibt zwei große Stellschrauben für eine energieeffizientere und damit nachhaltigere IT: Infrastruktur und Anwendungen. (Quelle: Markus Eisele/Red Hat, angelehnt an AWS Well-Architected Framework)

Jede Einsparung zählt

Viele der Empfehlungen lassen sich in erster Linie in bestimmten Umgebungen anwenden, einschließlich ereignisgesteuerter oder Microservices-Architekturen. Aber auch traditionelle Three-tier-Modelle profitieren von kleinen Änderungen. Darüber hinaus ist jede Maßnahme nur dann wirkungsvoll, wenn man vorab die Ziele definiert und die Wirkung mit sinnvollen Messmetriken überprüft. Unternehmen können beispielsweise als langfristiges Nachhaltigkeitsziel für jeden Cloud-Workload eine Reduzierung der erforderlichen Rechen- und Speicherressourcen festlegen. Grundsätzlich gilt: Jede Einsparung bei den Ressourcen und damit dem Stromverbrauch verbessert die CO2-Bilanz.

* Markus Eisele (@myfear) ist Developer Strategist bei Red Hat

Hyperautomation: vom Buzzword zum effizienten Automatisierungs-Netzwerk

Hyperautomation ist eines der großen Digitalisierungs-Schlagworte, das nicht zuletzt durch die Positionierung von Gartner als einer der Top-Tech-Trends 2022 in den Fokus gerückt ist. Doch was genau meint Hyperautomation? Und wie können Unternehmen diese „Hyper-Automatisierung“ erfolgreich umsetzen? TREND REPORT hat mit Heinz Wietfeld, Director bei Hyland, gesprochen

Hyperautomation – was genau kann man sich unter diesem Buzzword vorstellen?
Gartner definiert Hyperautomation als „orchestrierte Nutzung mehrerer Technologien, Tools oder Plattformen“, um so viele Geschäfts- und IT-Prozesse wie möglich zu automatisieren und durchgängige End-to-End-Workflows zu schaffen. Damit holen die Analysten viele Unternehmen an ihrem aktuellen Status Quo ab.
Denn mit den Möglichkeiten der Automatisierung haben sich viele Unternehmen und Organisationen mittlerweile „Inseln der Effizienz“ geschaffen. Einzelne Geschäftsabläufe und Prozesse laufen automatisiert und ohne menschliches Zutun. Die Grenzen dieses Setups liegen jedoch häufig bei der Interaktion unterschiedlicher Systeme und Anwendungen – eine wichtige Voraussetzung für eine durchgängige End-to-End-Digitalisierung. Bei Hyperautomation geht es nun also darum, Brücken zwischen diesen Insellösungen zu bauen und so Effizienzpotenziale zu heben.

Ein Buzzword wir Hyperautomation kann einschüchternd wirken. Wo sollten Entscheider und Unternehmen ansetzen?
In einem ersten Schritt braucht es eine Bestandaufnahme. Dies erfordert ein detailliertes Mapping bzw. eine Analyse der Organisation und der Backoffice-Prozesse, um die derzeitigen Arbeitsabläufe vollständig zu verstehen und festzustellen, wo Lücken, Latenzen und Bottlenecks bestehen. Auf dieser Grundlage kann dann eine Strategie entwickelt werden, um Brücken zwischen den Lösungen zu schlagen und Effizienzlücken zu schließen.


„Spielen“ Unternehmen ihre unterschiedlichen Automatisierungstechnologien und -Tools so geschickt, wie Orchester ihre Musik durch einen fähigen Dirigenten, entsteht ein Mehrwert für Organisationen jeder Branche und deren Belegschaften, Partner und Kunden.


Was genau ist das Problem an den angesprochenen Insellösungen?
Insellösungen führen zu Datensilos – der Endgegner jeder umfassenden Automatisierung. Klassische ECM-Lösungen haben alle Daten auf eine Plattform übertragen. In Zeiten von Cloud-Boom und Best-of-Breed-Ansätzen ist das nicht mehr zeitgemäß. Entsprechend bieten Content-Services-Plattformen wie OnBase oder die Open-Source-Plattform Alfresco von Hyland vorgefertigte und leicht zu konfigurierende Schnittstellen zu einer Vielzahl unterschiedlicher Business- und Abteilungsanwendungen. So bilden sie einen zentralen Knotenpunkt für alle im Unternehmen vorhanden Daten und Inhalte sowie die Grundlage für eine reibungslose Automatisierung.

Auf welche Automatisierungstools sollten Unternehmen setzen bzw. gibt es die eine Hyperautomation-Technologie?
Die Auswahl an unterschiedlichen Automation-Lösungen ist umfangreich, und angesichts der Komplexität vieler Geschäftsprozesse, braucht es häufig eine wohlorchestrierte Kombination unterschiedlicher Technologien. Diese reichen von Künstlicher Intelligenz und Machine Learning über Workflow-Tools, Business Process Management (BPM) und Robotic Process Automation (RPA) bis hin zu Low- und No-Code-Tools. Die Technologien eignen sich dabei für unterschiedliche Anwendungsszenarien und Problemstellungen. So ermöglicht beispielsweise RPA, das auf der Ebene des User-Interface operiert, auch die Integration von Legacy-Lösungen, für die es keine modernen Schnittstellen mehr gibt, in umfassendere Workflows.
Eine Verkettung unterschiedlicher Technologien ermöglicht die Abbildung komplexer, abteilungs- und funktionsübergreifender Workflows. Diese könnte wie folgt aussehen: Process-Mining-Tools zum besseren Verständnis der Unternehmensabläufe kombiniert mit einem Prozessmodell zur Visualisierung von Arbeitsabläufen, einer Komponente für maschinelles Lernen zur Überprüfung der Einhaltung der Compliance und einer Decision-Software zur Automatisierung von Kontrollen, die zuvor von Sachbearbeitenden durchgeführt wurden.

Wenn feststeht, welcher Technologie-Mix sich am besten eignet, geht es an die Auswahl eines passenden Anbieters. Auf was sollten Entscheider hier besonderes Augenmerk legen?
So vielfältig wie die Technologien sind auch die Anbieter unterschiedlicher Lösungen. Wichtig bei der Auswahl der Technologien ist, dass die Lösungen leicht zu integrieren und für den individuellen Use-Case konfigurierbar sind. Hier können insbesondere Cloud-Plattformen große Flexibilität bieten.
Die Zahl der Anwendungen im Unternehmen steigt, und statt alle Lösungen von einem einzigen Anbieter zu beziehen, setzen Entscheider immer häufiger auf Best-of-Breed, also die jeweils beste Lösung für einen jeweiligen Anwendungsfall. Damit dieser Ansatz wirklich zu besseren Ergebnissen führt, ist die Integration entscheidend. Vorgefertigte oder flexibel konfigurierbare Schnittstellen erleichtern den Prozess. Alternativ kann auch ein Anbieter gewählt werden, der bereits abgestimmte Lösungen für konkrete Anwendungsfälle wie Accounts Payable bietet.
Jedes Unternehmen ist anders, und es gibt keine One-Size-Fits-All-Geschäftsabläufe. Damit Prozesse individuell abgebildet werden können, braucht es vielfältige Möglichkeiten zum Customizing. Einige Lösungen bieten dazu Low- und No-Code-Optionen und andere Open-Source-Varianten, flexible Möglichkeiten zum maßgeschneiderten Coding. Welche Option die bessere Wahl für das Unternehmen ist, kann durch eine Bestandsaufnahme der eigenen personellen und zeitlichen Ressourcen ermittelt werden.

Automatisierung ist naturgemäß eine sehr technische Angelegenheit. Sie passiert jedoch nicht im luftleeren Raum und hat unmittelbaren Einfluss auf den Arbeitsalltag der Mitarbeitenden. Was gilt es zu beachten, damit eine Automatisierungsinitiative auch bei den Teams auf Akzeptanz stößt?
Bei dem Wort Automatisierung schrillen nicht selten die Alarmglocken der Belegschaft. Umso wichtiger ist es, dass Unternehmen ihre Automatisierungsinitiative von Anfang an transparent kommunizieren und Mitarbeitende im Prozess der Planung und Implementierung beteiligen. Diese sollten wissen, wie Hyperautomation ihren Arbeitsalltag beeinflussen wird, dass ihnen redundante und ungeliebte Aufgaben abgenommen werden und sie sich auf spannendere Aufgaben konzentrieren können, durch die sie mit ihren Fähigkeiten einen echten Unterschied machen können. Automatisierung bietet die Möglichkeit zu beruflichem Wachstum und kann zum Katalysator für leistungsstarke und effiziente Teams werden.
„Spielen“ Unternehmen ihre unterschiedlichen Automatisierungstechnologien und -Tools so geschickt, wie Orchester ihre Musik durch einen fähigen Dirigenten, entsteht ein Mehrwert für Organisationen jeder Branche und deren Belegschaften, Partner und Kunden. Es lassen sich schnellere ROIs und nachhaltige Wettbewerbsvorteile realisieren.

Über den Interviewpartner

Heinz Wietfeld ist seit 2015 bei Hyland Software beschäftigt und verantwortet als Director die Geschäftsaktivitäten in DACH, Benelux sowie Mittel- und Osteuropa. Er verfügt über mehr als 20 Jahre Erfahrung in der Enterprise-Content-Management (ECM)- und Content-Services-Branche und hatte verschiedene Sales- und Sales-Management-Funktionen bei internationalen ECM-Anbietern inne.


Bildquelle / Lizenz Aufmacher:

Photo by Danil Shostak on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Der Business Case für mehr Transparenz in der Arbeitswelt

Wie Unternehmen durch offene Kommunikation Vertrauen aufbauen und Top-Talente an sich binden können, erläutert Eliza Sarahson, Senior Group Manager Content and Editorial, Future Forum.

Der traditionelle Top-Down-Führungsstil, der auf Befehl und Kontrolle beruht, verliert seit Jahren an Bedeutung. Die Pandemie hat diesen Wandel noch einmal beschleunigt. Damit ist auch die Erwartung – und Forderung – der Mitarbeiter:innen nach mehr Transparenz gestiegen. Viele Unternehmen meiden es jedoch nach wie vor, mit ihren Mitarbeiter:innen einen offenen Dialog über wichtige Themen wie etwa Flexibilität am Arbeitsplatz zu führen. Dabei finden Mitarbeiter:innen mittels moderner Kommunikationstechnologien Wege, diese Gespräche zu führen – unabhängig davon, ob Führungskräfte und Unternehmen darüber informiert sind und sich einschalten oder nicht. Es gibt also einen wirklich überzeugenden Business Case für eine ehrliche, transparente Kommunikation – schließlich ist sie für den Aufbau von Vertrauen, die Bindung von Talenten und den nachhaltigen Erfolg eines Unternehmens unerlässlich geworden.

Laut der Ergebnisse des Future Forum Pulse Survey sind zwar die meisten Führungskräfte (81%) der Meinung, dass die Unternehmensführung transparent kommuniziert, aber nur 58 Prozent der Mitarbeiter:innen stimmen dem zu. Diese Diskrepanz hat schwerwiegende Folgen: Mitarbeiter:innen, die der Meinung sind, dass ihre Führung nicht transparent ist, sind mit mehr als dreimal so hoher Wahrscheinlichkeit bereit, sich einen neuen Arbeitsplatz zu suchen. Umgekehrt sind Befragte, die der Meinung sind, dass ihre Führungskräfte sie transparent in relevante Entwicklungen einbeziehen, weitaus zufriedener mit ihrer Arbeit als diejenigen, bei denen dies nicht der Fall ist.

Was bedeutet es, mit Transparenz zu führen?

Einfach ausgedrückt bedeutet transparente Führung, dass Entscheider:innen auf allen Ebenen ihres Unternehmens relevante Informationen weitergeben – und zwar nicht nur das „Was“, sondern auch das „Wie“ und das „Warum“ – und zwar in Form von kontinuierlichen Gesprächen mit ihren Mitarbeiter:innen. Transparente, beidseitige Kommunikation bedeutet dabei nicht, dass die Führungskräfte die Belegschaft in jede Entscheidung der Unternehmensführung einbeziehen sollten oder dass jedes Gespräch unternehmensweit stattfinden muss. Vielmehr geht es darum, eine Infrastruktur zu schaffen, die Mitarbeiter:innen dazu ermutigt, sich mit ihrer Perspektive einzubringen. Zudem sollte es das Ziel sein, neue Richtlinien so einzuführen, dass Führungsebenen die Möglichkeit haben, die Änderungen zu verinnerlichen, Feedback zu geben und daraus zu lernen. Natürlich kann nicht jedes Thema offen diskutiert werden – wie etwa Fusionen oder Übernahmen. Aber andere Themen, wie etwa die Festlegung von Richtlinien für die Rückkehr ins Büro und die Zukunft der Arbeit, erfordern einen offenen Dialog mit der Belegschaft.

Eliza Sarahson beschreibt, wie eine transparente Kommunikation die Resilienz nach und nach steigern kann.

Der Hamburger Mobilitätsanbieter Free Now definiert Transparenz als einen seiner zentralen Unternehmenswerte und nutzt Slack als digitale Firmenzentrale, um in einem dedizierten Announcements-Channel brandaktuelle Neuigkeiten und Updates zu teilen. Zudem ermutigt das Unternehmen alle Mitarbeiter:innen dazu, sich an der Unterhaltung zu beteiligen. Auch das Führungsteam ist über Slack leicht erreichbar und für Vorschläge offen, was Innovationen fördert und dazu führt, dass die Mitarbeiter:innen von Free Now zufriedener und motivierter sind.

Was transparente Unternehmen ausmacht:

  • Sie stellen sicher, dass die Mitarbeiter:innen das Geschäft verstehen und die Möglichkeit haben, dazu beizutragen, indem sie regelmäßig über aktuelle Ergebnisse und Zahlen informiert werden
  • Sie beziehen die Mitarbeiter:innen als Stakeholder in die Planung größerer politischer Veränderungen ein
  • Sie informieren die Belegschaft zuerst über wichtige Neuigkeiten – oder innerhalb weniger Minuten nach einer öffentlichen Ankündigung
  • Sie klären die Mitarbeiter:innen darüber auf, über was sie (nicht) öffentlich sprechen können
  • Sie sprechen potenziell kontroverse Themen proaktiv an, indem sie Raum und Leitplanken für schwierige Gespräche bieten und potenziell hitzige Debatten proaktiv moderieren und steuern
  • Sie geben klare Antworten – auch wenn diese Antworten die Belegschaft potentiell verärgern könnten

Wie kann eine transparente Führung funktionieren?

Transparente Kommunikation ist keine Einbahnstraße – und Führungskräfte müssen die Infrastruktur dafür schaffen. Unter dem alten Führungsstil, der auf Befehl und Kontrolle beruhte, war die Kommunikation der Führungskräfte einseitig – von oben nach unten – und bot Mitarbeiter:innen kaum Gelegenheit zur Mitsprache. Aber diese veraltete Mentalität trägt zu einer hohen Fluktuation bei und treibt Mitarbeiter:innen immer öfter vor die Tür. Ergebnisse des Future Forum zeigen, dass ganze 66 Prozent der Führungskräfte angeben, dass sie die Personalpolitik ihres Unternehmens mit wenig oder gar keinem direkten Input der Belegschaft gestalten. Dabei sollten Führungskräfte dringend die Perspektiven ihrer Mitarbeiter:innen berücksichtigen und darauf achten, dass sie nicht ihre persönlichen Präferenzen auf die gesamte Belegschaft projizieren.

Um eine konstruktive Kommunikation zu fördern, sollten Führungskräfte auf den Verhaltenskodex und die Werte Ihres Unternehmens zurückgreifen und gegenseitigen Respekt und Vertrauen aktiv vorleben. Gerade heikle Gespräche sollten nicht unterdrückt werden. Stattdessen bedarf es eines neuen Prozesses, um diese Gespräche zu sortieren und zu einer Lösung zu führen. Führungskräfte von heute müssen bereit sein, sich mit aktuellen Ereignissen vertraut zu machen und respektvolle und ehrliche Gespräche in ihren Teams zu führen. Dabei gilt: Kommunikation in beide Richtungen ist eine Reise, kein Ziel. Nur wer Experimente macht, kann kontinuierlich Verbesserung bewirken. Nur so werden auch Mitarbeiter:innen dazu ermutigt, neue Dinge auszuprobieren, kreativ und innovativ zu sein.

Mit Transparenz das gesamte Unternehmen stärken

Das alte Top-Down-Kommunikationsmodell mag für Führungskräfte einfacher gewesen sein. Doch auch wenn es schwierig ist, Transparenz richtig vorzuleben, ist es unbestritten, dass sie zu besseren Ergebnissen führt – von der Bindung von Spitzenkräften bis hin zur Steigerung der Mitarbeiterzufriedenheit und -motivation. Wer sich bemüht, verschiedene Perspektiven einzubeziehen und wichtige Entscheidungen klar zu kommunizieren, wird nicht nur eine bessere Kommunikation gestalten, sondern auch im Gesamten ein stärkeres Unternehmen aufbauen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Mehr Resilienz durch die digitale Transformation?

Können Unternehmen mehr Resilienz im Wettbewerb erreichen, in dem sie mit den Mitteln der digitalen Transformation arbeiten? Wir haben uns umgehört und aufschlussreiche Antworten erhalten. Diese werden wir nachfolgend immer wieder in Form von kurzen Panels darstellen. Hier neue Einblicke:


CRM-Systeme reagieren blitzschnell auf Veränderungen

Suvish Viswanathan ist Head of Marketing bei Zoho Europe

Turbulente wirtschaftliche Bedingungen und neue Arbeitsmodelle machen eine langfristige Strategie nötig, damit die Customer Experience nicht leidet. Das gelingt mit CRM-Systemen, die die Kundenbindung stärken und neue Geschäfte vorantreiben. Mit CRM-Tools können Unternehmen die Erfahrung von Mitarbeitern und Kunden deutlich verbessern und so gleichzeitig nicht nur Krisen überleben, sondern widerstandsfähiger werden und sogar wachsen.

Ein CRM-Tool passt zum Unternehmen, wenn es einen vollständigen Überblick über den gesamten Lebenszyklus des Kunden bietet, einschließlich Marketing, Vertrieb und Support. Gleichzeitig sollte es alle Berührungspunkte zwischen Kunde und Firma miteinander verbinden und eine nahtlose Nachverfolgung auf jedem Gerät und von jedem Standort aus ermöglichen.

Die End-to-End-Transparenz, die CRM-Systeme im Kundengeschäft bieten, kann die Reaktionsfähigkeit des Unternehmens im Umgang mit dynamischen Marktbedingungen verbessern und damit die Widerstandsfähigkeit erhöhen.


Bernhard Kretschmer ist Vice President Service und Cybersecurity bei NTT Ltd

Cyber-Resilienz – das neue Paradigma in der IT-Sicherheit  

Die Corona-Pandemie hat einmal mehr die Frage aufgeworfen, wie Gesellschaft, Politik und Wirtschaft besser auf Krisen reagieren können. Als Schlüsselfaktor wird hier immer wieder „Resilienz“ genannt, die Europäische Union bezeichnet sie sogar als Kompass ihrer zukünftigen Politik. Grundsätzlich versteht man darunter die Fähigkeit von Systemen, auf ganz unterschiedliche, gerade auch unerwartete Faktoren und Krisen dynamisch zu reagieren, sie abzufedern, sich davon zu erholen und daraus zu lernen. In der IT bedeutet das, zentrale Prozesse und Infrastrukturen selbst unter außergewöhnlichen Umständen, etwa nach einem Hackerangriff, aufrechtzuerhalten. Die Kommission will nun mit der NIS-2-Richtlinie EU-weite Standards für Cybersecurity definieren, die auch die Industrie verpflichtend umsetzen muss. Dadurch soll die gesamte Infrastruktur resilienter werden. So werden Unternehmen nicht mehr vor die Wahl gestellt – nein, sie müssen einen Mindeststandard an Sicherheit erfüllen. Und das ist dringend notwendig angesichts der zunehmenden Abhängigkeit von funktionierenden IT-Umgebungen und der Tatsache, dass die Kriminellen immer raffinierter vorgehen. Ohne digitale Widerstandsfähigkeit werden sich Unternehmen künftig schwertun.  


Holger Dyroff ist Co-Founder und COO von ownCloud

Digitale Resilienz gibt es nur gemeinsam mit digitaler Souveränität

Die Coronakrise hat einen wahren Digitalisierungsschub ausgelöst und gleichzeitig den Begriff der digitalen Resilienz stärker ins Rampenlicht gerückt. Ganz allgemein geht es um die Fähigkeit von Unternehmen und Ökosystemen, Krisen beziehungsweise unvorhergesehene Ereignisse jeder Art zu meistern und gestärkt aus ihnen hervorzugehen. So haben digitale Vertriebs-, Verkaufs- und Kommunikationskanäle in der Pandemie weltweit an Bedeutung gewonnen. Indem sie mehr Bereiche und Anwendungen ins Internet verlagert haben, konnten die Firmen ihre Widerstandsfähigkeit erhöhen und gleichzeitig neue digitale Geschäftsmodelle erschließen. Diese digitale Resilienz wurde und wird allerdings oftmals zu einem hohen Preis erworben: Nämlich dann, wenn sich Unternehmen von großen, international agierenden Technologiekonzernen und deren Plattformen abhängig machen. Durch die Nutzung der großen Hyperscaler etwa bleiben Datensouveränität und Individualisierbarkeit auf der Strecke. Vielmehr wird das alte proprietäre Spiel von Intransparenz und Vendor-Lock-in weitergeführt, mit allen damit verbundenen Gefahren wie Problemen bei der Datenmigration oder mangelnder Investitionssicherheit. Eine echte digitale Resilienz gibt es nur mit digitaler Souveränität, das sollten Unternehmen nicht vergessen.


Mehr zum Thema