Gesunde und glückliche Angestellte sind die besseren Angestellten

Niedrigere Krankheitsquoten, geringere Versicherungskosten, produktiveres Arbeiten: Es hat viele Vorteile für Unternehmen, die Vorsorge sowie die allgemeine Gesundheit und das mentale Wohlergehen der Mitarbeitenden in den Vordergrund zu stellen. So banal das klingt, so anspruchsvoll ist die Umsetzung, wie Sigal Atzmon von Medix schreibt.

Es liegt in der Verantwortung der Unternehmen, sich um die Gesundheit der Mitarbeitenden zu kümmern. Seit der Pandemie umso mehr. Denn seit Corona-Beginn hat sich die Arbeitswelt stark verändert. Ganz vorne dabei sind unter anderem neue Home Office-Regelungen, die es Mitarbeitenden ermöglichen, Ihre Arbeitsbedingungen flexibler zu gestalten. Was aber auch klar ist: Die Unternehmen machen das nicht immer aus freiwilligem Antrieb heraus. Vielmehr sorgt der Arbeitskräftemangel dafür, dass die Wünsche eben dieser Arbeitskräfte immer mehr berücksichtigt werden müssen. Aber nicht nur die Wünsche der Mitarbeitenden spielen eine Rolle, sondern auch und vor allem ihr Wohlergehen. Denn wenn das Team aus Krankheitsgründen nicht mehr produktiv ist, kann auch das Unternehmen auf Dauer nicht funktionieren und weiterwachsen.

Sigal Aztmon hat Medix mit dem Anspruch gegründet, die Gesunderhaltung der Mitarbeitenden in den Vordergrund zu stellen.

Eine aktuelle Umfrage des Unternehmens Deloitte zeigt, dass gerade jüngere Arbeitskräfte (Generation Z und die sogenannten Millennials) mehr Work-Life-Balance und langfristige Entwicklungsperspektiven suchen. Dabei erwarten sie einfach mehr von ihren Arbeitgebern. Und die Firmen antworten: So zeigte die EY 2022 „Work Reimagined“-Umfrage, dass die meisten der Befragten der Meinung sind, die Kultur ihres Unternehmens habe sich seit Beginn der Pandemie zum Besseren gewandelt. 96 % der Unternehmen gaben an, dass sie Veränderungsmaßnahmen ergriffen haben, um die Sicherheit, die Gesundheit und das allgemeine Wohlbefinden ihrer Mitarbeitenden langfristig zu erhalten und zu verbessern.

Hier ist natürlich auch Long Covid ein Thema. Chronische Müdigkeit, Lungen- und neurologische Komplikationen, Bewusstseinstrübung sowie Depressionen und Autoimmunerkrankungen nehmen seit der Pandemie stetig zu. Studien haben ergeben, dass Long Covid das Risiko für Diabetes sowie Herz-Kreislauf-Erkrankungen sogar signifikant erhöht. Allein in Deutschland werden in naher Zukunft daher zusätzliche 34,8 Milliarden Euro im Gesundheitssystem benötigt. Das zeigt den Unternehmen, dass Gesundheit und Wohlbefinden der Mitarbeitenden eine Mischung aus Vorsorge, Heilung und Nachsorge erfordern. Angebote wie Wellness, Yoga und Schrittzählen gehen da nicht weit genug.

Meldet sich ein Mitarbeiter krank, übergibt das Unternehmen die Verantwortung an die Behandelnden und muss hoffen, dass der Mitarbeiter wieder gesund an den Arbeitsplatz zurückkehrt. Auch die Nachsorge von komplexen Behandlungen obliegt dem klassischen Gesundheitssystem. Bislang gab es auf dem Versicherungsmarkt keinen unabhängigen Anbieter, der eine medizinische 360-Grad-Versorgung von Mitarbeitenden sicherstellt. Diesen Bedarf haben neue Anbieter in der Gesundheitswesen erkannt. So bietet in Deutschland jetzt Medix Global Unterstützung für das Gesundheits- und Medizinmanagement an und zwar von der Prävention über die Diagnose und Behandlung bis hin zur Rehabilitation. Durch innovative digitale Systeme wie Bewertungs-, Diagnose- und Präventionsinstrumente und gezielte Datenanalysen kann die Gesundheit der Mitarbeitenden besser verstanden und langfristig erhalten werden. Wir arbeiten mit europäischen Unternehmen zusammen, um deren Mitarbeitende mit persönlichen und datenbasierten Gesundheitsprogrammen an die Hand zu nehmen. Dieser Trend zur intelligenten Vorsorge wird in den nächsten Jahren wachsen. So können Ausfälle durch Krankheit reduziert werden und damit das gesamte Unternehmen profitieren“. Kommt es zu einem medizinischen Fallmanagement kann auf über 300 eigene Ärzte und ein Netzwerk von mehr als 4.500 international anerkannten Spezialisten zugegriffen werden, die bei der richtigen Diagnosestellung und der Suche nach dem optimalen Behandlungsplan bis zur Nachsorge helfen. Das unterstützt Unternehmen dabei, nicht nur das Wohlbefinden der Mitarbeitenden zu fördern, sondern sie auch vor fundamentalen Erkrankungen wie Depressionen, chronischen und lebensbedrohlichen Erkrankungen wie beispielsweise Diabetes oder Herz-Kreislauf-Erkrankungen besser zu schützen.

Über die Autorin:

Im Jahr 2006 gründete Sigal Atzmon „Medix“. Als Gründerin und Präsidentin der Medix Gruppe setzt sich Sigal dafür ein, Menschen innovative und fortschrittliche Medizinmanagementlösungen zu bieten, die ihr Leben entscheidend verändern. Ihr Ziel ist es, die Art und Weise der Gesundheitsversorgung weltweit zu verbessern, mit Schwerpunkt auf der Zugänglichkeit, Implementierung und Nachhaltigkeit einer qualitativ hochwertigen Versorgung. Sigal lebt mit ihrer Familie in London, Hongkong und Tel Aviv.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Zulassungsverfahren medizinischer Geräte im Kontext von KI

Ein Gastbeitrag von Dr. Abtin Rad, Global Director Functional Safety, Software and Digitization bei TÜV SÜD

Medizinprodukte unterliegen in den wichtigsten Märkten weltweit strengen Zulassungs- und Überwachungsverfahren. In Europa basiert die Regulierung von Medizinprodukten auf der Verordnung für Medizinprodukte ((EU) 2017/745) mit dem Ziel, das Risiko für den Patienten als auch für den Benutzer zu minimieren.

Als Medizinprodukt gilt jedes Produkt mit einer medizinischen Zweckbestimmung. Dazu gehört neben Hardwareprodukten wie Röntgengeräten und Implantaten auch Software als Medizinprodukt.


Die zunehmende digitale Transformation des Gesundheitswesens steigert derweil die Bedeutung von Software und Daten in Medizinprodukten. Dabei spielen Big Data und Künstliche Intelligenz (KI) eine Schlüsselrolle, um beispielsweise in kürzester Zeit große Datenmengen effizient auszuwerten, Analysen durchzuführen, Entscheidungen zu treffen und neue medizinische Erkenntnisse aus vorhanden Daten zu gewinnen.


„Die digitale Transformation steigert auch die Bedeutung von Software und Daten in Medizinprodukten.“

Dr. Abtin Rad


Um sowohl die Sicherheit der Patienten und An­wender als auch die klinische Performanz des Medizinproduktes zu gewähr­leisten, definiert die Medizinprodukteverordnung im Anhang I grundlegende Sicherheits- und Leis­tungs­an­for­de­run­gen. Trotz der technologiebedingten Risiken enthalten die geltenden Standards und Rechtsrahmen keine spezifischen Anforderungen für den Einsatz von KI in Medizinprodukten. Es finden sich lediglich einige generische Softwareanforderungen wie etwa zum Soft­warelebenszyklus, Än­derungsmanage­ment und Konfigurationsmanagement.


Zur Schließung dieser Lücke arbeiten die Regulierer weltweit an Orientierungshilfen und Gesetzen zur Kontrolle der KI. Während die USA mit sogenannten Guidance-Dokumenten den Herstellern eine Anleitung zur Erreichung der Konformität bieten, entwickelt die EU eine horizontale Regulierung für die KI. Dabei verfolgt die Regulierung einen risikobasierten Ansatz und berücksichtigt bereits vorhandene Direktiven und Verordnungen aus dem New Legislative Framework, wie etwa die Medizinprodukte-Verordnung (MDR). Gemäß dieser müssen Medizinprodukte mit KI eine Konformitätsbewertung unter Beteiligung einer benannten Stelle wie z.B. TÜV Süd Product Service durchlaufen.


Viele der Anforderungen, wie etwa ein Qualitätsmanagementsystem und die Erstellung einer technischen Dokumen­tation, sind bereits in der MDR vorhanden. Andere, wie etwa zusätzliche Meldungs- und Registrierungspflichten, sind hingegen neu. Mit der Anwendung harmonisierter Normen und gemeinsamer Spezifikationen erlaubt die Regulierung eine Konformitätsvermutung übereinstimmend mit der MDR. Der letzte Schritt vor der Markteinführung ist eine Konformitätserklärung des Herstellers, wo­raufhin die Vigilanz-Phase und damit die Überwachung der Performanz des Medizinproduktes beginnt.


https://www.tuvsud.com/ki-medizinprodukte

Virtual Studio vs. On-Location


Holger Berthues, Geschäftsführer, Laudert GmbH + Co. KG erläutert im Hintergrundgespräch wie „Virtual Production“ reale und virtuelle Welten im Studio zur universellen Location verschmelzen lässt.

Herr Berthues, was ist „Virtual Production“ und wie funktioniert sie?

Virtual Production beschreibt die Integration eines Studio-Sets in eine 3D-Szene in Echtzeit. Ein reales Model oder Produkt werden live mit einer virtuellen Szene zusammengeführt, woraus Produktbilder und Produktpräsentationen entstehen.

Aus dem Filmbereich ist gemeinhin die Greenscreen-Technologie dafür bekannt, wobei auch dort mittlerweile vermehrt auf LED-Technik gesetzt wird. Mit dem Virtual Studio by Laudert haben wir die Vorteile der virtuellen Filmproduktion so adaptiert, dass daraus ein idealer Fotografie-Workflow entsteht. Wir haben einen Ansatz entwickelt, der auf farbunabhängigem Keying basiert, wodurch wir weder räumlich begrenzt sind, wie bei LED-Wänden, noch Probleme mit dem Greenspill, also mit grünen Reflektionen durch Greenscreen haben. Das erhöht die Flexibilität und Verlässlichkeit unserer Produktionen enorm.

Wir sind davon überzeugt, dass die Virtual Production einen sehr großen Teil der Location-Fotografie in kürzester Zeit ablösen wird.

Was macht die „Virtual Production“ so interessant?

Rein als Substitut für die Location Fotografie betrachtet werden durch die Virtual Production bereits zahlreiche Vorteile im Bereich der Flexibilität, Nachhaltigkeit und Wirtschaftlichkeit – je nach Projekt – spürbar. Shootings sind komplett wetter- und jahreszeitunabhängig möglich. Logistik und Transportaufwände werden minimiert – was auch eine Kostenreduktion sowie eine Reduktion des CO2-Ausstoßes bedeutet.

Shooting-Tage sind auch entzerrt möglich und spontan planbar. Die virtuellen Locations sind unendlich nutzbar und nach eigenen Wünschen erstell- und veränderbar – und innerhalb eines Shootings lässt sich quasi per Mausklick die Location ändern. Und: Auch nach dem Shooting sind Korrekturen und Anpassungen möglich.

Weiterhin zeichnet sich die Virtual Production durch ihren sehr kreativen Prozess aus. Model, Art Direction und Kunde können mit Feedback schon weit vor dem Shooting sowie in Echtzeit an der Gestaltung der virtuellen Szene und letztendlich des finalen Bildes teilhaben.

Weitergedacht bringt das Virtual Studio by Laudert zusätzliche Vorteile mit sich: Es kann direkt in die E-Commerce-Fotografie eingebunden werden. Mit denselben Warenmustern entsteht in nur einem Studio der gesamte Bild-Bedarf und kann so mit einem stringenten und effizienten Workflow abgebildet werden.

„Virtual Production wird einen sehr großen Teil der Location-Fotografie in kürzester Zeit ablösen.“

Holger Berthues, Geschäftsführer, Laudert GmbH + Co. KG

Welche Technologien stecken dahinter?

Der Set-Aufbau im Virtual Studio by Laudert ist, auch im Vergleich zu LED und Greenscreen, enorm schlank. Alles, was benötigt wird, ist eine Workstation, eine Fotokamera mit Tracking sowie Tracking-Kameras um das Set herum. In der Workstation wird die virtuelle Szene live gerendert. Alle Bewegungen der Fotokamera werden erfasst und mit der berechneten 3D-Position aus den Tracking-Kameras mit der virtuellen Szene zusammengefügt. Die virtuelle Welt basiert auf der Game Engine „Unreal Engine“. Fotografen, Model und Kunden können direkt am Set verfolgen, wie die Szene „On Location“ aussieht.

Durch die Ausgabe der exakten Kamerapositionsdaten ist es uns möglich, in High-End-Rendersoftware die finale Bildqualität merklich zu erhöhen. Gleichzeitig werden zahlreiche intrinsische und extrinsische Daten mitgeschrieben, die den Post-Production-Prozess erheblich erleichtern.

Für welche Aufnahmen und Zielgruppen eignet sich das „Virtual Studio“?

Letztendlich sind der Technologie selbst keine Grenzen gesetzt – auch weil noch viel zusätzlich Entwicklungspotenzial darin steckt. Aus wirtschaftlichen Gesichtspunkten wird das Virtual Studio insbesondere dann zum großen Vorteil, wenn die kreierten virtuellen Szenen mehrfach genutzt werden können. Ob es dabei um Strandszenen, städtische Aufnahmen, Industrie-Umgebungen oder futuristische, fiktive Welten geht, ist egal.

Produkte können über die Virtual Production sowohl am Model als auch nur mit weiteren Requisiten geshootet werden. Damit ist die Technologie insbesondere für sämtliche Unternehmen interessant, die physische Produkte anbieten.

Heruntergebrochen könnte man sagen: Alle Produkte, die mit einem gewissen artistischen Anspruch in Szene gesetzt werden sollen, können über das Virtual Studio geshootet werden.


„Alle Produkte, die mit einem gewissen artistischen Anspruch in Szene gesetzt werden sollen, können über das Virtual Studio geshootet werden.“


Gibt es schon Kundenbeispiele?

Wir haben schon einige Projekte mit Kunden umgesetzt. Bisher kann man sagen: sie hinterließen bleibenden Eindruck. Stories sowohl zur Otto-Tochter, der Witt-Gruppe als auch zu GINA LAURA finden sich auf unserer Webseite. Beide Unternehmen zeichnen sich durch ihren Mut aus, neue Technologien für sich zu gewinnen. In den Shootings ging es virtuell sowohl an den Beach Club, als auch in historische Stadtkerne – zwei sehr unterschiedliche Szenarien, die die Flexibilität des Virtual Studio by Laudert unterstreichen und unendlich erweiterbar sind, indoor wie outdoor.

Welche Vorteile haben Ihre Kunden davon?

Wie bereits angedeutet, profitieren Kunden auf sehr unterschiedlichen Ebenen vom Virtual Studio. Die grundsätzliche Flexibilität und kreative Freiheit in der Bildgestaltung ist ein Punkt. Für andere Unternehmen spielen insbesondere Faktoren wie die spontane Shooting-Möglichkeit oder die enorme Planungssicherheit und der geringe Logistik-Aufwand eine besondere Rolle. Gerade bei saisonalen Artikeln kann dies entscheidend sein. Durch die Einheitlichkeit des Looks der Bilder entsteht zudem ein kohärenter Markenauftritt. Und auch wirtschaftlich zahlt sich das Virtual Studio aus – was eigentlich für jedes Unternehmen ein wichtiger Aspekt ist.

Zu guter Letzt wäre da noch der Faktor Nachhaltigkeit, dessen Bedeutung heute schon sehr hoch wird – und in den kommenden Jahren weiter zunehmen wird.

Welche nachhaltigen Vorteile sind das?

Ein Live-Shooting am Virtual Studio Set mit Model
//Quelle: Laudert //

Mit dem Virtual Studio entfallen die hohen Reise- und Logistik-Aufwände für Ware, Models, Crew und Equipment. Ihm steht lediglich der Render-Aufwand der Szene gegenüber, der im Vergleich aber wesentlich geringer ausfällt. Natürlich sind für eine Detailberechnung viele Faktoren entscheidend. Nicht jedes Location-Shooting ist gleich. Eine Beispielrechnung für die CO2-Ersparnis haben wir unter anderem in unserem kostenfreien Whitepaper integriert. Dazu würde ich gerne anmerken, dass davon auszugehen ist, dass der in der Rechnung veranschlagte CO2-Preis weiter ansteigen wird.

Was den reinen Ausstoß angeht, stehen in der Beispielrechnung über 47 Tonnen CO2 für das Location-Shooting weniger als 8 Tonnen CO2 für das Shooting per Virtual Studio gegenüber.

Was raten Sie Handelsunternehmen im Kontext einer nachhaltigen E-Commerce-Strategie?

Auch wenn allgemeingültige Ratschläge immer schwierig sind: Gerade im E-Commerce trifft ein hoher Qualitätsanspruch auf sehr schnelle und volatile Märkte. Wichtig ist es, Content zu kreieren, der den User führt. Einzelne Highlights wecken Aufmerksamkeit, aber der Kunde bleibt nur, wenn er sich auch in der Masse der Einzelprodukte zurechtfindet – ein elementarer Bestandteil der User Experience.

Und weil der Preisdruck gerade im E-Commerce besonders hoch ist, geht es auch darum, eine Content-Produktion sicherzustellen, die Workflow-gesteuert und effizient ist und sich nahtlos in die gesamten Unternehmensprozesse eingliedert, ganz egal ob es um Moods, Produktabbildungen oder Produktbeschreibungen geht.

Wohin wird sich Ihrer Meinung nach die CGI-Technologie in Zukunft entwickeln?

CGI ist heute in der Lage, fotorealistische Abbildungen der Realität zu schaffen. Gleichzeitig ist es aber eine unglaublich kreative Technologie, weil sie weit über die Realität hinaus Möglichkeiten eröffnet. Wir werden immer neue Wege finden, diese Flexibilität zu nutzen – was wir ja nun auch mit unserem Virtual Studio zeigen, indem wir die Realität mit der Virtualität in Echtzeit zusammenführen.

In Verbindung mit künstlicher Intelligenz sind personalisierte Modelle oder Avatare (Stichwort Metaverse) denkbar, die Kunden auf einer sehr emotionalen und Ebene ansprechen. Wir investieren selbst viel in Forschung und Innovation in diesem Bereich.


„Virtual Production: Die Zukunft der Location-Fotografie 


Welche Trends machen Sie aus?

Der aktuelle Trend in unserem Bereich ist sicherlich das angesprochene Virtual Studio. Wir stehen hier am Anfang einer Entwicklung, die die gesamte Fotografie im Bereich der Handelskommunikation verändern wird – durch den Einsatz von CGI.

Etwas übergeordnet nimmt natürlich das Metaverse viel Raum in Zukunftsdiskussionen ein. Dass ein riesiger Konzern wie Meta sich bereits ganz dieser Technologie verschreibt, obwohl wir noch weit vor einem monetarisierbarem „Produkt“ stehen, ist enorm spannend. CGI wird im Metaverse eine erhebliche Rolle spielen – denn der virtuelle Raum muss ja durch grafische Darstellungen erlebbar gemacht werden.

Wie wirken sich die neuen Technologien auf Markt und Gesellschaft aus?

In der Produktkommunikation wird CGI von Kundenseite häufig gar nicht wahrgenommen – weil der Content, der daraus entsteht, fotorealistisch ist und als Fotografie interpretiert wird. Der Markt selbst profitiert von den neuen Möglichkeiten der Content-Kreation durch höhere Flexibilität und Kreativität sowie zahlreichen interaktiven Möglichkeiten, Kunden die eigenen Produkte vorzustellen. Mit der Virtual Production kommt nun eine neue Möglichkeit hinzu.

Welche gesellschaftlichen Auswirkungen ein Metaverse hätte, lässt sich nur erahnen. Wir beschäftigen uns intern wie extern mit diesen Fragen, um mit eigenen Innovationen vordenken und teilhaben zu können.

Welche Rolle spielt die Digitalisierung und die digitale Transformation dabei?

Innovationszyklen werden immer kürzer, und Technologien wie CGI und KI entwickeln sich immer schneller und vielfältiger und wachsen zusammen: Die digitale Transformation lenkt, wie wir als Menschen Gesellschaft, Kultur und Handel wahrnehmen und darin interagieren. Und damit bestimmt sie auch, in welchem Kontext neue Innovation vorangetrieben wird. Technologie ist spitz gesagt ein integraler Bestandteil unseres gesellschaftlichen Seins – so interpretiere ich das jedenfalls. Und die Signifikanz von Technologie nimmt in allen Bereichen weiter zu.

Als Deutschlands zweitgrößte inhabergeführte Digitalagentur nehmen wir Digitalisierung als Teil unserer eigenen DNA wahr. Dieses Mindset verbunden mit unserer ausgeprägten Prozess-Expertise ist Basis unseres Erfolgs.

www.laudert.com

 

Smarte Rechenzentren für smarte Städte

Dr. Alexandra Thorer, General Manager von Business Critical Solutions (BCS) in Deutschland, beleuchtet, wie sich Rechenzentren direkt in den urbanen Raum einfügen lassen.

Noch klingt es nach Zukunftsmusik, aber die Smart City wird tagtäglich präsenter – schon allein, um den Verkehr besser in den Griff zu bekommen und uns in unbekannten Städten bessere Orientierungsmöglichkeiten zu bieten. Je smarter unsere Städte werden, desto wichtiger wird der Datenaustausch zwischen Menschen, Geräten und Systemen vor Ort. Und weil Daten beispielsweise nicht direkt von einem Parkhaus zu einem Auto auf der Suche nach einem Parkplatz geschickt, sondern dazwischen verarbeitet und gespeichert werden müssen, wächst auch der Bedarf an Rechenzentrumskapazität, die möglichst vor Ort verfügbar sein sollte. Rechenzentren sind so etwas, wie eine neue Infrastruktur, die nun Bestandteil unserer Städte ist: wir haben fließend Wasser, fließend Strom und nun fließend Daten. Rechenzentren machen allerdings nicht gerade durch ihre positive Energiebilanz von sich reden. Und auch aus stadtplanerischen Gründen regt sich häufig Widerstand gegen einen weiteren Ausbau, der für den Erfolg smarter Citys erforderlich ist. Es gilt also Rechenzentren nachhaltiger zu gestalten und sie insgesamt besser ins Stadtbild zu integrieren.

Umbau statt Neubau

Die Branche ist sich der Probleme bewusst hat sich mit dem Pakt für klimaneutrale Rechenzentren (Climate Neutral Data Centre Pact, CNDCP) dazu verpflichtet, ab 2030 klimaneutral zu operieren. Um dieses selbst gesteckte Ziel zu erreichen, werden unterschiedliche Methoden notwendig sein, die verschiedene Szenarien abdecken und den gesamten Lebenszyklus eines Rechenzentrums berücksichtigen. So gilt es unter anderem der Tatsache Rechnung zu tragen, dass ein großer Teil der Emissionen eines Rechenzentrums auf seinen Bau zurückzuführen sind. Ein erheblicher Teil der Bauarbeiten stützt sich auf die Verwendung von energiedichtem Beton und Stahl. Dies bedeutet, dass die Sanierung einer bestehenden Einrichtung bis zu 70 bis 80 Prozent der CO2-Produktion eines Neubaus einspart. Eine Modernisierung und Erneuerung kritischer Infrastrukturen kann zudem zu einer effizienteren Nutzung der vorhandenen Stromversorgung führen. Diese lässt sich für eine höhere Dichte und wachsende IT-Lasten nutzen, z. B. durch den Austausch von UPS-Anlagen, energieeffizienter Server und Speichersysteme oder Anpassung der Kühltechnik. Auf diesem Weg lassen sich durch die Modernisierung bestehender Rechenzentren signifikante einmalige wie auch langfristige Emissionseinsparungen erzielen. Ähnliches gilt, wenn bestehende Gebäude zu Rechenzentren umgebaut werden. Beide Ansätze verfolgt die Rechenzentrumsbranche inzwischen intensiv.

Abwärmenutzung

Der Betrieb von Rechenzentren ist nicht nur energieaufwändig. Die Server, Netzwerkkomponenten und Speichersysteme erzeugen auch eine große Menge Abwärme. Eine Methode, die Umweltbilanz eines Rechenzentrums zu verbessern, besteht darin, diese Abwärme zu nutzen. Die naheliegendste Lösung, die bereits zum Einsatz kommt, ist die Einspeisung der Abwärme in die Wärmenetzwerke der Stadt. Idealerweise wird die potenzielle Anbindung an vorhandene Wärmenetzwerke also bereits bei der Planung eines Rechenzentrums bedacht. Die Abwärme eines Rechenzentrums lässt sich auch anders nutzen, gerade in einem urbanen Umfeld, das sich auch in anderer Hinsicht entwickelt. So existieren Projekte, die die Abwärme für den Betrieb von Algenfarmen oder anderen Formen des Urban Gardening nutzen.

Grüne Rechenzentren

Urban Gardening deutet zudem im weiteren Sinne auf eine weitere Methode hin, Rechenzentren umweltfreundlicher zu gestalten: die Begründung von Fassaden und, wo möglich, Teile der Dachflächen. Die Begrünung hilft, die Gebäude zu kühlen, senkt die Kühlungskosten und begrenzt den unkontrollierten Regenwasserabfluss. Darüber hinaus können gerade begrünte Fassaden helfen, die Akzeptanz von Rechenzentren im städtischen Umfeld zu steigern und fördern so eine moderne Adaption einer großflächigen Begrünung in der Stadt.

Größe ist wichtig

Für eine bessere Akzeptanz sorgen auch kleinere Rechenzentren, die zudem technische Vorteile bieten, gerade im Kontext der Smart City. Durch den insgesamt geringeren Energieverbrauch kommt es darüber hinaus zu einer effizienteren Nutzung des benötigten Stroms, weil dieser auch in der Nähe erzeigt werden kann und der Transportverlust geringer ist. Technisch gesehen passen Mini-Rechenzentren, sogenannte Edge Rechenzentren, gut ins Konzept der Smart City, weil sie deutlich geringere Latenzzeiten bieten, wie sie von vielen modernen Anwendungen benötigt werden.

Erneuerbare Energien

Zudem ist die Quelle der genutzten Energie von zentraler Bedeutung für umweltverträglichere Rechenzentren. Die Verwendung von erneuerbaren Energien etabliert sich zunehmend als Standard. Allerdings gilt auch hier, dass der Strom idealerweise in der Nähe erzeugt wird. Hierfür bietet sich im urbanen Umfeld beispielsweise Solarenergie an. Darum kann man auch davon profitieren, Rechenzentren nicht nur nach Bedarf zu verkleinern und zu begrünen, sondern auch mit Photovoltaikanlagen auszustatten. Der Solarstrom wird nicht für den Betrieb eines kompletten Rechenzentrums ausreichen, aber im Kampf um das umweltfreundlichere Rechenzentrum der Zukunft, kommt es auch auf kleinere Effizienzgewinne an, bis Rechenzentren hauptsächlich mit erneuerbaren Energien, wie Wind und Solar, betrieben werden können.

Smarte Rechenzentren für smarte Städte

Ein gutes Zusammenspiel von Smart City und Rechenzentren erfordert schlussendlich vor allem die Erneuerung bestehender Rechenzentren bzw. die Umwidmung existierender anderer Gebäude, eine Erneuerung der IT-Systeme, eine Begrünung von Fassaden und Dächern und kleinere Rechenzentren näher am Ort des Geschehens sowie die Nutzung der Abwärme und den Einsatz erneuerbarer Energien.


 


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Open Logistics Foundation

von Andreas Nettsträter

Open Source in der Logistik: Der Weg ist das Ziel

Durch die gemeinschaftliche Entwicklung von Software in der Open Logistics Foundation haben Unternehmen die Möglichkeit, Einfluss auf neue Entwicklungen in der Logistik zu nehmen und die Logistik digitaler zu machen. Der erste Schritt auf diesem Weg ist ein gemeinsames Verständnis von logistischen Prozessen.

Die Logistik gehört heute ohne Zweifel zu den digitalen Vorzeigebranchen: Wie keine andere Branche ist sie hochgradig standardisiert und damit für den übergreifenden Einsatz von Plattformen, Blockchains und Verfahren Künstlicher Intelligenz (KI) prädestiniert.

Andreas Nettsträter, CEO der Open Logistics Foundation

Die Potenziale bei der Optimierung von Prozessen im Hinblick auf Effizienzsteigerung oder für digitale Dienste und neue Geschäftsfelder gelten als nahezu unerschöpflich. Doch in der Erschließung dieser Potenziale blieb die Logistik zuletzt hinter ihren Möglichkeiten zurück.

Mit der Gründung der Open Logistics Foundation haben führende internationale Logistikunternehmen – Dachser, DB Schenker, Rhenus und duisport – inzwischen aber den entscheidenden Schritt dazu gemacht, die Digitalisierung der Logistik durch die gemeinschaftliche Entwicklung von Software und Hardware voranzutreiben. Die Open Logistics Foundation ist dabei ausdrücklich keine geschlossene Gesellschaft einiger Big Player, sondern eine offene Community für Unternehmen aller Größenklassen. Jedes Unternehmen kann in der internationalen Open-Source-Community daran mitarbeiten, die Logistik von morgen besser, effizienter und nachhaltiger zu machen.


„Jedes Unternehmen kann in der internationalen Open-Source-Community daran mitarbeiten, die Logistik von morgen besser, effizienter und nachhaltiger zu machen.“


Das Fundament der Open Logistics Foundation ist die gemeinschaftliche Ideenfindung und die gemeinschaftliche technische Umsetzung von Open-Source-Lösungen für Logistik und Supply Management. In erster Linie geht es dabei um Basis- oder Standarddienste. Mit diesen sogenannten Commodities können sich Unternehmen weder im Wettbewerb differenzieren noch zusätzliche Umsätze erzielen. Kostspielige Eigenentwicklungen aufzusetzen, macht daher keinen Sinn – zumal diese in aller Regel Insellösungen bleiben. Das aber erschwert die Zusammenarbeit von Marktpartnern in Lieferketten und Wertschöpfungsnetzwerken.

Die Stiftung versteht Open Source aber nicht nur als Entwicklungsansatz für Software und Hardware, deren Quellcodes und Baupläne Unternehmen kostenlos und frei zur Verfügung stehen. Sie sieht in Open Source auch und gerade einen wichtigen, strategischen Hebel für mehr Innovation in der Logistik. Zwar gehört die Kosteneinsparung durch den Entfall von Lizenzgebühren in deutschen Unternehmen heute noch zu den Hauptargumenten für Open Source. Je intensiver sich Unternehmen jedoch mit der Idee von Open Source auseinandersetzen, umso deutlicher wird: Hier ist der Weg das Ziel. Denn die Voraussetzung für erfolgreiche gemeinschaftliche Open-Source-Entwicklungen ist ein gemeinsames Verständnis von logistischen Prozessen.


„Je intensiver sich Unternehmen mit der Idee von Open Source auseinandersetzen, umso deutlicher wird: Hier ist der Weg das Ziel.“


Die Logistik ist schon immer, heute aber mehr denn je, von der Zusammenarbeit extrem vieler, unterschiedlicher und verteilter Partner gekennzeichnet. Dadurch besteht eine große Heterogenität von Daten und Prozessen. Viele der logistischen Standards, die es bislang gibt, werden von Logistikunternehmen zu Logistikunternehmen unterschiedlich interpretiert und angewendet. Gleichzeitig gilt es, noch schneller und noch flexibler zu werden, wollen sie im internationalen Wettbewerb bestehen. Dazu müssen produzierende und Handelsunternehmen interne Prozesse verbessern und neue digitale Geschäftsmodelle aufsetzen, Logistikdienstleister das Onboarding von Kunden und Lieferanten vereinfachen und Finanzdienstleister Zahlungen automatisiert abwickeln können.

Die gemeinschaftliche Entwicklung verkürzt dabei nicht nur Entwicklungszeiten von Software und Hardware, sondern steigert auch deren Kompatibilität. Im selben Schritt begründet sie neue, sogenannte De-facto-Standards: Denn die an der Entwicklung beteiligten Unternehmen werden die ersten sein, die ihre Lösungen auch zum Einsatz bringen, und so weitere Unternehmen mitziehen, denen die Komponenten im Repository der Open Logistics Foundation frei zur Verfügung stehen. Das macht die Zusammenarbeit in Supply Chains im Ergebnis einfacher, nachhaltiger und effizienter.

Erstes Leuchtturmprojekt: digitaler Frachtbrief

Das erste Leuchtturmprojekt der Open Logistics Foundation – die Umsetzung des digitalen Frachtbriefs (eCMR) – folgt diesem Gedanken. Frachtbriefe gehören zu den am häufigsten verwendeten Dokumenten in der Logistik, die oft noch papierbasiert mitgeführt werden. Die Open-Source-Lösung für den eCMR soll nun die Erstellung, Speicherung und Weiterverarbeitung von digitalen Frachtbriefen sowohl für den nationalen als auch für den grenzüberschreitenden Verkehr ermöglichen.

Das Interesse von Unternehmen, sich in der größten europäischen Open-Source-Community der Logistik zu engagieren, ist groß. Es entspricht Umfragen in der deutschen Wirtschaft, wie beispielsweise dem jüngsten Bitkom Open-Source-Monitor. Danach stehen 67 Prozent der befragten Unternehmen Open Source interessiert und aufgeschlossen entgegen. 71 Prozent setzen Open Source bereits ein und 55 Prozent beteiligen sich sogar schon an der Entwicklung bzw. Weiterentwicklung von Open Source-Soft- und Hardware.

Die Mitarbeit in der Open Logistics Foundation ist besonders attraktiv für Unternehmen, die in komplexen Lieferketten oder Wertschöpfungsnetzwerken engagiert sind. Dazu gehören Anbieter von Soft- und Hardwarelösungen für die Logistik, für Hersteller von Intralogistiksystemen, für Logistikdienstleister und Logistikplattformen, für Speditionen und Verlader sowie für Logistikzentren wie Flughäfen oder Häfen, aber auch für in der Logistik tätige Finanz- oder Versicherungsdienstleister. Sie haben die Möglichkeit, Mitglied im Open Logistics e. V. zu werden, dem Förderverein der Open Logistics Foundation. Unternehmen wie die Softwareentwickler AEB, Interface21, Markant und Setlog, die Logistikdienstleister BLG Logistics und Gebrüder Weiss, die Logistikplattform logistics.cloud oder die Standardierungsorganisation GS1 Germany bringen sich bereits aktiv ein. Sie alle verbindet das Bewusstsein dafür, dass mehr denn je das kollaborative Miteinander zählt und dass nur gemeinschaftlich entwickelte logistische Standardlösungen digital skalierbar sind.

Weitere Informationen unter:
https://www.openlogisticsfoundation.org/de/home-deutsch/

Personenbild / Quelle / Lizenz
Open Logistics Foundation

Mitarbeiter-Benefits: Alle Zeichen auf Grün

Anerkennung im Job – was im Arbeitsalltag oftmals zu kurz kommt, ist jedoch eine wichtige Zutat für erfolgreiche Unternehmen. Denn fehlende Anerkennung führt bei Mitarbeitenden im schlimmsten Fall zu innerer Kündigung und zum Exit. Dass es sich lohnt, Mitarbeiterbindung und Motivation durch Incentives (neu) zu denken, zeigen auch die letzten Jahre. Schließlich befinden wir uns in einer zunehmend komplexen und volatilen Arbeitswelt, geprägt durch Faktoren wie digitale Transformation, hybride Arbeitsmodelle und Fachkräftemangel. Für Unternehmen bedeutet das: Benefit-Konzepte sollten nicht nur die Unternehmenskultur und Werte widerspiegeln, sondern auch zeitgemäße Trends und gesellschaftspolitische Herausforderungen aufgreifen.

Mitarbeiter-Benefits – sie sind sprichwörtlich, neben einem attraktiven Gehalt, der Tausendsassa zur Mitarbeiterbindung. Wer jedoch glaubt, Benefits, die bereits vor vielen Jahren im Portfolio zu finden waren, sind heute ebenso gefragt, der irrt. Schließlich hat die Vergangenheit gezeigt: Unsere Gesellschaft und die Arbeitswelt entwickeln sich ständig weiter – und damit auch die Bedürfnisse der Arbeitnehmer:innen.  

Zeitgemäße Benefits

Zu den ausgewiesenen Megatrends des 21. Jahrhunderts und gleichzeitig größten Herausforderungen unserer Zeit zählen ganz klar neben Digitalisierung, Mobilität und demografischem Wandel auch Purpose, Nachhaltigkeit, Klima- und Umweltschutz. Aus dieser Gemengelage speist sich die New Work Thematik, wie wir sie heute vorfinden. Entsprechend wichtig ist, dass HR gesellschaftliche Entwicklungen stets im Blick behält – auch hinsichtlich der Incentivierung von Mitarbeitenden. Damit sie den richtigen Nerv treffen und ihr volles Potenzial im Recruiting und Retention-Management entfalten, sollten Benefits mindestens einen der folgenden Aspekte berücksichtigen:

  1. Zeitliche Flexibilität: Privat- und Berufsleben unter einen Hut zu bekommen ist oft eine Herausforderung. Arbeitgeber:innen punkten mit Benefits, die Work-Life-Balance und Zeitmanagement unterstützen – ob gemeinsame Sportpause während der Arbeitszeit, Zuschüsse zur Kinderbetreuung, Erholungsbeihilfe oder flexible Arbeitszeitmodelle und natürlich mobiles Arbeiten.
  2. Mitarbeitergesundheit: Die Frage nach gesunden und leistungsfähigen Mitarbeitenden spielt nicht erst seit Beginn der Corona-Pandemie eine große Rolle. Benefits, die auf die mentale und physische Gesundheit einzahlen, stehen deshalb hoch im Kurs. Um nur einige zu nennen: Fitnessangebote, Zuschüsse zur ergonomischen Büroausstattung im Homeoffice, Essenszuschuss, Onlineseminare zum Thema Stressmanagement.
  3. Digitalisierung: Virtuelles Arbeiten, Hybrid oder Remote Work – Personalverantwortliche tun gut daran, stets neue Formen der Zusammenarbeit mit- und vorauszudenken. Einen Vorteil für Mitarbeitende bieten hier Zusatzleistungen wie die Internetpauschale, die private Nutzung von Arbeitsmaterial oder ein Coaching zu neuen technischen Tools. Zusätzliches Plus, wenn Benefits auf einer digitalen Plattform gemanaged werden: Ressourcenersparnis und Mitarbeitende, die jederzeit digitalen und transparenten Zugriff auf ihre Extras erhalten.  
  4. Individualität: Nicht jede Zusatzleistung kommt gleich gut an – dafür sind die Bedürfnisse und Lebenssituationen der Mitarbeitenden zu unterschiedlich. Und weil sich Lebensphasen ändern, sind starre Angebote nicht mehr zeitgemäß. Wünschenswert ist deshalb, dass sich Mitarbeitende aus einem Benefit-Portfolio das für sich Passende auswählen können. Größtmögliche Flexibilität und Individualität bietet zudem hier die Nutzung des steuer- und sozialabgabefreien 50-Euro-Sachbezug.  

„Mitarbeiter-Benefits – sie sind sprichwörtlich, neben einem attraktiven Gehalt, der Tausendsassa zur Mitarbeiterbindung. „



Das fünfte Element: Nachhaltigkeit

Neben diesen vier Eigenschaften zeitgemäßer Benefits, gewinnt in den letzten Jahren Nachhaltigkeit immer mehr an Bedeutung. Ob Wald- und Insektensterben, Wetterextreme oder Bewegungen wie Fridays for Future – all dies hat verantwortungsvolles Handeln in das Bewusstsein gerückt. Heute wissen immer mehr Menschen um die Konsequenzen und Auswirkungen von „Fehlverhalten“ und passen ihre Verhaltensmuster an: öffentlicher Nahverkehr statt Auto, Secondhand-Kleidung statt High Fashion, Fairtraide-Produkte statt konventioneller Ware.

Was im Privatleben als selbstverständlich gilt, soll auch im Arbeitsleben wiederzufinden sein. So ist es laut einer Studie des Karriereportals Stepstone mit dem Handelsblatt Research Institute (HRI) drei von vier Befragten wichtig, dass Nachhaltigkeit bei ihrem (zukünftigen) Arbeitgeber einen hohen Stellenwert genießt. Unternehmen müssen hier also nachziehen – und ein „grünes“ Benefit-Programm, orientiert an den Ansprüchen ihres Teams, umsetzen. Dabei empfehlen sich folgende drei Bereiche:  

Mobilität – Statussymbole wie ein Dienstwagen oder eigener Firmenparkplatz sind passé. Heute überzeugen Arbeitgeber mit Leasing-Bikes, Zuschüssen für den öffentlichen Nahverkehr oder eine Mobilitäts-App. Unternehmen, die nicht auf Autos verzichten können, sollten ihre Dienstwagenflotte mit hybriden Fahrzeugen oder Elektroautos ausstatten. Unternehmenseigene Ladesäulen schaffen einen zusätzlichen Benefit.

Ernährung – Nach wie vor zählt der Verpflegungszuschuss zu den beliebtesten Zusatzleistungen eines Arbeitgebers. Heute gilt es jedoch auf die richtige Verpflegung zu achten und Bio- sowie regionale und saisonale Angebote zu schaffen. Zudem ernähren sich immer mehr Menschen vegan oder vegetarisch – ein Veggie-Menü oder die Sojamilch an der Bürokaffeemaschine sollten deshalb selbstverständlich sein.

Homeoffice – Remote Work und hybride Arbeitszeitmodelle ermöglichen nicht nur eine größere Flexibilität für jeden Einzelnen, sondern auch Kosten- und Zeitersparnis durch den Wegfall von Pendelzeit. Weniger Arbeitswege und eine häufigere Verlagerung von Dienstreisen in die virtuelle Welt führen zu einer erheblichen Reduzierung von CO2-Emissionen. Flexibel arbeiten zu können hat sich zu einem der beliebtesten Zusatzleistungen entwickelt. Ein nachhaltig ausgerichtetes Benefit-Konzept lohnt sich. So nimmt das Wohlbefinden bei Arbeitnehmenden zu, die ihre Werte und Bedürfnisse im Unternehmen repräsentiert sehen. Damit steigen auch Faktoren wie Identifikation und Bindung an den Arbeitgeber, während sich Fehlzeiten, Fluktuation und Rekrutierungskosten reduzieren. Unternehmen, die ihre nachhaltigen Benefits zudem mit grünen Maßnahmen im Büroalltag flankieren (Stromsparen, papierloses Büro, Glasflaschen statt Plastik, Tauschbörsen für Mitarbeitende, etc.), gewinnen auf ganzer Linie.

Über die Autorin

Lucia Ramminger ist seit August 2019 Director Human Resources bei Edenred Deutschland. Gemeinsam mit ihrem Team betreut sie rund 160 Mitarbeiter und Führungskräfte an vier Standorten. Zu ihrem Aufgabefeld im Personalmanagement zählen unter anderem Themen wie ESG, Digitalisierung von HR Prozessen, Hybrides Arbeiten, Compensation & Benefits sowie Mitarbeiterbindung und der Ausbau der Arbeitgebermarke.

https://www.edenred.de/

Datenanalyse im E-Commerce

Wie Händler weltweite Versandprozesse optimieren können

Insbesondere Onlinehändler, die über Grenzen hinweg liefern, bekommen die Auswirkungen der gestörten Lieferketten und stark gestiegenen Energiekosten aktuell zu spüren. Doch trotz Krisen ist es möglich, den Cross-Border-Versand zu optimieren und das Wachstum voranzutreiben. Hierbei hilft eine fundierte Analyse von Lieferketten, Auslastung und Leistungen.

Der E-Commerce-Sektor ist zum ersten Mal seit langem mit sinkenden Umsätzen konfrontiert. Denn die steigenden Lebenshaltungskosten zwingen aktuell viele Verbraucher zum Verzicht auf nicht benötigte Konsumprodukte. Onlinehändler, die dennoch expandieren und in neue Märkte vordringen möchten, können mit den richtigen Daten Schwachpunkte gezielt identifizieren und beheben. Durch die richtige Auswahl der Carrier und die Optimierung von Laufzeiten und Services lässt sich die Effizienz beim Versand entscheidend erhöhen.

Onlinehändler, die eine fundierte Auswertung von Zahlen, Daten und Fakten vornehmen, erhalten nicht nur wertvolle Einblicke in die Bedürfnisse der Kunden und die Customer Experience, sondern können gleichzeitig auch interne Geschäftsprozesse neu bewerten und aufbauen.


Über den Autor

Thomas Hagemann, Gründer und Co-CEO von Seven Senders

„Um mögliche Schwachstellen zu erkennen, sind datengestützte Erkenntnisse – beispielsweise zu Auslastung und Leistungsfähigkeit der Lieferungen – ein zentrales Instrument bei der Analyse.“


Überblick über komplexe Lieferketten behalten

Eine wichtige Rolle spielt die Lieferkette. Besonders komplexe Lieferketten, wie sie vor allem beim Cross-Border-Versand vorkommen, bieten viele Möglichkeiten für Optimierungsmaßnahmen. Da die Lieferketten von vielen verschiedenen Faktoren beeinflusst werden, ist für Onlinehändler jedoch die beste Lösung nicht immer gleich ersichtlich. Um mögliche Schwachstellen zu erkennen, sind datengestützte Erkenntnisse – beispielsweise zu Auslastung und Leistungsfähigkeit der Lieferungen – ein zentrales Instrument bei der Analyse. Eine interne Erfassung und Auswertung kann allerdings mit zusätzlichen Investitionen oder einem hohen Aufwand verbunden sein. Die Daten selbst zu analysieren ist daher für die meisten Onlinehändler keine realistische Option. Hier kommen Delivery-Plattformen wie Seven Senders ins Spiel: Sie bieten Onlinehändlern mittels benutzerdefinierter Dashboards und Berichte eine transparente Übersicht über die vollständige Lieferkette sowie über sämtliche Bestellungen und Sendungen. So können E-Tailer den gesamten Prozess kontinuierlich auf den Prüfstand stellen und die gewonnenen Ergebnisse für die Optimierung nutzen.

Flexibel und schnell auf Krisen reagieren

Die Krisen der vergangenen Jahre haben gezeigt, wie wichtig flexibles Handeln auch in schwierigen Situationen ist, um erfolgreich am Markt zu agieren und langfristig zu expandieren. Das gelingt Onlinehändlern, indem sie ihre Versandprozesse laufend analysieren. Denn nur so lassen sich Abweichungen zeitnah erkennen, was eine schnelle Reaktion und Anpassung möglich macht. Das gelingt jedoch nur mit einer guten Vorbereitung. Die Delivery-Plattform kann Onlinehändler hierbei mit einer gezielten Überwachung und Analyse der Prozesse unterstützen. Anhand täglicher Alerts haben E-Tailer beispielsweise die Möglichkeit, Unregelmäßigkeiten frühzeitig zu erkennen und umgehend Gegenmaßnahmen einzuleiten.

Den richtigen Carrier gezielt auswählen

Last Mile Carrier haben einen großen Einfluss auf den gesamten Versandprozess. Onlinehändler sollten daher bei der Wahl des Anbieters sorgfältig vorgehen. Konkret bedeutet das zum Beispiel: Für internationale Lieferungen ist es sinnvoll, auf lokale Carrier in den unterschiedlichen Zielmärkten zu setzen. Sie kennen nicht nur die Bedürfnisse der Kunden im Zielland am besten – auch Laufzeiten, Zustellquote und Einhaltung der Lieferzeitvorgaben sind bei lokalen Carriern meist am effizientesten.

Onlinehändler, die bisher auf einen zentralen Anbieter gesetzt haben, sollten das Potenzial zur Prozessoptimierung nutzen. Bei der Auswahl der richtigen Partner lohnt sich ein ausführlicher Vergleich der Leistungen und Services. Das ist mit einem hohen zeitlichen Aufwand verbunden und bindet viele Ressourcen. Einfacher geht es hier mit der Delivery-Plattform: Sie liefert die notwendigen Daten und Onlinehändler können aus dem Netzwerk von über 100 europäischen Versandpartnern den optimalen Dienstleister für jedes Zielland wählen.


„Datenbasierte Versandoptimierung kann den klaren Wettbewerbsvorteil im hart umkämpften E-Commerce-Markt verschaffen.“


Umfrage untersucht Lieferpräferenzen im E-Commerce

Eine aktuelle Umfrage von Seven Senders und Appinio zu den Lieferpräferenzen 2022 in sieben europäischen Ländern zeigt: 45 Prozent der europäischen Verbraucher würden nicht mehr bei dem gleichen Anbieter bestellen, wenn sie mit dem Liefererlebnis unzufrieden waren. So ist es für viele beispielsweise enorm wichtig, dass sie ihre Pakete lückenlos nachverfolgen können. Auch hierfür benötigen Onlinehändler eine umfassende und komplette Erhebung sowie Analyse der relevanten Daten. Diese können nicht nur für die umfassende Kommunikation genutzt werden, sondern liefern gleichzeitig auch interessante Insights zu den Wünschen und Bedürfnissen der Kunden. Mit der Delivery-Plattform erhalten E-Commerce-Anbieter beispielsweise einen detaillierten Überblick über Weg und Historie jeder Lieferung. So können sie ihre Kunden stets über den Lieferstatus ihres Pakets auf dem Laufenden halten. Die automatisierten und proaktiven Benachrichtigungen der Plattform entlasten auch den Kundendienst, da die Anfragen zum Versandstatus abnehmen.

Fazit

Wachstum ist heutzutage schwieriger denn je zu erreichen. Vor allem im E-Commerce weiten immer mehr Anbieter ihr Angebot auf das europäische Ausland aus und expandieren. Und besonders hierbei kann die datenbasierte Versandoptimierung den klaren Wettbewerbsvorteil im hart umkämpften E-Commerce-Markt verschaffen: Übersichtliche Auswertungen und Berichte bilden eine solide Grundlage für die richtigen Geschäftsentscheidungen. Im Mittelpunkt steht eine ausgewogene Kombination aus Zahlen, Fakten und Erfahrungen.

https://sevensenders.com/de/

Cyber-Resilienz in aller Munde: Was Unternehmen jetzt beachten sollten

Gisa Kimmerle, Head of Cyber beim Spezialversicherer Hiscox, gibt einen Status Quo zur digitalen Sicherheit von Unternehmen und erklärt die drei wichtigsten Maßnahmen zur Steigerung der eigenen Cyber-Resilienz.

Cyber-Risiken für Unternehmen haben in den letzten Jahren durch verstärktes Home-Office, vermehrtes Auftreten kritischer Sicherheitslücken oder geopolitische Krisen enorm an Bedeutung gewonnen. Laut aktuellem Hiscox Cyber Readiness Report 2022 waren zuletzt in Deutschland fast die Hälfte aller Firmen von mindestens einer Cyber-Attacke betroffen – Tendenz steigend.

Neue Bedrohungsszenarien wie Kumul-Schäden oder die internationale Vernetzung von Hacker-Gruppen stellen Unternehmen und Versicherer gleichermaßen vor Herausforderungen. Dabei verschärft sich auch das Spannungsfeld zwischen Versicherungsbedarf und Versicherbarkeit von digitalen Risiken immer weiter.

Obwohl die Sensibilität und damit auch die Ausgaben für Cyber-Schutzmaßnahmen in Unternehmen steigen, wird es immer schwieriger für Unternehmen, dieses Risiko kontrollierbar zu halten. Dies sorgt insgesamt für große Unsicherheit und ein drastisch sinkendes Selbstbewusstsein: So reduzierte sich der Anteil der Firmen, die sich als Cyber-Experten einstufen, im letzten Jahr um 21 Prozent auf nur noch 3 Prozent. Dabei kann bereits die Umsetzung einiger weniger Maßnahmen eine große positive Wirkung auf die eigene Cyber-Resilienz haben. Wir empfehlen daher Unternehmen jeder Größe, gewisse Vorkehrungen zu treffen, um ihre IT-Sicherheit zu erhöhen. Im Folgenden nennen wir daher die drei wichtigsten Maßnahmen für eine nachhaltige Cyber-Resilienz, die wir aus unserer Praxiserfahrung abgeleitet haben.


„Bereits die Umsetzung einiger weniger Maßnahmen kann eine große positive Wirkung auf die eigene Cyber-Resilienz haben.“


1. Patch Management und Sicherung von Altsystemen beugen Hacker-Angriffen vor

Die erste wichtige Maßnahme zur Prävention eines Cyber-Angriffs betrifft ein gut aufgestelltes Patch Management. Es ist essenziell, neu auftretende bzw. neu bekanntwerdende Sicherheitslücken so schnell wie möglich zu schließen, um zu verhindern, dass Hacker oder Schadprogramme überhaupt erst in das Computersystem eindringen können. Massenhafte Software-Sicherheitslücken wie beispielsweise im Microsoft Exchange Server 2020 – auch unter dem Stichwort „Hafnium“ bekannt geworden – oder auch die Schwachstelle Log4j Ende letzten Jahres treten flächendeckend auf und werden so zu Eingangstore für Hacker. Mit von den Software-Herstellern zur Verfügung gestellten sogenannten Patches (Software-Updates) können Hersteller Sicherheitslücken in ihren Systemen schließen.


„Mit von den Software-Herstellern zur Verfügung gestellten sogenannten Patches (Software-Updates) können Hersteller Sicherheitslücken in ihren Systemen schließen.“


Durch effizientes und zeitnahes Patch Management in der jeweiligen IT-Abteilung kann schnell in einem solchen Bedrohungsszenario agiert werden und größerer Schaden vermieden werden, bevor er überhaupt auftritt. Insbesondere Altsysteme, bei denen keine neuen Patches mehr angeboten werden, stellen gefährliche Schwachstellen dar, die von Cyber-Kriminellen relativ einfach ausgenutzt werden können. Sofern Unternehmen Betriebssysteme nutzen, für die ihnen keine Sicherheitsupdates mehr bereitgestellt werden, sollten diese Altsysteme unbedingt z. B. mithilfe einer Firewall und Abschottung vom Internet umfassend gegen externe Bedrohungen abgesichert werden.

2. Ransomware-sichere Back-Ups

Eine der zentralen Maßnahmen beim Thema Cyber-Resilienz ist und bleibt das Ransomware-sichere Back-Up. Dieses dient nicht nur dazu, die Eintrittswahrscheinlichkeit eines Schadenszenarios zu reduzieren, sondern auch dazu, im Worst Case den Umfang eines möglichen Schadens zu reduzieren und die Systeme zügig wieder zum Einsatz zu bringen – und nicht zuletzt macht man sich somit weniger erpressbar gegenüber Lösegeld-Zahlungsforderungen.

Die IT-Sicherheit eines Unternehmens wird im Vergleich mit einem Schiff deutlich. Dort gibt es für den Fall einer Havarie verschiedene Sicherungsbereiche. Sobald Wasser von außen in das Schiff eindringt, können die Schotten niedergelassen werden. So läuft nur ein Bereich des Schiffes voll, die anderen aber nicht. Ein Offline-Back-Up ist quasi wie eine separate, nicht auf normalen Wegen erreichbare Kammer mitten im Schiff, in der alle wichtigen Daten ebenfalls enthalten sind. Auch wenn der Rest vollgelaufen ist, bleibt dieser Bereich „trocken“ und das Schiff selbst kann sich über Wasser halten.


„Eine der zentralen Maßnahmen beim Thema Cyber-Resilienz ist und bleibt das Ransomware-sichere Back-Up.“


Dies gelingt durch unterschiedliche Zugänge bzw. über eine andere „Domain“ des Back-Ups als das übriger IT-Systeme. Aus dem „normalen“ Bereich darf nicht auf den Back-Up-Bereich zugegriffen werden können. Administratoren, die beide Bereiche verwalten, haben ebenfalls keinen Zugriff, da dies sonst ein Loch in den „Schotten“ darstellen würde. Bei einem Ransomware-sicheren Back-Up muss also sichergestellt werden, dass in keiner Form direkt aus dem bestehenden System auf dieses zugegriffen werden kann und die Möglichkeit der nicht-autorisierten Veränderung des Back-Ups in jedem Fall technisch unterbunden wird.

Außerdem gibt es noch eine weitere Möglichkeit der Absicherung: ein Cloud-Back-Up. Hier lagert man das Back-Up an einen Dritten aus. Das kann mit einem Beiboot verglichen werden – und derjenige darauf ist ebenfalls abgesichert: Im Gegensatz zu einem Offline-Back-Up nicht nur durch ein gesondertes Passwort, sondern zusätzlich durch ein Token-Code oder einen PIN. Zu guter Letzt erfüllt auch ein Offline-Back-Up, also die Sicherung z. B. auf Bändern oder Tapes, die Anforderung an die Sicherung gegen fremde Zugriffe.

3. Partner, Prävention und Präparation: Schlüssel für Cyber-Resilienz

Zusammenfassend lässt sich sagen: Auch wenn Cyber-Angriffe in nächster Zeit nicht abnehmen und Kumul-Schäden ebenfalls eher zunehmen werden, kann eine rechtzeitige Vorbereitung und Beschäftigung mit Cyber-Risiken viele Gefahren abfedern. Insbesondere wie beschrieben: ein professionelles Patch Management, die Absicherung von Altsystemen sowie Ransomware-sichere Back-Ups.


„Zur Cyber-Resilienz gehört immer auch eine individuelle Cyber-Versicherung, um das Rest-Risiko von Unternehmen abzusichern.


Allerdings bedeuten selbst die besten Cyber-Schutzvorkehrungen leider nicht, dass ein Schadenfall zu 100 Prozent verhindert werden kann. Daher gehört zur Cyber-Resilienz immer auch eine individuelle Cyber-Versicherung, um das Rest-Risiko – das für Unternehmen existenzbedrohende Ausmaße annehmen kann – abzusichern. Hier ist es ratsam, auf einen Anbieter mit langfristiger Schadenerfahrung zurückzugreifen, dessen Schaden-Service gut bewertet ist und der nicht zuletzt auch umfangreiche Assistance-Leistungen mit anbietet, also Sofort-Hilfe im Schadenfall z. B. in den Bereichen IT-Forensik, Datenschutz-Beratung oder Krisen-PR.  

Wenn Unternehmen alle diese Punkte beachten, haben sie ihre Cyber-Resilienz wesentlich erhöht und können sich wieder voll auf das Tagesgeschäft konzentrieren.

Über die Autorin

Gisa Kimmerle ist als Head of Cyber beim Spezialversicherer Hiscox Deutschland verantwortlich für den Bereich der Hiscox Cyber-Versicherungslösungen für Geschäftskunden, entwickelt das Cyber-Wording kontinuierlich weiter und beschäftigt sich mit der Risikobewertung von Unternehmen sowie dem Pricing. Die ausgebildete Versicherungskauffrau, studierte Versicherungswirtschaftlerin sowie Inhaberin eines M.A. begann ihre Karriere bei der Hannover Rück als Underwriterin. Erste Erfahrungen in der Cyber-Produktentwicklung konnte sie als Senior Underwriter Casualty bei der Amlin Insurance SE gewinnen. Seit Oktober 2018 ist Gisa Kimmerle bei Hiscox tätig.

www.hiscox.de/crr2022

 

Gezielte Investments in Mitarbeiter-Benefits

Statt wie im Krisenmodus oftmals üblich reflexartig das Personalbudget zu kürzen, sollten insbesondere mittelständische Unternehmen gerade jetzt in ihre Mitarbeiter investieren. Im Interview erklärt Mark Gregg, CEO bei der Bonago Incentive Marketing Group, wie sich das für Arbeitgeber doppelt auszahlen kann und wie sich Mitarbeiter auch emotional ans Unternehmen gebunden fühlen.

 

Herr Gregg, in vielen Unternehmen gehen die Kosten hoch. Das gilt insbesondere für energieintensive Branchen. Ein typischer Reflex ist das Sparen beim Personal. Wie ginge es vielleicht besser?

Das Kürzen des Budgets für Personal und Human Resources ist gerade in Krisenzeiten leider noch weit verbreitet. Im dritten Krisenjahr hintereinander ist diese Gefahr besonders hoch. Dabei ist aus vielen Studien mittlerweile längst bekannt, dass das Sparen an Mitarbeitern und deren Benefits sich mittel- bis langfristig nicht rechnet: Wenn sich Mitarbeiter nicht mehr Wert geschätzt fühlen, verlieren sie die Motivation und gehen – mangelnde Wertschätzung ist nach wie vor einer der häufigsten Kündigungsgründe. Zieht die Wirtschaft wieder an, müssen die Stellen wieder neu besetzt werden. Da natürlich auch viele andere Unternehmen genauso gehandelt haben, ist die Neubesetzung für Arbeitgeber in der nun folgenden Wachstumsphase viel schwieriger. Und die neuen Mitarbeiter brauchen ja auch Zeit, sich wieder einzulernen.Es macht also auch und gerade in Krisenzeiten sehr viel Sinn, in Personal zu investieren – der Kampf um die besten Mitarbeiter ist mittlerweile in fast jeder Branche angekommen. Wer hier nicht eindeutig in die Bindung investiert, verliert.

Und was mache ich als Budget-Verantwortlicher, wenn ich dafür keine Mittel bekomme?

Personalverantwortliche Entscheider und Führungskräfte können durch einen gezielteren, bewussteren Einsatz von Benefits sogar Budget sparen – und dabei mehr für das Unternehmen und auch mehr für den einzelnen Mitarbeiter rausholen. So gesehen widerspricht ein Sparkurs im Unternehmen nicht zwangsläufig einem Invest in die vorhandenen Mitarbeiter.

Auch grundsätzlich muss Bindung nicht immer gleichbedeutend sein mit höheren Kosten. Vielmehr entsteht Bindung durch eine Kombination aus Wertschätzung, spannenden Aufgaben und relevanten Benefits für jede Lebenssituation. Durch diese individuell angepassten Benefits fühlen sich Mitarbeiter stärker gebunden. Dazu können Unternehmen auch in der Administration viel Zeit und Geld sparen.

Und dennoch heißt es in vielen Unternehmen: Obstkorb adé. Dabei gibt es doch bestimmt intelligentere Lösungen?

Natürlich. So werden z. B. sehr häufig rein monetäre Boni eingesetzt. Diese erzielen aber erfahrungsgemäß nur kurzfristige Effekte beim Arbeitnehmer. Sie schaffen keine wirkliche emotionale Bindung des einzelnen Menschen und Mitarbeiters an das Unternehmen. Zudem können monetäre Boni willkürlich wirken – generelle Begründungen wie z. B. „Wertschätzung für gute Arbeit“ oder ähnliches reichen hier nicht mehr aus. Eine Belohnung in Form von finanziellen Zuwendungen – also ein monetärer Bonus – sollte im Idealfall an die Erreichung von messbaren, konkreten Zielen geknüpft sein. Das steigert sowohl die Relevanz wie auch die Motivation für den Mitarbeiter signifikant. Aber nochmals: Selbst mit einer Bonuszahlung, die an konkrete Ziele geknüpft ist, erfolgt keine wirkliche Bindung. Gerade für mittelständische Unternehmen ist es mehr als empfehlenswert, diese Boni mit anderen Mitarbeiter-Benefits zu kombinieren bzw. sie in Teilen oder nach und nach sogar ganz zu ersetzen. Das hat nicht nur für den Mitarbeiter selbst, sondern auch für das Unternehmen Vorteile.

Können Sie ein paar Beispiele nennen?

Unternehmen könnten z. B. viel häufiger auf den sogenannten Logen-Paragraf zurückgreifen. Nach §37b des Einkommenssteuergesetztes (EStG) kann der Arbeitgeber für jeden Arbeitnehmer Zuwendungen bis zu einem Höchstbetrag von 10.000 Euro in Form eines Sachbezugs pauschal versteuern. Für den Mitarbeiter bedeutet das: Weniger Abzüge und mehr Bonus. Eine weitere Möglichkeit ist, den Bonus auf verschiedene, steueroptimierte Benefits aufzuteilen. Das können z. B. ein Auto-Abo, ein Jobfahrrad oder ein Zuschuss für arbeitsbezogene Elektronik sein. Oder eine Kombination aus mehreren Benefits. Auch hier ist der wesentliche Vorteil für den Mitarbeiter, dass mehr bei ihm ankommt. Und das Unternehmen kann punktuell Abgaben sparen und so auch seine Abgabenlast besser verteilen. Zudem fühlt sich der Mitarbeiter durch die mittel- bis langfristige Ausrichtung und einen erlebbaren, ans Unternehmen gekoppelten Benefit mehr an seinen Arbeitgeber gebunden. Und wenn man die Maßnahmen über eine integrierte Benefit-Lösung umsetzt, ist auch der administrative Aufwand niedriger.

„Integrierte Benefit-Lösung“ – das klingt spannend. Was genau meinen Sie damit?

Aus unseren zahlreichen Gesprächen mit mittelständischen Geschäftsführern und Personalleitern sowie aus unserer Erfahrung heraus wissen wir, dass viele HR-Mitarbeiter unabhängig voneinander beauftragt werden, einzelne Benefit-Bausteine zu suchen. Sie sollen Anbieter screenen und Angebote vergleichen. Am Ende dieses Prozesses werden dann dem Geschäftsführer zwei bis drei Angebote vorgelegt. Nach dessen Entscheidung wird dann das Benefit-Angebot des neuen Dienstleisters eingeführt. So weit, so gut.

Aber: In den meisten Fällen endet hier auch der Support des Dienstleisters. Für das Unternehmen bzw. die HR-Abteilung geht dann die Arbeit erst richtig los. Der bzw. die Mitarbeiter müssen per Intranet über den neuen Benefit informiert werden. Im Anschluss muss die HR die Mitarbeiter beraten, den Dienstleister steuern und die Abrechnung sowie weitere administrative Aufgaben übernehmen. Das ist schon für nur einen Benefit enorm viel Aufwand.

Die meisten Unternehmen begnügen sich also mit zwei bis drei Benefits, weil sonst der administrative Aufwand zu hoch wäre. Das mag für die HR-Abteilung komfortabel sein, doch der einzelne Mitarbeiter fühlt sich nicht wirklich wertgeschätzt: Er kann sich einfach nicht die Benefits aussuchen, die gerade zu seiner Lebenslage passen.

Wie ginge es denn besser?

Wir empfehlen hier klar den Einsatz von sogenannten „echten“ Benefit-Portalen. Oder anders gesagt: Von integrierten Multi-Flex-Benefit-Portalen. Diese ganzheitlichen Lösungen liefern von der Anbindung über die Nutzung bis hin zur Abrechnung alles aus einer Hand und damit einen echten Mehrwert. Sie bieten deutlich mehr als nur eine Link-Sammlung zu verschiedenen Anbietern, die alle einzeln betreut und abgerechnet werden müssen. Die Vorteile für die Unternehmen liegen auf der Hand: Statt jeden Dienstleister neu anzuschreiben, können die HR-Mitarbeiter die momentane Marktlage über ein echtes Benefit-Portal gleich auf einen Klick checken. Nach der Entscheidung für einen Anbieter stellt dieser dann eine ganze Reihe von Benefit-Optionen für die einzelnen Mitarbeiter zusammen. Diese können dann die Benefit-Vorschläge persönlich für sich aus- oder abwählen, egal ob zur Gehaltsumwandlung oder als On-Top-Leistung. So kann ein Unternehmen ohne großen Mehraufwand sieben oder noch mehr Benefits gleichzeitig einführen – und damit wesentlich mehr, als die meist üblichen drei bis fünf Benefits.

Das klingt auf jeden Fall nach mehr Service, als einfach nur Benefits anzubieten…

Ganz genau. Wirklich professionelle Anbieter stellen nicht einfach nur Benefits zum Abruf bereit und überlassen dann alles andere den HR-Mitarbeitern bei ihren Kunden. Vielmehr geht bei ihnen der Service mit der Beratung zur Auswahl und Ausgestaltung der Benefits erst so richtig los. Nach der Auswahl kann das Portal die Unternehmen auch bei der Kommunikation Richtung Mitarbeiter unterstützen. Das gilt für den initialen Start der Zusammenarbeit, aber auch später beim laufenden Onboarding neuer Mitarbeiter oder bei konkreten Fragen im täglichen Doing.

Idealerweise stellen die Portale dazu auch einen zentralen Ansprechpartner bereit, der die Rolle des Feel-Good-Managers oder Benefit-Beraters übernimmt. Dieses ganzheitliche Modell eines Multi-Flex-Benefit-Portals sieht also komplett anders aus als die reine Vermittlung von Benefits: Der Aufwand für Human Resources und die Geschäftsführung reduziert sich auf die Entscheidung für einen Anbieter und der übernimmt von da an, natürlich in enger Abstimmung mit dem Unternehmen. Mit zentralen Schnittstellen, wie z. B. über DATEV, lassen sich auch das Rechnungshandling und die Buchhaltung stark vereinfachen und effizienter gestalten. Allein schon, dass es nur eine Rechnung gibt, ist ein Riesen-Vorteil. Unterm Strich stehen viel mehr situations- und lebensgerechte Benefits für alle Mitarbeiter, das Unternehmen bleibt trotzdem superflexibel und HR hat viel weniger Aufwand.

Welche Zusatzleistungen würden Sie generell empfehlen?

Das lässt sich so nicht beantworten: Es kommt einfach auf die individuellen Bedürfnisse jeden einzelnen Mitarbeiters an. Die Auswahl der Benefits muss zu den Wünschen der Mitarbeiter passen – der Arbeitgeber hat hier eigentlich „nur“ die Rolle des Vermittlers.

Anders gesagt: Die Herausforderung für den Arbeitgeber ist weniger die Auswahl des einzelnen Benefits. Sondern viel mehr, möglichst viele unterschiedliche Benefits zur Auswahl anzubieten und das Management für diese Auswahl möglichst effizient und effektiv zu gestalten, für alle Beteiligten.

Gibt es denn gar keine Trends?

Das schon, aber das betrifft weniger die einzelnen Benefits. Es geht z. B. viel mehr darum, wie sich die Anforderungen von Unternehmen im Laufe der Zeit verändern. Dazu sind wir laufend im Austausch mit mittelständischen GFs und wir sind Partner relevanter HR-Netzwerke, wie z. B. HR RoundTable und HR FITNESS CLUB. Wir sitzen im Messebeirat der größten deutschen Personalmessen wie z. B. ZPE und sind seit Jahren aktiver Unterstützer der jährlichen Belohnungsstudie, der größten und einzigen Befragung in DACH zum Thema Benefits und Zusatzleistungen, die sich an Geschäftsführer und Personalentscheider richtet.

Was sind die Ergebnisse der Studie?

In den Unternehmen ist der Sachbezug weiterhin stark verbreitet, dicht gefolgt von Firmenhandy und Fahrtkostenzuschuss. Dazu sind auch neuere Themen wie z. B. flexible Auto-Abos oder auch das eBike-Leasing stark auf dem Vormarsch. Das hat auch viel damit zu tun, dass die Mitarbeiter zunehmend mehr Wert auf nachhaltige Mobilität legen.

In der momentanen Situation ist auch davon auszugehen, dass es temporäre Zusatzleistungen wie z. B. eine Prämie für den Inflationsausgleich gibt. Aber das verdrängt nicht die nachhaltiger ausgelegten, klassischen Mitarbeiter-Benefits.

Was bei der Studie auch rauskam: Die Unternehmen geben momentan im Schnitt fast 100€ pro Monat für Mitarbeiter-Benefits aus – das ist fast 30% mehr als noch vor fünf Jahren. Das ist angesichts der weltweiten Pandemie und einem anhaltend hohen Kostendruck eine beachtliche Steigerung. Die Unternehmen haben also verstanden, dass es sich lohnt, in Mitarbeiter-Bindung über Benefit-Leistungen zu investieren.

Was lässt sich daraus als Handlungsempfehlung ableiten?

Wie schon am Anfang dieses Interviews erwähnt, sind Unternehmen gut beraten, gerade in der jetzigen Situation ihren Mitarbeitern möglichst viele Benefits anzubieten und den Aufwand dafür intern möglichst gering zu halten. Das gilt insbesondere für mittelständische Unternehmen. Gerade im Wettbewerb um die besten Talente haben diese gegenüber Konzernen bezüglich des Gehalts und der Zusatzleistungen oft das Nachsehen. Viele Benefits anzubieten, war bisher nur Konzernen mit großen HR-Abteilungen und eigener IT vorbehalten. Mittelständische Unternehmen haben dadurch auch Probleme mit dem Employer Branding.Mit Multi-Flex-Benefit-Portalen lässt sich das ändern: Diese eröffnen nun auch mittelständischen Unternehmen die Chance, eine größere Auswahl an Benefits für die eigenen Mitarbeiter anzubieten. Mit dem gezielten Invest in ein Multi-Flex-Benefit-Portal fühlen sich die Mitarbeiter mehr wertgeschätzt. Und die Arbeitgebermarke gewinnt auch an Attraktivität.

Was können Unternehmen noch tun, um die Wertschätzung für Ihre Mitarbeiter zu steigern?

Gerade in Deutschland wird das Thema Wertschätzung oft noch unterschätzt. In anderen Märkten, wie z. B. in den USA oder in Großbritannien, gibt es bereits einige Lösungen im Bereich der sogenannten Social Recognition.

Allmählich gibt es auch hierzulande erste Anbieter von Wertschätzungs-Plattformen wie z. B. encorePeople. Unter anderem können sich hier Mitarbeiter für gute Leistungen im Team bedanken und damit auch unternehmensintern ihre Tätigkeit sichtbarer machen. Und als positiver Nebeneffekt werden auch die Unternehmenswerte im konkreten Doing erlebbar.

Übrigens: Wer sowohl eine Wertschätzungsplattform wie auch ein Portal für flexible Mitarbeiter Benefits haben will, liegt mit dem Multi-Flex-Ben-Portal von Bonago genau richtig – das ist gerade für den Mittelstand einfach die ideale All-in-One-Lösung.

 

ESG: Nachhaltigkeit messbar machen

Von Carsten Ettmann, Dun & Bradstreet

Konsumenten erwarten heute zunehmend nachhaltige Produkte und Vertriebswege. Gleichzeitig sehen sich Unternehmen mit neuen regulatorischen Vorgaben konfrontiert. Neben einer übergeordneten Nachhaltigkeitsstrategie müssen sie Messbarkeit und Transparenz ihrer Umsetzung sicherstellen. Der Schlüssel sind valide Daten und automatisierte Prozesse.
Nachhaltigkeitskriterien rücken immer stärker in den Fokus und werden die Wirtschaft in den kommenden Jahren noch stärker prägen als heute schon. Umwelt, Soziales und Unternehmensführung – die sogenannten ESG-Kriterien (Environment, Social, Governance) – avancieren zu zentralen Aspekten, die es bei jeder Unternehmenstätigkeit zu berücksichtigen gilt.
Das hat mehrere Gründe: So sorgen zahlreiche Regulierungsinitiativen weltweit dafür, dass Unternehmen ihrer gesellschaftlichen Verantwortung nachkommen müssen. In der Europäischen Union (EU) ist das insbesondere die Corporate Sustainability Reporting Directive (CSRD). Sie verpflichtet größere Unternehmen, ab dem Geschäftsjahr 2023 Nachhaltigkeitsaspekte in ihren Lagebericht zu integrieren. Konkret sind sie gefordert, die Wirkung von Nachhaltigkeitsaspekten auf die wirtschaftliche Lage des Unternehmens festzuhalten und die Auswirkungen des Betriebs auf Nachhaltigkeitsaspekte verdeutlichen. In Deutschland kommt das Gesetz über die unternehmerischen Sorgfaltspflichten in Lieferketten (LkSG), kurz Lieferkettengesetz, hinzu. Es verlangt von vielen Unternehmen, ein Risikomanagement einzurichten, um etwa die Risiken von Menschenrechtsverletzungen und Schädigungen der Umwelt zu identifizieren, zu vermeiden oder zu minimieren.

Darüber hinaus ist das gesellschaftliche Bewusstsein für Nachhaltigkeitsbelange stark gestiegen. Konsumenten, Investoren und Geschäftspartner erwarten heute von Unternehmen, dass sie ökologische und soziale Standards einhalten. Damit ist die Einbeziehung von ESG-Faktoren in sämtliche Unternehmensprozesse nicht nur regulatorisch gefordert, sondern gleichzeitig ökonomisch geboten. Denn eine fehlende Adressierung von Nachhaltigkeit wird von Investoren, Banken, Kreditgebern und Stakeholdern zunehmend als relevanter Risikofaktor eingestuft.

Autor: Carsten Ettmann Senior Business Consultant Diplom-Kaufmann Carsten Ettmann ist als Senior Business Consultant für die Dun & Bradstreet Deutschland GmbH tätig. Er verfügt über lang-jährige Erfahrung in den Bereichen Wirtschaftsprüfung, Compliance, Unternehmensberatung sowie Rating & Scoring.

 

 

Ökonomische Vorteile

Zudem sorgt eine strategisch definierte Haltung des eigenen Unternehmens zu Nachhaltigkeitsthemen für Effizienzsteigerungen durch einen sparsameren Einsatz von Ressourcen, sie erhöht die Motivation von Mitarbeitern, stärkt deren Bindung zum Unternehmen und verbessert die Position auf den Recruiting-Märkten. Und nicht zuletzt werden faire Arbeitsbedingungen, Umweltschutz und ein schonender Umgang mit Ressourcen von den Verbrauchern entlohnt, sodass sich höhere Preise durchsetzen lassen.
Damit steht fest: Nachhaltigkeit muss heute wesentlicher Bestandteil jeder Unternehmensstrategie und fest in jedem Unternehmensbereich implementiert sein. Wie aber kann das konkret aussehen? Klar ist: Die Anforderungen an die spezifische ESG-Strategie verschiedener Unternehmen unterscheiden sich stark und sind abhängig von Branchen, Zielgruppen, Produkten, Betriebsmodellen und auch Unternehmensgrößen. Es bedarf deshalb einer individuellen ESG-Strategie mit spezifischen Zielen und Maßnahmen.
Sinnvoll ist es, zunächst Nachhaltigkeitsstandards und eine entsprechende Strategie zur Umsetzung zu definieren. Aufgrund der rechtlichen Rahmenbedingungen und aus Gründen der Vergleichbarkeit sollten sich diese an Rechtsnormen wie der EU-Taxonomie und an etablierten Standards wie etwa demjenigen des Sustainability Accounting Standards Board (SASB) orientieren. Sodann ist ein System zu schaffen, dass alle Prozesse innerhalb des Unternehmens sowie die gesamte Lieferkette auf diese Standards hin überprüft, bewertet und diese Bewertung für Geschäftspartner, Investoren und Verbraucher erkennbar und nachvollziehbar macht.
Voraussetzung für eine solche Überprüfung sind valide und aktuelle Daten zu ESG-Aspekten von sämtlichen Geschäfts- und Handelspartnern. Die entsprechenden Daten bei jedem einzelnen Geschäftspartner individuell zu prüfen, dürfte indes die meisten Firmen überfordern. Vielfach bietet sich daher an, auf datenbasierte Lösungen externer Dienstleister zurückzugreifen.

Externe Anbieter liefern aktuelle ESG-Daten

Anbieter solcher Lösungen bieten Rankings und Detailinformationen zu den Bereichen Umwelt, Soziales und Unternehmensführung für viele Millionen Unternehmen weltweit. Prädestiniert sind hier zweifelsohne Dienstleister, die über ein globales Netzwerk verfügen und Zugang zu entsprechenden Datenquellen haben. Dazu zählen neben den Unternehmen selbst und ihren Jahresabschlüssen und CSR-Reports unter anderem auch Regierungswebseiten, NGOs, Watchlists, Umweltzertifizierungen sowie ein globales Media Screening. Darüber hinaus brauchen sie eine entsprechende und nachgewiesene Analysekompetenz und -kapazität und geeignete Aufbereitungsoptionen. Ihre Bewertungsverfahren und Kriterienkataloge sollten sich dabei eng am genannten SASB-Standard sowie den gesetzlichen Vorgaben orientieren und neben ESG-relevanten Informationen zu Einzelunternehmen Rankings, Subrankings, Branchenvergleiche und Quell-Infos liefern. Entscheidend ist zudem die Aktualität der zugrunde liegenden Daten sowie der bereitgestellten Analysen.
So erhalten Unternehmen ESG-Daten, die in verschiedene Themenbereiche kategorisiert sind und sich passgenau auf die eigene Strategie hin prüfen lassen. Denn je nach Größe und Branche gibt es unterschiedliche Anforderungen, die es beim Aufsetzen der Strategie und beim Gewichten der unterschiedlichen ESG-Kriterien zu beachten gilt. Während beispielsweise bei einem Chemiekonzern besonders Umweltaspekte stark gewichtet werden, sollten bei einem Personaldienstleister vielmehr soziale Komponenten im Mittelpunkt der Nachhaltigkeitsstrategie stehen.

Genaue Risikoeinschätzung

Neben der grundsätzlichen Unterscheidung nach E-, S- und G-Aspekten bietet die thematische Kategorisierung weitere Einblicke. Kategorien umfassen natürliche Ressourcen, Treibhausgas-Emissionen und Klimarisiken, Umweltrisiken, Umweltchancen, Human Capital, Produkte und Services, Kundenbindung, Gesellschaftliches Engagement, Supplier Engagement, Zertifikate, Corporate Governance sowie Belastbarkeit des Unternehmens. Rankings drücken dabei aus, welches Risiko ein Unternehmen hat, in einen ESG-Compliance relevanten Sachverhalt involviert zu sein, der einen finanziellen Schaden zur Folge haben könnte. Dabei lässt sich ablesen, in welchem Bereich ein Unternehmen über ein gutes Ranking verfügt. Ergänzend stehen Branchenvergleichsdaten und Informationen zu verwendeten Quelldaten zur Verfügung, so dass sich die Risiken sehr genau einschätzen lassen.
Derartige ESG-Analyselösungen, die Anbieter über unterschiedliche Kanäle zur Verfügung stellen, sind ein geeigneter Baustein, um den Erfolg der hauseigenen ESG-Strategie effizient zu beurteilen und die ESG-Aktivitäten und -Performance von Geschäftspartnern zu bewerten und nachzuverfolgen. Angesichts der genannten Entwicklungen sind sie damit ein wesentlicher Faktor für den nachhaltigen Unternehmenserfolg.

https://www.dnb.com/de-de/

 

 

Autor:
Carsten Ettmann
Funktion: Senior Business Consultant

 

Im Wandel: Arbeitswelten 2023

Bis 2040 werden etwa 8,7 Millionen Arbeitskräfte mehr den Arbeitsmarkt verlassen als in diesen eintreten. Mitarbeitende zu binden ist wichtiger als je zuvor. 

Der Fachkräftemangel in Deutschland ist längst kein Gespenst mehr. Er zeigt sich in den Wochen des Wartens auf den nächsten Handwerkertermin, in den Schlangen der wütender Gesichter an Flughäfen und in der brutalen Realität unserer Pflegeeinrichtungen. Er operiert im Stillen auf den unbesetzten Plätzen lang eingeplanter Positionen oder den leeren Fluren der IT-Abteilungen. Seine Folgen: Umsatzeinbußen, Überstunden, stillgelegte Projekte, Bankrott – der Herzstillstand der Wirtschaft.

Wie sehr die deutsche Wirtschaft jetzt schon betroffen ist, offenbart das KfW-ifo-Fachkräftebarometer aus dem vierten Quartal 2022. Demnach wird die Geschäftstätigkeit von 46 % der Unternehmen in Deutschland durch den Fachkräftemangel behindert. Offene Stellen bleiben mittlerweile fünf Monate lang unbesetzt, Tendenz steigend.

Doch das ist erst der Anfang. „Bis 2040 werden etwa 8,7 Millionen Arbeitskräfte mehr den Arbeitsmarkt verlassen als in diesen eintreten“, prognostizierte der ehemalige Vorstandsvorsitzende der Bundesagentur für Arbeit Detlef Scheele in einem 2022 veröffentlichten Beitrag. „Es folgen somit schlicht nicht genügend junge Menschen auf die Anzahl der Beschäftigten, die in Rente gehen.“ Ohne Zuwanderung ermittelt das KfW-ifo-Fachkräftebarometer bis 2040 sogar eine Zahl von 9,3 Millionen weniger Einwohner im erwerbstätigen Alter, was einem Schwund von 18 % entspricht. Dabei ist der demographische Wandel nicht die einzige Herausforderung. 52 % der Arbeitslosen haben keine berufliche Ausbildung. Das sind etwa 1,3 Millionen, für die es lediglich 184.000 offene Hilfskraftstellen gibt.


Unsere Experten Interview

„Zirkuläre und abobasierte Büroausstattung“„New Work“ = „Good Work“?
Lesen Sie mehr…Lesen Sie mehr

Die mangelnde Qualifikation wird sich durch die Digitalisierung und die damit entstehenden neuen Berufsfelder in den kommenden Jahren noch weiter verschärfen. Data-Scientisten, E-Commerce-Manager, KI-Spezialisten oder Customer-Experience-Designer müssen erst noch in unseren Hochschulen geschaffen werden – und im Land bleiben. Laut einer Studie des Bundesinstituts für Bevölkerungsforschung verlassen jährlich rund 180.000 Personen mit deutscher Staatangehörigkeit das Land. Das Durchschnittsalter der deutschen Auswanderer liegt mit 36,6 Jahren etwa 10 Jahre unter dem Bevölkerungsschnitt und 76  Prozent verfügen über einen Hochschulabschluss.

Unternehmen, die händeringend nach Fachkräften suchen, müssen der Realität ins Auge blicken: Die Arbeiterlosigkeit übersteigt die Arbeitslosigkeit, der Arbeitgeber- hat sich zu einem Arbeitnehmermarkt entwickelt. Wer Fachkräfte anlocken und halten will, muss einen attraktiveren Arbeitsplatz bieten als die Konkurrenz. Dabei ist längst nicht mehr nur das Gehalt das entscheidende Kriterium. Bereits 1970 entwarf der Sozialphilosoph Frithjof Bergmann unter dem Begriff „New Work“ ein Gegenmodell zum Kapitalismus und der damit verbundenen Lohnarbeit. Im Zentrum steht dabei eine sinnstiftende Tätigkeit. Der Beruf wird zur Berufung mit der Möglichkeit zur Selbstverwirklichung.

In den letzten Jahren hat der Begriff jedoch immer mehr seinen semantischen Halt verloren. Mit Kickertischen in Büros und vorgesetzten in Sneakern geben sich Unternehmen einen neuen Anstrich, doch darunter steckt immer noch die alte Fassade festgefahrener Strukturen. Das, was eigentlich zählt – die Werteorientierung und die tatsächliche Unternehmenskultur – gingen unter dem durch Corona angefeuerten Hype der letzten Jahre verloren. Dabei sind das die Stellschrauben, die man wirklich anpacken muss, ehe man groß meetingfreie Freitage verkündet. Nur so lassen sich Fachkräfte gut nachhaltig begeistern.

Die Gamomat Development GmbH ist ein gutes Beispiel dafür, wie es richtig geht. Unter dem Begriff „Good Work“ lebt hier der eigentliche Gedanke Bergmanns wieder auf. Das Konzept ermöglicht große individuelle Freiräume, auch wenn dadurch Herausforderungen entstehen können. „Viele von uns sind es durch ihre Erfahrungen im Bildungssystem oder in traditionell funktionierenden Organisationen gewohnt, dass sich Eigenverantwortung durch hierarchische Strukturen und enge Regelwerke nahezu erübrigt“, erläutert Dr. Alexandra Krone, Managing Director bei der Gamomat Development GmbH. „Moderne Arbeitsformen lösen daher auch Ängste, Unsicherheit und Überforderung aus. Wie gehe ich mit der zunehmenden Überschneidung von Lebensbereichen um? Wie sorge ich selbstwirksam für mein Kontaktbedürfnis, wenn die Kollegschaft nicht mehr ständig im Office ist? Wie führt man ein ortsverteiltes Team?“

Das maßgeschneidertes Learning- und De­velopment-Format „GAMOcademy“ für die wirksame (Zusammen-)Arbeit in flexiblen Arbeitsumgebungen bietet eine ganzheitliche Unterstützung in puncto Remote Skills, Self Care und Beziehungskompetenz. Insbesondere das Team Building nimmt in Zeiten häufiger Remote-Arbeit eine immer wichtigere Rolle ein. E-Sport kann hier eine Lösung sein. Bei Spielen wie Dota 2 treten professionelle Gamer in fünfköpfigen Teams gegeneinander an und spielen um Millionenbeträge. Obwohl sich die Teammitglieder nie oder fast nie privat begegnen, arbeiten sie als Team perfekt zusammen.

Mittlerweile gibt es auch E-Sport-Ligen für Unternehmen – für Einsteiger und Experten mit hochgradig sozialen und interaktiven Spielherausforderungen. Eine sich ändernde Unternehmenskultur stellt allerdings nicht nur Mitarbeitende und Führungskräfte vor Herausforderungen. „Die Realität sieht so aus, dass die meisten Büroräume nicht auf diese modernen Arbeitsformen ausgerichtet sind“, ergänzt Anders Jepsen, Gründer und CEO von Nornorm. „Was sie vorfinden, sind veraltete Büroeinrichtungen, die nicht genügend Raum für offene Zusammenarbeit, Besprechungsräume oder Telefonzellen für private Gespräche bieten.“ Nornorm bietet Unternehmen einen Aboservice für Büromöbel an, um attraktive und produktive Arbeitsplätze zu schaffen. Das „Furniture-as-a-Service“-Geschäftsmodell befreit Un­ternehmen von großen Vorabinvestitionen und ermöglicht eine schnelle Anpassung an sich ändernde Bedürfnisse. Noch nie war es einfacher, die Ausstattung seiner Büros an die Bedürfnisse der Mitarbeitenden anzupassen – und noch nie war es wichtiger. Jetzt ist die Zeit die Zukunft der Arbeitswelt mit zu gestalten.

Am Rande notiert


Kommunikation 2.0

Die Nutzung von sozialen Medien ist in der Unternehmenskommunikation mittlerweile unverzichtbar geworden. Doch mit der zunehmenden Anzahl von sozialen Netzwerken wächst auch die Herausforderung, die Prozesse und Abläufe in der Social-Media-Kommunikation zu optimieren. Hier kann Automatisierung helfen, um Zeit zu sparen und die Effizienz in der Kommunikation zu erhöhen.

https://www.trendreport.de/Kommunikation-2-0

von Andreas Fuhrich

Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Acht bewährte No-Code/Low-Code Best Practices

Wie Unternehmen das Beste aus ihrer Low-Code/No-Code-Plattform herausholen

Low-Code- und No-Code-Plattformen erfreuen sich zunehmender Beliebtheit, da sie es Unternehmen ermöglichen, Software einfacher und effizienter zu erstellen und zu pflegen. Wie bei jeder Technologie gibt es auch hier Best Practices, mit denen Unternehmen das Beste aus ihrer Low-Code- oder No-Code-Plattform herausholen können. Olivier Maes, Mitgründer und CRO von Baserow rät zu den folgenden acht Best Practices: 

  1. Klein anfangen
    Bei der Implementierung von No-Code-Tools ist es am besten, klein anzufangen und die Komplexität schrittweise zu erhöhen. Auf diese Weise erhalten Unternehmen ein besseres Verständnis für die Möglichkeiten der No-Code-Plattform und können sicherstellen, dass sie ihr Potenzial voll ausschöpfen. Wenn sie klein anfangen, verringert sich auch das Risiko von Fehlern und Mitarbeiter können die Plattform testen, bevor sie sie für kritische Projekte einsetzen.
  2. Möglichkeiten und Grenzen verstehen
    No-Code-Plattformen haben Grenzen (z. B. Skalierbarkeit, Interoperabilität, Flexibilität), und es ist wichtig zu verstehen, wo diese Grenzen liegen, bevor man sie implementiert. So können Unternehmen fundierte Entscheidungen über die Nutzung der Plattform treffen und sicherstellen, dass sie nicht etwas von ihr erwarten, was sie gar nicht kann.
  3. Zusammenarbeit mit der IT-Abteilung
    Code-Plattformen sind für die Verwendung durch technisch nicht versierte Benutzer konzipiert, aber die Zusammenarbeit mit der IT-Abteilung ist dennoch unerlässlich. IT-Teams können wertvolle Einblicke in die Fähigkeiten und Grenzen der Plattform geben und bei Sicherheit, Compliance und Integration helfen.
  4. in Schulungen investieren
    No-Code-Plattformen sind einfach zu bedienen, aber es ist dennoch wichtig, in eine Benutzerschulung zu investieren. So stellen Unternehmen sicher, dass die Mitarbeiter die Plattform effektiv und effizient nutzen. Sie sind dann in der Lage, die Plattform optimal einzusetzen und ihr Potenzial voll auszuschöpfen. 
  5. den Entwicklungsprozess planen
    Bei der Verwendung einer Low-Code- oder No-Code-Plattform ist es wichtig, den Entwicklungsprozess zu planen. Dazu gehören die Definition der Anforderungen, die Erstellung eines Entwurfs und das Testen der Software. Wenn Unternehmen ihren Entwicklungsprozess planen, können sie ihr Projekt besser steuern und sicherstellen, dass ihre Software den Unternehmensanforderungen entspricht.
    Bei der Verwendung einer Low-Code- oder No-Code-Plattform ist es wichtig, den Entwicklungsprozess zu planen. Dazu gehören die Definition der Anforderungen, die Erstellung eines Entwurfs und das Testen der Software. Wenn Unternehmen ihren Entwicklungsprozess planen, können sie ihr Projekt besser steuern und sicherstellen, dass ihre Software den Unternehmensanforderungen entspricht.
  6. vorgefertigte Komponenten nutzen
    Low-Code- und No-Code-Plattformen werden mit vorgefertigten Komponenten geliefert, die Unternehmen zur einfacheren Erstellung und Wartung von Software verwenden können. Diese Komponenten sind u.a. Konnektoren, Integrationen und Vorlagen. Nutzen Unternehmen diese vorgefertigten Komponenten, können sie Software schneller und effizienter erstellen und warten.
  7. vorgefertigte Vorlagen verwende
    Viele No-Code-Plattformen verfügen über vorgefertigte Vorlagen, mit denen sich Software einfacher erstellen und pflegen lässt. Die Verwendung dieser Vorlagen spart Zeit und Mühen und stellt gleichzeitig sicher, dass die Software den Best Practices und Branchenstandards entspricht.
  8. Analysen und Berichte nutzen
    No-Code-Plattformen werden häufig mit Analyse- und Berichtsfunktionen geliefert, die Unternehmen helfen, datengestützte Entscheidungen zu treffen. Sie erhalten Einblicke in die Nutzung der Software, erkennen Verbesserungsmöglichkeiten und können den Erfolg ihrer Implementierung messen.

„Die Implementierung von No-Code-Tools kann einem Unternehmen zahlreiche Vorteile bringen. Aber es ist wichtig, Best Practices zu befolgen, um sicherzustellen, dass die Plattform effektiv genutzt wird. Wenn Unternehmen diese Best Practices befolgen, können sie das Beste aus ihrer No-Code-Plattform herausholen und sicherstellen, dass sie die Anforderungen des Unternehmens erfüllt,“ so Cem Yakar, Territory Manager für Baserow in Deutschland abschließend.

Mit einer No-Code-Datenbank starten – hier registrieren

Über Baserow

Baserow ist ein Open-Source-Startup für No-Code-Datenbanken und -Plattformen mit Sitz in Amsterdam, Niederlande. Als API-first-Lösung kann die Open Source No Code kollaborative Datenbank-Plattform Baserow mit jedem Tool integriert werden, das für den Aufbau eines No-Code-Stacks benötigt wird. Das Unternehmen wurde 2021 von Bram Wiepjes gegründet und hat über 20.000 Nutzer auf der ganzen Welt. Weitere Informationen: https://baserow.io

Die Zeit läuft: So gelingen auch komplexe S/4HANA-Migrationen bis 2027

Risk & Compliance 2020 Chancen und Risiken erkennen

ACHTUNG DISRUPTION!

Alles digital, oder was? Im ursprünglichen Sinn meint Digitalisierung die Umwandlung von analogen Werten in digitale Formate. Denn diese lassen sich mit modernen Informationstechnologien verarbeiten. Der digitale Wandel beschreibt die durch diese Digitalisierung ausgelösten Veränderungsprozesse in der Gesellschaft, der Wirtschaft, der Kultur, der Bildung und der Politik.

So sollen wir in einer Welt des „Internet of Things“ (IoT) in unseren „Smarthomes“ via App unsere Heizung, das Licht, den Kühlschrank oder unsere Kinder steuern. Doch die digitale Revolution ist nicht erst morgen. Digitalisierung ist bereits heute das vollwertige Navigationsgerät mit Echtzeitstaumessung und die 3 000 Bände umfassende deutsche Wikipedia-Enzyklopädie in unserer Hosentasche.

Doch nicht alles, was digital heißt, stellt die Bedürfnisse der Kunden in den Mittelpunkt der digitalen Entwick­lung. Wer bei mehreren Banken ein Konto unterhält und sich mit PhotoTAN, PushTAN, HBCI, ChipTAN & Co. authentifizieren muss und hierfür auf dem Smartphone eine Reihe von Apps installieren muss, bekommt den Beweis geliefert, dass der Treiber der digitalen Entwicklung in der Technik zu finden ist und nicht in der Kundenzentrierung. Da wundert es einen nicht, dass es digitale Burn-out-Syndrome und Angebote zum Digital Detox gibt. Es stellt sich zunehmend auch die Frage, wie viel Digitalisierung eigentlich gut ist für uns, unser Gehirn und unsere Gesellschaft.

Digitale Transformation und Disruption führt zu Verlierern

So kommt das Science-to-Business Marketing Research Centre (S2BMRC) zu dem Schluss: „Viele Unternehmen stehen völlig neuen Wettbewerbern gegenüber; meist Start-ups, die neue Technologien mit disruptiven Geschäftsmodellen verbinden und somit erfolgreich etablierte Geschäftsmodelle infrage stellen.“
Während manche Unternehmen und Branchen sich dieser veränderten Ge­schäftsbedingungen früh annahmen und die Weichen Richtung neuer Ideen und Geschäftsmodelle stellten (siehe IBM und viele mittelständische Unternehmen), tun sich andere schwer.

Ein gutes Beispiel ist das ehemalige Traditions­unternehmen Kodak. Einst ein Pionier und Marktführer der Fotobranche und ein Vorreiter der digitalen Revolution in der Foto- und Druckbranche, verschlief es die Führungsebene, den lahmenden (analogen) Gaul gegen ein (digitales) Renn­pferd einzutauschen. Bereits im Jahr 1974 entwickelte der junge Kodak-Ingenieur Steve Sasson die erste digitale Kamera der Welt. Das Patent Nr. US4131919A lieferte die Grundlage für alle Digitalkameras von heute. Im Jahr 1987 fertigte Kodak die weltweit erste digitale Spiegelreflexkamera für den japanischen Hersteller Canon, die Canon New F-1 Electro-Optic Camera.

Da Kodak zu lange auf die analoge Fotografie gesetzt hatte und die digitale Revolution unterschätzte, meldete das Unternehmen am 19. Januar 2012 Insolvenz an. Fazit: Kodak scheiterte nicht an einer fehlenden Innovationsfähigkeit oder am Aufkommen der neuen digitalen Fototechnik. Die Ursachen für den Niedergang lagen im Bereich der strategischen Ausrichtung, das heißt, einer fehlenden Antizipa­tionsfähigkeit zukünftiger Szenarien durch das Management.
Doch Kodak ist keine Ausnahme und nicht allein. In den USA sind seit dem Jahr 2000 rund die Hälfte der Fortune-500-Firmen verschwunden. Die primäre Ursache für die Disruption der Geschäftsmodelle liegt im Bereich der Digitalisierung.


Autor Frank Romeike :
Er zählt international zu den renommiertesten Experten für Risiko- und Compliancemanagement. Als Gründer und geschäftsführender Gesellschafter des Kompetenzzentrums RiskNET – The Risk Management Network läd er erneut zum RiskNET Summit ein. Die Fachveranstaltungen zum Risikomanagement startet morgen 5. November im Schloss Hohenkammer bei München.

https://summit.risknet.de/


Schieflagen und Pleiten: kein isolierter Risikoeintritt

In der Praxis von Unternehmensführungen zeigt sich immer wieder, dass die Ursachen für Organisationsschieflagen und -pleiten nicht auf einen isolierten Risikoeintritt zurückzuführen sind. Vielmehr führt die kumulierende Wirkung verschiedener Risiken – so beispielsweise ein konjunktureller Abschwung in Verbindung mit einer Disruption von Geschäftsmodellen sowie einer strategischen Fehlpositionierung – zu einer überhöhten Belastungsprobe der Risikotragfähigkeit. Und auch der Diebstahl oder das Hacken wichtiger Unternehmensdaten gehört in digitalen Zeiten zu einem wichtigen Puzzleteil für Unternehmen.

Es gibt nicht „die eine Ursache“

Für Dr. Christian Lenz, Rechtsanwalt bei der Prüfungs- und Beratungsgesellschaft DHPG in Bonn, bedarf es einer systematischen Erfassung der Informationen, die das Unternehmen geheim halten möchte. Sein Tipp: „Am besten anhand von Checklisten.“ Und er fügt an: „In der Praxis zeigt sich, dass vor der Abarbeitung von Checklisten ein Brainstorming im Unternehmen erfolgen sollte, bei welchen Informationen ein echter Schaden entstünde, wenn sie in fremde Hände geraten.“ Lenz sieht in den erforderlichen Sicherungsmaßnahmen kein „Neuland“ für Unternehmen.

„Insbesondere die IT-Sicherheit, aber auch andere technische und organisatorische Sicherungsmaßnahmen werden von vielen Gesetzen gefordert und sind schlicht wichtig für den Unternehmenserfolg. Beispielsweise müs­sen Unternehmen spätestens seit Mai 2018 die Datenschutz-Grundverordnung (DSGVO) umsetzen. Auch diese fordert angemessene Maßnahmen zur Sicherung von personenbezogenen Da­ten. Hier ergeben sich bei den Schutzmaßnahmen und der Systematik (Management-System) Synergien.“


 
Dr. Christian Lenz warnt: „Ohne angemessene Geheimhaltungs-
maßnahmen existiert ein Geschäftsgeheimnis
nach dem neuen Gesetz gar nicht.“
  Klaus Jürgen Müller sieht
Automatisierung als Schlüssel
zur Bewältigung der Herausforderungen von IFRS 16.
Lesen Sie dazu auch:
Geschäftsgeheimnisse jetzt besser schützen!
  Lesen Sie dazu auch:
Automatisierte IFRS-16-Leasingbilanzierung

Rechnungslegung, Prüfungsstandard und Compliance

Klaus Jürgen Müller, Regional Director Central Europe bei LeaseAccelerator, sieht im verschärften Wettbewerb einen weiteren wichtigen Faktor für Unternehmen. Gerade mit Blick auf den neuen Rechnungslegungsstandard IFRS 16 verweist Müller darauf, dass Unternehmen nicht über unbegrenzte Ressourcen verfügen, um die Mitarbeiterzahl ihrer Finanzabteilung zur Unterstützung der IFRS-16-Prozesse zu erhöhen. „Manpower ist teuer und während die Einstellung von mehr Mitarbeitern zwischenzeitlich ein Problem lösen kann, ist es nicht die langfristige Lösung, die eine kontinuierliche Compliance erfordert“, so Müller. Und er ergänzt: „Automatisierung ist der Schlüssel zur Bewältigung der Herausforderungen von IFRS 16, und genau dazu dienen Computer – wenn die richtigen Prozesse vorhanden sind. Wir können Daten immer wieder eingeben, aber entscheidend ist, ein System zu haben, welches all die Dinge im Hintergrund erledigen kann.“

In Summe zeigt sich, dass die Risikotragfähigkeit gerade deshalb einbricht, weil Risikofrüherkennungssysteme feh­len sowie die Überwachung und Sicherstellung der etablierten Prozesse und Systeme in der eigenen Organisation nicht funktionieren. Doch gerade das fordert die Neufassung des Prüfungsstandards IDW PS 340. Demnach müssen Unternehmen unter anderem einen stärkeren Fokus auf die Entwicklung eines Risikotragfähigkeits­konzepts sowie der Aggregation von Risiken legen. Hinzu kommen Dokumentationspflichten sowie Pflichten der Risikosteuerung als Bestandteil der zu prüfenden Grundelemente eines Risikofrüherkennungssystems. Nicht zu vergessen ist die Konkretisierung der Grundelemente eines Risikofrüherkennungssystems in Anlehnung an die zur Einrichtung und Prüfung von Risikomanagement- und Compliance-Management-Systemen entwickelten Grund­elemente.


Lesen Sie mehr dazu: KPMG Law Expertenpanel: Verbandssanktionengesetz


Mit Blick auf das Compliance-Umfeld verweist Dr. Konstantin von Busekist, Partner bei der KPMG Law Rechtsanwaltsgesellschaft, auf drohende Sanktionen. Hintergrund ist das vom Bundesministerium der Justiz und für Verbraucherschutz (BMJV) gestartete Vorhaben, verbandsbezogene Straftaten zu sanktionieren. „Konzeptionell nähert sich der Entwurf dem anglo-amerikanischen Rechtsraum an. Insbesondere erinnert die Sanktionsform ‚Verwarnung mit Vorbehalt der Verbandsgeldsanktion‘, die zusätzlich mit Auflagen und Weisungen verbunden werden kann, an das US-amerikanische Rechtsinstrument des ‚Deferred Prosecution Agreement‘ (DPA)“, erklärt von Busekist. Nach seinen Worten standen auch bereits große, deutsche DAX-Unternehmen unter einem „Monitorship“ nach US-Regularien. „Der Einsatz eines Compliance-Monitors ist ein sehr wirksames Instrument, das die Compliance-Organisation ungemein fördert. Es ist aber auch sehr teuer, da es erhebliche finanzielle und personelle Ressourcen bindet“, resümiert der KPMG-Partner. Der Entwurf für ein Verbandssanktionsgesetz (VerSanG-E) soll nach Einschätzung von Philipp Schiml, Senior Manager bei KPMG Law Rechtsanwaltsgesellschaft, die in der Praxis bestehende Rechtsunsicherheit über die Reichweite des Beschlagnahmeverbots bei internen Untersuchungen beseitigen.

Schiml: „Dem Entwurf selbst und den Aussagen in der Entwurfsbegründung gelingt es allerdings (noch) nicht, ein Mehr an Rechtsicherheit zu schaffen.“ Einem qualitativen „Mehr“ wäre auch im Risikomanagement geholfen – sowohl in der Früherkennung als auch bei der Risikosteuerung – in diesen digitalen Zeiten mit ihren disruptiven Geschäftsmodellen.

von Frank Romeike

„Die Technologien wirken aufeinander“

„Raus aus dem Keller“: Wir sprachen mit Prof. Dr. Volker Gruhn, Vorsitzender des Aufsichtsrats der adesso SE, zur Rolle der Cloud und der gesamten IT für die Unternehmen.

Herr Gruhn, die Cloud ist die Infrastruktur für die digitale Transformation. Aus Ihrer Sicht gehört die Cloud sozusagen raus aus dem Keller, wie die ganze IT, und muss als „Native“ bezeichnet werden. Was verstehen Sie darunter?
Cloud entwickelt sich zur Standardeinstellung der IT. Es ist nicht ein Thema unter vielen, sondern der Dreh- und Angelpunkt für das Entwickeln, Ausliefern und Betreiben. Keine neue Idee – aber jetzt offenbart die Cloud ihre ganze Schlagkraft. Stand am Anfang das einfache Verschieben von Anwendungen, gibt jetzt „Cloud Native“ die Marschroute vor: Unternehmen setzen bei Entwicklung und Infrastruktur von Beginn an auf die Möglichkeiten der Cloud.
Hinter dem Begriff verbergen sich eine Reihe von Architekturen, Prozessen und Werkzeugen. Fachleute nutzen typischerweise Microservices, die auf Docker-Containern laufen und die sie über Kubernetes orchestrieren und richten DevOps-Prozesse für das Entwickeln und Ausliefern auf Cloud-Plattformen ein. Werden die Prozesse richtig eingesetzt, realisieren Unternehmen schnell Vorteile: Das Abfedern eines erhöhten Bedarfes, das Garantieren eines zuverlässigen Betriebes oder das Reduzieren von Kosten sind nur einige davon.

Wir erleben derzeit, dass die Cloud vielen Technologien zu einem enormen Sprung verhilft. KI, IoT und ähnliches wären ohne die Cloud kaum denkbar. Die gegenseitige Beschleunigung der Technologien ist feststellbar. Was sind Ihre Erfahrungen bei Ihren Gesprächen mit den Kunden?
In einer Diskussion fiel der Begriff der „technologischen Verdichtung“. Der beschreibt die Situation sehr passend. Ob Cloud, Data Science, Telekommunikation oder Robotik: Die Technologien wirken aufeinander, sie beeinflussen sich gegenseitig. Was unsere Kunden bewegt: In dieser Gemengelage müssen sich die IT-Verantwortlichen zwei Aufgaben gleichzeitig stellen. Einerseits müssen sie „den Laden am Laufen halten“. Sie sorgen für robuste und kosteneffiziente Anwendungen. Systeme müssen funktionieren, Daten verfügbar sein, die Kommunikation stehen. Andererseits sollen sie die Chancen erkennen, die Technologien eröffnen, Geschäftsmodelle und Prozesse grundsätzlich neu denken.
Um diesen beiden Verantwortungen gerecht zu werden, empfehlen wir Unternehmen, sich mit den Rollen des Chief Digital Officer (CDO) und Chief Information Officer (CIO) zu beschäftigen. Traditionell kümmert sich der CIO um Themen wie ERP- oder CRM-Systeme und den Betrieb. Auf der Agenda des CDO steht neues, datengetriebenes Business. Gemeinsam entfalten sie die volle Schlagkraft der IT: Sie schaffen diese Geschäftsmodelle, die auf cloudbasierter IT-Infrastruktur aufbauen. Ich bin davon überzeugt, dass die meisten Unternehmen mit dieser Aufstellung gut gewappnet sind.

 

„Wer sich im Jahr 2022 noch fundamental gegen den Cloud-Einsatz stellt, braucht wirklich gute Argumente“, stellt Volker Gruhn dar.

Welche Bereiche lassen sich Ihren Erfahrungen nach vergleichsweise einfach verlagern und wo sind herausfordernde Aufgaben?
Das lässt sich pauschal nicht beantworten. Wie der Weg in die Cloud genau aussieht, ist von Unternehmen zu Unternehmen unterschiedlich. Aber ohne eine strategische Planung führen alle Wege in die Sackgasse. Zunächst existieren Cloud-Konzepte nicht im luftleeren Raum. Sie sind eingebunden in bestehende Organisationen und vorhandene Prozesse. Welche Rolle Cloud-Technologien spielen und wie sie diese Rolle ausgestalten, ergibt sich aus der übergeordneten IT-Strategie eines Unternehmens.
Dann gilt es, die Details der IT-Landschaft zu verstehen. Die Beteiligten verschaffen sich einen Überblick über die genutzten Anwendungen. Sie analysieren die dazugehörigen Entwicklungs- und Betriebsprozesse. Gleichzeitig bewerten sie die Bedeutung der Systeme für die IT und den unternehmerischen Erfolg. Mit diesem Wissen und diesen Prioritäten erarbeitet das Team für jede einzelne Applikation einen Cloud-Plan. Hier steht den Expertinnen und Experten eine Bandbreite von Optionen zur Verfügung – von „Lift & Shift“ bis „Cloud Native“. Jede Alternative bringt ihre spezifischen Vor- und Nachteile mit. Vor dem Hintergrund von Datenschutz, Verfügbarkeit und Kosten wählen die Beteiligten für jede Anwendung die passende Cloud-Form aus.

Lange war „Sicherheit“ in der Cloud ein Thema. Nun beginnt ein Umdenken. Können Sie uns Ihre Einschätzung geben, was empfehlen Sie, wenn Sie an Sicherheit und Cloud denken?
Es stimmt, in Diskussionen über Cloud-Technologien war der Einwand „aber die Sicherheit!“ ein Totschlagargument. So würgten Bedenkenträger Ideen und Initiativen direkt ab. Aber auch wir spüren den erwähnten Sinneswandel in Unternehmen. Wer sich im Jahr 2022 noch fundamental gegen den Cloud-Einsatz stellt, braucht wirklich gute Argumente. Bei den sogenannten Hyperscalern, also große Cloud-Anbieter wie Microsoft, Amazon oder Google, können Unternehmen aus einer breiten Angebotspalette wählen. Zahlreiche Konfigurationsmöglichkeiten erlauben es den Verantwortlichen, die Leistungen auszuwählen, die exakt zu den eigenen Anforderungen – und damit auch Sicherheitsanforderungen – passen: von garantierten Verfügbarkeiten bis zu Updates bei Sicherheitslücken.
Hyperscaler beschäftigen sich rund um die Uhr mit Cloud-Themen. Sie haben das notwendige IT-Know-how an Bord und setzen auf neuste Technologien. Den gleichen Grad an Sicherheit zu liefern und gleichzeitig Anforderungen an beispielsweise flexibles Arbeiten – mit vertretbarem Aufwand – zu erfüllen, dürfte vielen IT-Abteilungen schwerfallen.

 

 


Aufmacherbild / Quelle / Lizenz
Foto von Ola Dapo: https://www.pexels.com/de-de/foto/computermonitor-und-ein-laptop-auf-einem-tisch-3521937/


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Nachhaltigkeit per Knopfdruck

Energie ist kostspielig. Strom, Erdgas und Heizöl sind im Vergleich zum Vorjahr ca. 36 Prozent teurer geworden. Ein greifbareres Beispiel: laut Verivox lagen die Energiekosten für einen Musterhaushalt im April 2022 bei 6.269 Euro pro Jahr. Im April 2021 kostete die gleiche Menge Energie noch 3.861 Euro – ein Anstieg von 2.408 Euro in einem Jahr. Verbraucher suchen daher nach Möglichkeiten, den eigenen Energieverbrauch zu senken bzw. alternative Energiequellen zu nutzen. In dieser Situation lohnt sich die Anschaffung einer Photovoltaikanlage. Verbraucher können den erzeugten Strom sofort verbrauchen oder für die spätere Nutzung speichern. Den produzierten Solarstrom ins Netz einzuspeisen, rentiert sich aufgrund der seit Jahren fallenden Einspeisevergütung immer weniger. Die Speicherung von Strom lohnt sich für Haushalte, weil der meiste Strom zur Mittagszeit erzeugt wird, der Strombedarf im Eigenheim allerdings in den Morgen- und Abendstunden Spitzenwerte erreicht.

Hausgeräte sind für den Großteil des eigenen Stromverbrauchs verantwortlich

Hausgeräte sind für den Löwenanteil des Stromverbrauchs im Haushalt verantwortlich. Darum lohnt es sich, bereits bei ihrer Anschaffung auf die Energieeffizienzklasse zu achten.  Darüber hinaus sind sie der ideale Abnehmer für den selbst erzeugten Strom. Hier setzt Home Connect an, die Smarthome-Plattform von B/S/H. In Kooperation mit Enphase können Verbraucher in Zukunft mithilfe der Enphase App Home Connect-fähige Geschirrspüler, Waschmaschinen, Trockner und Waschtrockner so konfigurieren, dass diese bei besonders starker Sonneneinstrahlung, in Zeiten allgemein geringeren Verbrauchs im Haus oder zu Zeiten niedriger Energiepreise laufen. Außerdem können Nutzer das System so einstellen, dass die verbundenen Geräte in den gewünschten Zeiträumen mit der in Solarbatterien gespeicherten Solarenergie betrieben werden. Mittel der Enphase App werden die Hausgeräte über das bestehende Home Connect-Konto verbunden und so effizient verwaltet. Zusätzlich können Konsumenten in der Enphase App auch sehen, wie viel Energie mit der eigenen Photovoltaikanlage zu welchem Zeitpunkt produziert wird.

Wieso eigentlich smarte Hausgeräte?

Um ihre Energiekosten zu senken und ihren selbst erzeugten Strom optimal zu nutzen, sind Verbraucher also auf smarte Hausgeräte angewesen. Ein Hausgerät gilt als smart, wenn das Gerät die Möglichkeit hat, sich mit dem Internet zu verbinden. Laut einer Umfrage von YouGov in 2021 benutzen bereits ein Viertel der Deutschen Internet of Things (IoT)-Geräte im eigenen Haushalt. Die Vernetzung bietet über die Nutzung der Home Connect- Plattform viele Vorteile gegenüber herkömmlichen Hausgeräten:

  • Nachhaltige Lebensweisen steigern & Kosten sparen: Smarte Waschmaschinen können z.B. dank der Vernetzung und Automatisierung Waschmittel, Wasser und Strom sparen. Die Füllmenge und das geeignetste Programm werden automatisch ausgewählt. Auch der Stromverbrauch wird optimiert, indem das Gerät effizient ein- und ausgeschaltet werden kann.
  • Anpassung: Der Nutzer kann nach eigenen Wünschen festlegen und programmieren, wann die Geräte laufen, den Stromverbrauch im Haushalt beobachten und ungenutzte Geräte ausschalten, wenn diese nicht benötigt werden.
  • Support: Fehlermeldungen oder Diagnosedaten können Nutzer direkt an den Hersteller übermitteln, sodass sie weniger Zeit aufwenden müssen, mit dem Kundenservice in Kontakt zu treten, und der Service mit einem exakten Bild des Problems vor Ort eintrifft.

Kurzum: Die Nutzung smarter Hausgeräte bietet durch die intelligente Kombination mit einer Photovoltaik-Anlage über die Home Connect-Plattform die optimale Möglichkeit, den gestiegenen Energiepreisen ein Schnippchen zu schlagen. Derzeit ist Home Connect für die Hausgerätemarken Bosch, Siemens, Gaggenau, Neff, Thermador, Balay, Constructa, Pitsos und Profilo verfügbar. Die entsprechende Verknüpfung der Enphase-App mit Home Connect wird voraussichtlich Ende November in deutschsprachigen App Stores zur Verfügung stehen.

 


Aufmacherbild / Quelle / Lizenz
Foto von RDNE Stock project: https://www.pexels.com/de-de/foto/person-die-weisse-frontlader-waschmaschine-halt-5591646/


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

Warum ist Observability wichtig und wie kann OpenTelemetry unterstützen?

Von Ben Evans*

Der Strategieansatz Observability gewinnt zunehmend an Bedeutung. Das Konzept entstand aus mehreren separaten Entwicklungssträngen, darunter dem Application Performance Monitoring (APM) und der Notwendigkeit, bei orchestrierten Systemen wie Kubernetes für eine größere Transparenz zu sorgen. Prinzipiell zielt Observability darauf ab, hochgradig granulare Einblicke in das Verhalten von Systemen zu gewinnen.

Die Implementierung von Observability ist aus konzeptioneller Sicht relativ einfach. Erstens geht es um die Instrumentierung von Systemen und Anwendungen, um relevante Daten wie Metriken, Traces oder Logs zu sammeln. Zweitens werden diese Daten an ein separates System gesendet, das sie speichern und analysieren kann. Drittens erfolgt die Bereitstellung von Visualisierungen und Insights in das System als Ganzes – einschließlich von Abfragemöglichkeiten für Endbenutzer.

Warum ist Observability wichtig?

Moderne Anwendungen bestehen in der Regel aus einer Vielzahl von Services und Komponenten mit einer komplexen Topologie. Zudem sind sie regelmäßigen Änderungen unterworfen, unterstützt durch Verfahren wie CI/CD. Die wachsende Komplexität der Anwendungen geht einher mit der zunehmenden Nutzung von Technologien, die speziell für die Cloud entwickelt wurden. Dazu gehören etwa containerisierte Umgebungen, dynamisch skalierende Services oder Function-as-a-Service-Bereitstellungen. Diese neue Welt macht Root-Cause-Analysen und Störungsbehebungen potenziell sehr viel schwieriger. Observability ist hier ein wichtiges Element, das bei der Entwicklung robuster und zuverlässiger Systeme für die Cloud unterstützt.

Welche Daten müssen gesammelt werden?

Bei den relevanten Daten für Observability sind drei Säulen zu unterscheiden: Distributed Traces, Metriken und Logs. Traces sind Aufzeichnungen eines einzelnen Serviceaufrufs. In verteilten Architekturen löst ein solcher Aufruf in der Regel nachgelagerte Aufrufe anderer Services aus. Diese Aufrufe werden als Spans bezeichnet, sodass Traces eine Baumstruktur von Spans bilden. Metriken sind Zahlenwerte, die eine bestimmte Aktivität über ein Zeitintervall messen. Eine Metrik enthält typischerweise einen Zeitstempel, einen Namen und einen Wert. Logs bilden die dritte Säule der Observability und sind definiert als unveränderliche Aufzeichnungen von Events. Je nach Implementierung gibt es grundsätzlich drei Arten von Logs: Klartext, strukturiertes und binäres Format.

Observability Tools: Open-Source-Angebote auf dem Vormarsch

Die Marktsegmente APM und Monitoring wurden in der Vergangenheit von proprietären Anbietern dominiert. Als Reaktion darauf wurden verschiedene freie und Open-Source-Softwareprojekte gestartet oder von Technologieunternehmen ausgegliedert. Frühe Beispiele sind Prometheus für Metriken sowie Zipkin und Jaeger für Tracing. Im Bereich des Loggings gewann der „ELK-Stack“ (Elasticsearch, Logstash und Kibana) schnell Marktanteile.

Da Software zunehmend komplexer wird, sind immer mehr Ressourcen erforderlich, um einen validen Satz von Instrumentierungskomponenten bereitzustellen. Bei proprietären Observability-Produkten führt dies zu Doppelarbeit und Ineffizienz. Der Markt ist nun an einem Wendepunkt angelangt und Open-Source-Lösungen gewinnen verstärkt an Bedeutung. Ein wichtiger Meilenstein war dabei die Zusammenlegung der Projekte OpenTracing und OpenCensus zu OpenTelemetry, einem Hauptprojekt innerhalb der Cloud Native Computing Foundation (CNCF). Es gewinnt an Dynamik und immer mehr Unternehmen implementieren OpenTelemetry. Eine kürzlich von der CNCF durchgeführte Untersuchung ergab, dass bereits 49 Prozent der Befragten OpenTelemetry verwenden und diese Zahl dürfte noch erheblich steigen.

OpenTelemetry im Überblick

Doch was ist OpenTelemetry nun genau? Das Projekt bietet eine Reihe von Standards, Formaten, Client-Bibliotheken und zugehörigen Softwarekomponenten. Die Standards sind plattformübergreifend und nicht an einen bestimmten Technologie-Stack gebunden. OpenTelemetry enthält ein Framework, das in Open-Source- und kommerzielle Produkte integriert werden kann und Observability-Daten von Anwendungen erfasst, die in unterschiedlichsten Sprachen geschrieben sind. Aus Sicht von Red Hat ist die Java/JVM-Observability besonders relevant, da sie eine der ausgereiftesten Implementierungen ist. Komponenten in anderen wichtigen Sprachen und Frameworks wie NET, Node.js oder Go besitzen ebenfalls einen hohen Reifegrad.

Insgesamt betrachtet bringt Observability eine entscheidende Erweiterung klassischer Überwachungssysteme. Der Ansatz hilft Unternehmen, die Ursache von Problemen zu identifizieren und mögliche künftige Störungen zu prognostizieren. Eine Schlüsseltechnologie bei der Observability-Umsetzung wird dabei OpenTelemetry sein.

* Ben Evans ist Senior Principal Software Engineer bei Red Hat


Bildquelle / Lizenz Aufmacher:

Photo by John Vowles on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.

KI Monitor 2022

Deutschland muss zunehmend auf Künstliche Intelligenz verzichten

Der Einsatz von Künstlicher Intelligenz scheitert in Deutschland an den Rahmenbedingungen. Damit droht die Bundesrepublik im weltweiten Wettbewerb zurückfallen. Das ist das Fazit des aktuellen KI-Monitors vom Bundesverband Digitale Wirtschaft (BVDW) e. V. und dem Institut der deutschen Wirtschaft Köln e. V. (IW). Künstliche Intelligenz gilt als eine zentrale Zukunftstechnologie, die Studie beschreibt deren Einsatz und Verbreitung in den vergangenen Jahren.  

Für 2022 ist der im KI-Monitor berechnete KI-Index in seiner vierjährigen Historie erstmals rückläufig.

„Deutschland schwelgt in Dichter-und-Denker-Romantik – leider auf Kosten der Künstlichen Intelligenz. Die Rahmenbedingungen für KI müssen dringend positiv verändert werden. Wir brauchen aus Brüssel und Berlin mutige Zeichen und Impulse, keine Regulierung und Einschränkung der KI, sondern positive Lösungsansätze für den Einsatz von Daten“,

sagt BVDW-Vizepräsident Alexander Kiock.


Am kommenden Donnerstag wird in Brüssel der AI-Act („KI-Verordnung“) auf Arbeitsebene diskutiert und der Gesetzesentwurf vorbereitet, über den das Parlament abstimmen soll. Sicher ist bereits jetzt, auf Unternehmen und Wissenschaft kommen von der Europäischen Union neue regulatorische Barrieren zu. Das Regelwerk wird voraussichtlich Anfang 2023 verabschiedet und dürfte sich mittelfristig negativ auf den KI-Index auswirken. Er ergibt sich aus einer zweistelligen Zahl an Indikatoren zu Wirtschaft, Gesellschaft sowie Infrastruktur und zum politischen Rahmen.

„Die alte Bundesregierung hatte im November 2018 ihre ‚Strategie Künstliche Intelligenz‘ beschlossen und 2020 aktualisiert, doch das Fitnessprogramm verfehlte die gesteckten Ziele. Ein positiver Effekt war 2022 für die Wirtschaft nicht sichtbar“, sagt Kiock.

Der KI-Monitor zeigt: Weniger Unternehmen setzten auf KI-Lösungen als noch im Jahr zuvor. Zuletzt bauten laut KI-Monitor annährend 19 Prozent aller Unternehmen auf KI-Lösungen – ein Rückgang von zwei Prozentpunkten. Trübe Aussichten prägten auch den Jobmarkt: Der Anteil der Stellenanzeigen, in denen nach KI-Fähigkeiten verlangt wurde, ging um neun Prozent zurück. „In Summe konstatieren wir alarmierende Tendenzen. Die Ursachenforschung wird uns beschäftigen – Fakt ist jedoch, nicht alles ist der Pandemie zuzuschreiben“, sagt Kiock.

Innerhalb der Gesellschaft hat sich die Tendenz deutlich positiv entwickelt. Besonders stark stieg der Wert beim Indikator „Bekanntheit von KI in der Gesellschaft“. Zwischen 2019 und 2022 konnte ein Plus von mehr als 44 Prozent verzeichnet werden. Im vergangenen Jahr erhöhte sich der Wert um 15 Prozent. Dies spricht deutlich für ein dezidiertes Interesse an KI in der Gesellschaft.

Zum Download:

https://www.bvdw.org/fileadmin/bvdw/upload/Publikationen/KI/KI-Monitor_2022.pdf

Lizenz: Dies ist eine Meldung des BVDW
https://www.bvdw.org

 

 

Aufmacherbild / Quelle / Lizenz
Foto von Tara Winstead: https://www.pexels.com/de-de/foto/hand-finger-zukunft-roboter-8386440/

Beste Aussichten für die „Future of Life Sciences“

Rund 250 Besucher*innen, zehn Bühnengäste und unzählige Impulse zum Thema „Unternehmertum und Wissenschaft” – Zahlen, die das erfolgreiche Vertical „Future of Life Sciences“ der Life Science Factory auf der diesjährigen Bits & Pretzels zusammenfassen. Die Veranstaltung schaffte es, dem Publikum einen schnellen und tiefen Einblick in die Marktsituation zu geben und offene Potenziale klar zu benennen. Gleichzeitig untermauerten die eingeladenen unternehmerischen Vorbilder aus dem Life-Science-Kontext mit ihren Gründungserfahrungen die Wichtigkeit von guter Vernetzung und Förderprogrammen, die sowohl die wissenschaftlichen als auch unternehmerischen Fragestellungen im Blick haben.

Zu Beginn begrüßte Ralf Leister, Moderator der Life Science Factory, den vollbesetzten Saal und stellte dem Publikum in einer virtuellen Tour das innovative Laborkonzept der Life Science Factory in Göttingen vor. Den Auftakt zur Veranstaltung verschaffte Dr. Alexander Nuyken, Head of Life Science Marktes von JLL und erfahrener Life Science Experte, ein erstes Marktverständnis in seiner Keynote „Life Sciences who?” Er machte deutlich, dass die personalisierte Medizin, als aktuelle Entwicklungsstufe innerhalb der Life Science, die Branche noch einmal verändern und stark vorantreiben wird. Die aufgezeigten Venture Capital Volumina zeichneten eine gute Prognose für den Innovationsstandort Deutschland und schafften eine perfekte Überleitung zum anschließenden Q & A mit Dr. Peter Neubeck, Partner bei Kurma Partners. Neubeck ist einer der wichtigsten Akteure in Europa, wenn es um Investments in hochinnovative Biotechnologie geht. In der lebhaften Fragerunde ermutigte er die anwesenden Gründer*innen und Wissenschaftler*innen trotz der aktuell vermeintlich abgekühlten Weltmarktsituation aktiv auf Investor*innen zuzugehen. 

„Time is now”, darüber waren sich auch Prof. Dr. Matthias Tschöp, CEO des Helmholtz Zentrum München und Prof. Dr. Eicke Latz, Seriengründer und Direktor des Instituts für Angeborene Immunität an der Universität Bonn, einig. Beide stehen für herausragende Erfolgsgeschichten und verdeutlichten, wie wichtig es ist, nie die eigenen wissenschaftlichen Standards zu verlieren. Gleichzeitig betonten beide, dass es noch offene Potenziale gibt, vergleicht man den Standort Deutschland mit etwa Boston, USA. So machte Latz deutlich, dass es noch viel Aufholbedarf gibt, um so effektive Forschungscluster herauszubilden.

Welche Schlüsselstelle Forschungscluster und Hubs vor allem auch in internationalen Innovations- und Kollaborationsprojekten im BioTech-Sektor inne-haben, diskutierten Dr. Thorsten Lambertus, Direktor des DEEP-Instituts an der ESMT Berlin und Sigrid Koeth, Innovation-Managerin bei der Deutschen Bundesagentur für Sprunginnovationen (SprinD).

Im abschließenden Panel „New Leadership in Life Science” erklärten Dr. Natalie Garzorz-Stark, CEO bei Dermagnostix und Philipp Baaske, Mitgründer und CEO bei NanoTemper Technologies, Virginie Clément-Schatlo (GliTTher), Daniela Sommer (u.a. CTO Helmholtz München) nahbar und gaben Einblicke in Fragen zum effektiven Leadership und den täglichen Herausforderungen. So wurde deutlich, dass eine klare Vision der Führung und wohin man mit seinem Unternehmen und dem eigenen Impact gehen möchte, unerlässlich ist.  

Zum Abschluss des Panels der Life Science Factory bekamen neun Start-ups aus dem Life-Science-Bereich die Möglichkeit, ihre Geschäftsidee vor einer Jury zu pitchen und sich für den goldenen Bits & Pretzels Award zu qualifizieren. Dr. Daniel Keppeler, Gründer und COO des Göttinger Start-ups OptoGentech gewann und nutzte am darauffolgenden Tag die Chance, vor internationalen Investor*innen zu pitchen.

Mit dem ersten Life Science Vertical auf der Bits & Pretzels gelang es, die Welten der Wissenschaft und des Unternehmertums noch erfolgreicher zusammenzubringen. Es motiviert uns als Life Science Factory Team sehr, insbesondere wenn wir auf den Austausch unter den Teilnehmer*innen blicken, der weit über das Bühnenprogramm hinausging und Vorfreude darauf macht, die weiteren notwendigen Kollaborationen innerhalb der Branche weiter mit voranzutreiben.

Über die Autorin:

Irina Reimer ist seit 2019 als erste Mitarbeiterin bei der Life Science Factory, zunächst für den Aufbau im Community- und Operations-Bereich und seit Anfang 2021 als Program Director für die ganzheitliche Ausgestaltung der Programmatik der Life Science Factory in Göttingen verantwortlich.

 

 

Aufmacherbild / Quelle / Lizenz
Foto von Luis Quintero: https://www.pexels.com/de-de/foto/leute-die-auf-gangstuhlen-sitzen-2774556/