https://trendreport.de/wp-content/uploads/2023/04/pexels-mikael-blomkvist-6476582-scaled.jpg17082560Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2023-03-03 17:45:062023-04-24 18:28:00Die Zeit läuft: So gelingen auch komplexe S/4HANA-Migrationen bis 2027
https://trendreport.de/wp-content/uploads/2023/04/pexels-christina-morillo-1181354-scaled.jpg17092560Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2023-03-03 08:34:542023-04-24 17:35:30Wie das Kepler-Projekt zu mehr Nachhaltigkeit führt
Alles digital, oder was? Im ursprünglichen Sinn meint Digitalisierung die Umwandlung von analogen Werten in digitale Formate. Denn diese lassen sich mit modernen Informationstechnologien verarbeiten. Der digitale Wandel beschreibt die durch diese Digitalisierung ausgelösten Veränderungsprozesse in der Gesellschaft, der Wirtschaft, der Kultur, der Bildung und der Politik.
So sollen wir in einer Welt des „Internet of Things“ (IoT) in unseren „Smarthomes“ via App unsere Heizung, das Licht, den Kühlschrank oder unsere Kinder steuern. Doch die digitale Revolution ist nicht erst morgen. Digitalisierung ist bereits heute das vollwertige Navigationsgerät mit Echtzeitstaumessung und die 3 000 Bände umfassende deutsche Wikipedia-Enzyklopädie in unserer Hosentasche.
Doch nicht alles, was digital heißt, stellt die Bedürfnisse der Kunden in den Mittelpunkt der digitalen Entwicklung. Wer bei mehreren Banken ein Konto unterhält und sich mit PhotoTAN, PushTAN, HBCI, ChipTAN & Co. authentifizieren muss und hierfür auf dem Smartphone eine Reihe von Apps installieren muss, bekommt den Beweis geliefert, dass der Treiber der digitalen Entwicklung in der Technik zu finden ist und nicht in der Kundenzentrierung. Da wundert es einen nicht, dass es digitale Burn-out-Syndrome und Angebote zum Digital Detox gibt. Es stellt sich zunehmend auch die Frage, wie viel Digitalisierung eigentlich gut ist für uns, unser Gehirn und unsere Gesellschaft.
Digitale Transformation und Disruption führt zu Verlierern
So kommt das Science-to-Business Marketing Research Centre (S2BMRC) zu dem Schluss: „Viele Unternehmen stehen völlig neuen Wettbewerbern gegenüber; meist Start-ups, die neue Technologien mit disruptiven Geschäftsmodellen verbinden und somit erfolgreich etablierte Geschäftsmodelle infrage stellen.“ Während manche Unternehmen und Branchen sich dieser veränderten Geschäftsbedingungen früh annahmen und die Weichen Richtung neuer Ideen und Geschäftsmodelle stellten (siehe IBM und viele mittelständische Unternehmen), tun sich andere schwer.
Ein gutes Beispiel ist das ehemalige Traditionsunternehmen Kodak. Einst ein Pionier und Marktführer der Fotobranche und ein Vorreiter der digitalen Revolution in der Foto- und Druckbranche, verschlief es die Führungsebene, den lahmenden (analogen) Gaul gegen ein (digitales) Rennpferd einzutauschen. Bereits im Jahr 1974 entwickelte der junge Kodak-Ingenieur Steve Sasson die erste digitale Kamera der Welt. Das Patent Nr. US4131919A lieferte die Grundlage für alle Digitalkameras von heute. Im Jahr 1987 fertigte Kodak die weltweit erste digitale Spiegelreflexkamera für den japanischen Hersteller Canon, die Canon New F-1 Electro-Optic Camera.
Da Kodak zu lange auf die analoge Fotografie gesetzt hatte und die digitale Revolution unterschätzte, meldete das Unternehmen am 19. Januar 2012 Insolvenz an. Fazit: Kodak scheiterte nicht an einer fehlenden Innovationsfähigkeit oder am Aufkommen der neuen digitalen Fototechnik. Die Ursachen für den Niedergang lagen im Bereich der strategischen Ausrichtung, das heißt, einer fehlenden Antizipationsfähigkeit zukünftiger Szenarien durch das Management. Doch Kodak ist keine Ausnahme und nicht allein. In den USA sind seit dem Jahr 2000 rund die Hälfte der Fortune-500-Firmen verschwunden. Die primäre Ursache für die Disruption der Geschäftsmodelle liegt im Bereich der Digitalisierung.
Autor Frank Romeike : Er zählt international zu den renommiertesten Experten für Risiko- und Compliancemanagement. Als Gründer und geschäftsführender Gesellschafter des Kompetenzzentrums RiskNET – The Risk Management Network läd er erneut zum RiskNET Summit ein. Die Fachveranstaltungen zum Risikomanagement startet morgen 5. November im Schloss Hohenkammer bei München.
Schieflagen und Pleiten: kein isolierter Risikoeintritt
In der Praxis von Unternehmensführungen zeigt sich immer wieder, dass die Ursachen für Organisationsschieflagen und -pleiten nicht auf einen isolierten Risikoeintritt zurückzuführen sind. Vielmehr führt die kumulierende Wirkung verschiedener Risiken – so beispielsweise ein konjunktureller Abschwung in Verbindung mit einer Disruption von Geschäftsmodellen sowie einer strategischen Fehlpositionierung – zu einer überhöhten Belastungsprobe der Risikotragfähigkeit. Und auch der Diebstahl oder das Hacken wichtiger Unternehmensdaten gehört in digitalen Zeiten zu einem wichtigen Puzzleteil für Unternehmen.
Es gibt nicht „die eine Ursache“
Für Dr. Christian Lenz, Rechtsanwalt bei der Prüfungs- und Beratungsgesellschaft DHPG in Bonn, bedarf es einer systematischen Erfassung der Informationen, die das Unternehmen geheim halten möchte. Sein Tipp: „Am besten anhand von Checklisten.“ Und er fügt an: „In der Praxis zeigt sich, dass vor der Abarbeitung von Checklisten ein Brainstorming im Unternehmen erfolgen sollte, bei welchen Informationen ein echter Schaden entstünde, wenn sie in fremde Hände geraten.“ Lenz sieht in den erforderlichen Sicherungsmaßnahmen kein „Neuland“ für Unternehmen.
„Insbesondere die IT-Sicherheit, aber auch andere technische und organisatorische Sicherungsmaßnahmen werden von vielen Gesetzen gefordert und sind schlicht wichtig für den Unternehmenserfolg. Beispielsweise müssen Unternehmen spätestens seit Mai 2018 die Datenschutz-Grundverordnung (DSGVO) umsetzen. Auch diese fordert angemessene Maßnahmen zur Sicherung von personenbezogenen Daten. Hier ergeben sich bei den Schutzmaßnahmen und der Systematik (Management-System) Synergien.“
Dr. Christian Lenz warnt: „Ohne angemessene Geheimhaltungs- maßnahmen existiert ein Geschäftsgeheimnis nach dem neuen Gesetz gar nicht.“
Klaus Jürgen Müller sieht Automatisierung als Schlüssel zur Bewältigung der Herausforderungen von IFRS 16.
Klaus Jürgen Müller, Regional Director Central Europe bei LeaseAccelerator, sieht im verschärften Wettbewerb einen weiteren wichtigen Faktor für Unternehmen. Gerade mit Blick auf den neuen Rechnungslegungsstandard IFRS 16 verweist Müller darauf, dass Unternehmen nicht über unbegrenzte Ressourcen verfügen, um die Mitarbeiterzahl ihrer Finanzabteilung zur Unterstützung der IFRS-16-Prozesse zu erhöhen. „Manpower ist teuer und während die Einstellung von mehr Mitarbeitern zwischenzeitlich ein Problem lösen kann, ist es nicht die langfristige Lösung, die eine kontinuierliche Compliance erfordert“, so Müller. Und er ergänzt: „Automatisierung ist der Schlüssel zur Bewältigung der Herausforderungen von IFRS 16, und genau dazu dienen Computer – wenn die richtigen Prozesse vorhanden sind. Wir können Daten immer wieder eingeben, aber entscheidend ist, ein System zu haben, welches all die Dinge im Hintergrund erledigen kann.“
In Summe zeigt sich, dass die Risikotragfähigkeit gerade deshalb einbricht, weil Risikofrüherkennungssysteme fehlen sowie die Überwachung und Sicherstellung der etablierten Prozesse und Systeme in der eigenen Organisation nicht funktionieren. Doch gerade das fordert die Neufassung des Prüfungsstandards IDW PS 340. Demnach müssen Unternehmen unter anderem einen stärkeren Fokus auf die Entwicklung eines Risikotragfähigkeitskonzepts sowie der Aggregation von Risiken legen. Hinzu kommen Dokumentationspflichten sowie Pflichten der Risikosteuerung als Bestandteil der zu prüfenden Grundelemente eines Risikofrüherkennungssystems. Nicht zu vergessen ist die Konkretisierung der Grundelemente eines Risikofrüherkennungssystems in Anlehnung an die zur Einrichtung und Prüfung von Risikomanagement- und Compliance-Management-Systemen entwickelten Grundelemente.
Mit Blick auf das Compliance-Umfeld verweist Dr. Konstantin von Busekist, Partner bei der KPMG Law Rechtsanwaltsgesellschaft, auf drohende Sanktionen. Hintergrund ist das vom Bundesministerium der Justiz und für Verbraucherschutz (BMJV) gestartete Vorhaben, verbandsbezogene Straftaten zu sanktionieren. „Konzeptionell nähert sich der Entwurf dem anglo-amerikanischen Rechtsraum an. Insbesondere erinnert die Sanktionsform ‚Verwarnung mit Vorbehalt der Verbandsgeldsanktion‘, die zusätzlich mit Auflagen und Weisungen verbunden werden kann, an das US-amerikanische Rechtsinstrument des ‚Deferred Prosecution Agreement‘ (DPA)“, erklärt von Busekist. Nach seinen Worten standen auch bereits große, deutsche DAX-Unternehmen unter einem „Monitorship“ nach US-Regularien. „Der Einsatz eines Compliance-Monitors ist ein sehr wirksames Instrument, das die Compliance-Organisation ungemein fördert. Es ist aber auch sehr teuer, da es erhebliche finanzielle und personelle Ressourcen bindet“, resümiert der KPMG-Partner. Der Entwurf für ein Verbandssanktionsgesetz (VerSanG-E) soll nach Einschätzung von Philipp Schiml, Senior Manager bei KPMG Law Rechtsanwaltsgesellschaft, die in der Praxis bestehende Rechtsunsicherheit über die Reichweite des Beschlagnahmeverbots bei internen Untersuchungen beseitigen.
Schiml: „Dem Entwurf selbst und den Aussagen in der Entwurfsbegründung gelingt es allerdings (noch) nicht, ein Mehr an Rechtsicherheit zu schaffen.“ Einem qualitativen „Mehr“ wäre auch im Risikomanagement geholfen – sowohl in der Früherkennung als auch bei der Risikosteuerung – in diesen digitalen Zeiten mit ihren disruptiven Geschäftsmodellen.
„Raus aus dem Keller“: Wir sprachen mit Prof. Dr. Volker Gruhn, Vorsitzender des Aufsichtsrats der adesso SE, zur Rolle der Cloud und der gesamten IT für die Unternehmen.
Herr Gruhn, die Cloud ist die Infrastruktur für die digitale Transformation. Aus Ihrer Sicht gehört die Cloud sozusagen raus aus dem Keller, wie die ganze IT, und muss als „Native“ bezeichnet werden. Was verstehen Sie darunter? Cloud entwickelt sich zur Standardeinstellung der IT. Es ist nicht ein Thema unter vielen, sondern der Dreh- und Angelpunkt für das Entwickeln, Ausliefern und Betreiben. Keine neue Idee – aber jetzt offenbart die Cloud ihre ganze Schlagkraft. Stand am Anfang das einfache Verschieben von Anwendungen, gibt jetzt „Cloud Native“ die Marschroute vor: Unternehmen setzen bei Entwicklung und Infrastruktur von Beginn an auf die Möglichkeiten der Cloud. Hinter dem Begriff verbergen sich eine Reihe von Architekturen, Prozessen und Werkzeugen. Fachleute nutzen typischerweise Microservices, die auf Docker-Containern laufen und die sie über Kubernetes orchestrieren und richten DevOps-Prozesse für das Entwickeln und Ausliefern auf Cloud-Plattformen ein. Werden die Prozesse richtig eingesetzt, realisieren Unternehmen schnell Vorteile: Das Abfedern eines erhöhten Bedarfes, das Garantieren eines zuverlässigen Betriebes oder das Reduzieren von Kosten sind nur einige davon.
Wir erleben derzeit, dass die Cloud vielen Technologien zu einem enormen Sprung verhilft. KI, IoT und ähnliches wären ohne die Cloud kaum denkbar. Die gegenseitige Beschleunigung der Technologien ist feststellbar. Was sind Ihre Erfahrungen bei Ihren Gesprächen mit den Kunden? In einer Diskussion fiel der Begriff der „technologischen Verdichtung“. Der beschreibt die Situation sehr passend. Ob Cloud, Data Science, Telekommunikation oder Robotik: Die Technologien wirken aufeinander, sie beeinflussen sich gegenseitig. Was unsere Kunden bewegt: In dieser Gemengelage müssen sich die IT-Verantwortlichen zwei Aufgaben gleichzeitig stellen. Einerseits müssen sie „den Laden am Laufen halten“. Sie sorgen für robuste und kosteneffiziente Anwendungen. Systeme müssen funktionieren, Daten verfügbar sein, die Kommunikation stehen. Andererseits sollen sie die Chancen erkennen, die Technologien eröffnen, Geschäftsmodelle und Prozesse grundsätzlich neu denken. Um diesen beiden Verantwortungen gerecht zu werden, empfehlen wir Unternehmen, sich mit den Rollen des Chief Digital Officer (CDO) und Chief Information Officer (CIO) zu beschäftigen. Traditionell kümmert sich der CIO um Themen wie ERP- oder CRM-Systeme und den Betrieb. Auf der Agenda des CDO steht neues, datengetriebenes Business. Gemeinsam entfalten sie die volle Schlagkraft der IT: Sie schaffen diese Geschäftsmodelle, die auf cloudbasierter IT-Infrastruktur aufbauen. Ich bin davon überzeugt, dass die meisten Unternehmen mit dieser Aufstellung gut gewappnet sind.
„Wer sich im Jahr 2022 noch fundamental gegen den Cloud-Einsatz stellt, braucht wirklich gute Argumente“, stellt Volker Gruhn dar.
Welche Bereiche lassen sich Ihren Erfahrungen nach vergleichsweise einfach verlagern und wo sind herausfordernde Aufgaben? Das lässt sich pauschal nicht beantworten. Wie der Weg in die Cloud genau aussieht, ist von Unternehmen zu Unternehmen unterschiedlich. Aber ohne eine strategische Planung führen alle Wege in die Sackgasse. Zunächst existieren Cloud-Konzepte nicht im luftleeren Raum. Sie sind eingebunden in bestehende Organisationen und vorhandene Prozesse. Welche Rolle Cloud-Technologien spielen und wie sie diese Rolle ausgestalten, ergibt sich aus der übergeordneten IT-Strategie eines Unternehmens. Dann gilt es, die Details der IT-Landschaft zu verstehen. Die Beteiligten verschaffen sich einen Überblick über die genutzten Anwendungen. Sie analysieren die dazugehörigen Entwicklungs- und Betriebsprozesse. Gleichzeitig bewerten sie die Bedeutung der Systeme für die IT und den unternehmerischen Erfolg. Mit diesem Wissen und diesen Prioritäten erarbeitet das Team für jede einzelne Applikation einen Cloud-Plan. Hier steht den Expertinnen und Experten eine Bandbreite von Optionen zur Verfügung – von „Lift & Shift“ bis „Cloud Native“. Jede Alternative bringt ihre spezifischen Vor- und Nachteile mit. Vor dem Hintergrund von Datenschutz, Verfügbarkeit und Kosten wählen die Beteiligten für jede Anwendung die passende Cloud-Form aus.
Lange war „Sicherheit“ in der Cloud ein Thema. Nun beginnt ein Umdenken. Können Sie uns Ihre Einschätzung geben, was empfehlen Sie, wenn Sie an Sicherheit und Cloud denken? Es stimmt, in Diskussionen über Cloud-Technologien war der Einwand „aber die Sicherheit!“ ein Totschlagargument. So würgten Bedenkenträger Ideen und Initiativen direkt ab. Aber auch wir spüren den erwähnten Sinneswandel in Unternehmen. Wer sich im Jahr 2022 noch fundamental gegen den Cloud-Einsatz stellt, braucht wirklich gute Argumente. Bei den sogenannten Hyperscalern, also große Cloud-Anbieter wie Microsoft, Amazon oder Google, können Unternehmen aus einer breiten Angebotspalette wählen. Zahlreiche Konfigurationsmöglichkeiten erlauben es den Verantwortlichen, die Leistungen auszuwählen, die exakt zu den eigenen Anforderungen – und damit auch Sicherheitsanforderungen – passen: von garantierten Verfügbarkeiten bis zu Updates bei Sicherheitslücken. Hyperscaler beschäftigen sich rund um die Uhr mit Cloud-Themen. Sie haben das notwendige IT-Know-how an Bord und setzen auf neuste Technologien. Den gleichen Grad an Sicherheit zu liefern und gleichzeitig Anforderungen an beispielsweise flexibles Arbeiten – mit vertretbarem Aufwand – zu erfüllen, dürfte vielen IT-Abteilungen schwerfallen.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Energie ist kostspielig. Strom, Erdgas und Heizöl sind im Vergleich zum Vorjahr ca. 36 Prozent teurer geworden. Ein greifbareres Beispiel: laut Verivox lagen die Energiekosten für einen Musterhaushalt im April 2022 bei 6.269 Euro pro Jahr. Im April 2021 kostete die gleiche Menge Energie noch 3.861 Euro – ein Anstieg von 2.408 Euro in einem Jahr. Verbraucher suchen daher nach Möglichkeiten, den eigenen Energieverbrauch zu senken bzw. alternative Energiequellen zu nutzen. In dieser Situation lohnt sich die Anschaffung einer Photovoltaikanlage. Verbraucher können den erzeugten Strom sofort verbrauchen oder für die spätere Nutzung speichern. Den produzierten Solarstrom ins Netz einzuspeisen, rentiert sich aufgrund der seit Jahren fallenden Einspeisevergütung immer weniger. Die Speicherung von Strom lohnt sich für Haushalte, weil der meiste Strom zur Mittagszeit erzeugt wird, der Strombedarf im Eigenheim allerdings in den Morgen- und Abendstunden Spitzenwerte erreicht.
Hausgeräte sind für den Großteil des eigenen Stromverbrauchs verantwortlich
Hausgeräte sind für den Löwenanteil des Stromverbrauchs im Haushalt verantwortlich. Darum lohnt es sich, bereits bei ihrer Anschaffung auf die Energieeffizienzklasse zu achten. Darüber hinaus sind sie der ideale Abnehmer für den selbst erzeugten Strom. Hier setzt Home Connect an, die Smarthome-Plattform von B/S/H. In Kooperation mit Enphase können Verbraucher in Zukunft mithilfe der Enphase App Home Connect-fähige Geschirrspüler, Waschmaschinen, Trockner und Waschtrockner so konfigurieren, dass diese bei besonders starker Sonneneinstrahlung, in Zeiten allgemein geringeren Verbrauchs im Haus oder zu Zeiten niedriger Energiepreise laufen. Außerdem können Nutzer das System so einstellen, dass die verbundenen Geräte in den gewünschten Zeiträumen mit der in Solarbatterien gespeicherten Solarenergie betrieben werden. Mittel der Enphase App werden die Hausgeräte über das bestehende Home Connect-Konto verbunden und so effizient verwaltet. Zusätzlich können Konsumenten in der Enphase App auch sehen, wie viel Energie mit der eigenen Photovoltaikanlage zu welchem Zeitpunkt produziert wird.
Wieso eigentlich smarte Hausgeräte?
Um ihre Energiekosten zu senken und ihren selbst erzeugten Strom optimal zu nutzen, sind Verbraucher also auf smarte Hausgeräte angewesen. Ein Hausgerät gilt als smart, wenn das Gerät die Möglichkeit hat, sich mit dem Internet zu verbinden. Laut einer Umfrage von YouGov in 2021 benutzen bereits ein Viertel der Deutschen Internet of Things (IoT)-Geräte im eigenen Haushalt. Die Vernetzung bietet über die Nutzung der Home Connect- Plattform viele Vorteile gegenüber herkömmlichen Hausgeräten:
Nachhaltige Lebensweisen steigern & Kosten sparen: Smarte Waschmaschinen können z.B. dank der Vernetzung und Automatisierung Waschmittel, Wasser und Strom sparen. Die Füllmenge und das geeignetste Programm werden automatisch ausgewählt. Auch der Stromverbrauch wird optimiert, indem das Gerät effizient ein- und ausgeschaltet werden kann.
Anpassung: Der Nutzer kann nach eigenen Wünschen festlegen und programmieren, wann die Geräte laufen, den Stromverbrauch im Haushalt beobachten und ungenutzte Geräte ausschalten, wenn diese nicht benötigt werden.
Support: Fehlermeldungen oder Diagnosedaten können Nutzer direkt an den Hersteller übermitteln, sodass sie weniger Zeit aufwenden müssen, mit dem Kundenservice in Kontakt zu treten, und der Service mit einem exakten Bild des Problems vor Ort eintrifft.
Kurzum: Die Nutzung smarter Hausgeräte bietet durch die intelligente Kombination mit einer Photovoltaik-Anlage über die Home Connect-Plattform die optimale Möglichkeit, den gestiegenen Energiepreisen ein Schnippchen zu schlagen. Derzeit ist Home Connect für die Hausgerätemarken Bosch, Siemens, Gaggenau, Neff, Thermador, Balay, Constructa, Pitsos und Profilo verfügbar. Die entsprechende Verknüpfung der Enphase-App mit Home Connect wird voraussichtlich Ende November in deutschsprachigen App Stores zur Verfügung stehen.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Der Strategieansatz Observability gewinnt zunehmend an Bedeutung. Das Konzept entstand aus mehreren separaten Entwicklungssträngen, darunter dem Application Performance Monitoring (APM) und der Notwendigkeit, bei orchestrierten Systemen wie Kubernetes für eine größere Transparenz zu sorgen. Prinzipiell zielt Observability darauf ab, hochgradig granulare Einblicke in das Verhalten von Systemen zu gewinnen.
Die Implementierung von Observability ist aus konzeptioneller Sicht relativ einfach. Erstens geht es um die Instrumentierung von Systemen und Anwendungen, um relevante Daten wie Metriken, Traces oder Logs zu sammeln. Zweitens werden diese Daten an ein separates System gesendet, das sie speichern und analysieren kann. Drittens erfolgt die Bereitstellung von Visualisierungen und Insights in das System als Ganzes – einschließlich von Abfragemöglichkeiten für Endbenutzer.
Warum ist Observability wichtig?
Moderne Anwendungen bestehen in der Regel aus einer Vielzahl von Services und Komponenten mit einer komplexen Topologie. Zudem sind sie regelmäßigen Änderungen unterworfen, unterstützt durch Verfahren wie CI/CD. Die wachsende Komplexität der Anwendungen geht einher mit der zunehmenden Nutzung von Technologien, die speziell für die Cloud entwickelt wurden. Dazu gehören etwa containerisierte Umgebungen, dynamisch skalierende Services oder Function-as-a-Service-Bereitstellungen. Diese neue Welt macht Root-Cause-Analysen und Störungsbehebungen potenziell sehr viel schwieriger. Observability ist hier ein wichtiges Element, das bei der Entwicklung robuster und zuverlässiger Systeme für die Cloud unterstützt.
Welche Daten müssen gesammelt werden?
Bei den relevanten Daten für Observability sind drei Säulen zu unterscheiden: Distributed Traces, Metriken und Logs. Traces sind Aufzeichnungen eines einzelnen Serviceaufrufs. In verteilten Architekturen löst ein solcher Aufruf in der Regel nachgelagerte Aufrufe anderer Services aus. Diese Aufrufe werden als Spans bezeichnet, sodass Traces eine Baumstruktur von Spans bilden. Metriken sind Zahlenwerte, die eine bestimmte Aktivität über ein Zeitintervall messen. Eine Metrik enthält typischerweise einen Zeitstempel, einen Namen und einen Wert. Logs bilden die dritte Säule der Observability und sind definiert als unveränderliche Aufzeichnungen von Events. Je nach Implementierung gibt es grundsätzlich drei Arten von Logs: Klartext, strukturiertes und binäres Format.
Observability Tools: Open-Source-Angebote auf dem Vormarsch
Die Marktsegmente APM und Monitoring wurden in der Vergangenheit von proprietären Anbietern dominiert. Als Reaktion darauf wurden verschiedene freie und Open-Source-Softwareprojekte gestartet oder von Technologieunternehmen ausgegliedert. Frühe Beispiele sind Prometheus für Metriken sowie Zipkin und Jaeger für Tracing. Im Bereich des Loggings gewann der „ELK-Stack“ (Elasticsearch, Logstash und Kibana) schnell Marktanteile.
Da Software zunehmend komplexer wird, sind immer mehr Ressourcen erforderlich, um einen validen Satz von Instrumentierungskomponenten bereitzustellen. Bei proprietären Observability-Produkten führt dies zu Doppelarbeit und Ineffizienz. Der Markt ist nun an einem Wendepunkt angelangt und Open-Source-Lösungen gewinnen verstärkt an Bedeutung. Ein wichtiger Meilenstein war dabei die Zusammenlegung der Projekte OpenTracing und OpenCensus zu OpenTelemetry, einem Hauptprojekt innerhalb der Cloud Native Computing Foundation (CNCF). Es gewinnt an Dynamik und immer mehr Unternehmen implementieren OpenTelemetry. Eine kürzlich von der CNCF durchgeführte Untersuchung ergab, dass bereits 49 Prozent der Befragten OpenTelemetry verwenden und diese Zahl dürfte noch erheblich steigen.
OpenTelemetry im Überblick
Doch was ist OpenTelemetry nun genau? Das Projekt bietet eine Reihe von Standards, Formaten, Client-Bibliotheken und zugehörigen Softwarekomponenten. Die Standards sind plattformübergreifend und nicht an einen bestimmten Technologie-Stack gebunden. OpenTelemetry enthält ein Framework, das in Open-Source- und kommerzielle Produkte integriert werden kann und Observability-Daten von Anwendungen erfasst, die in unterschiedlichsten Sprachen geschrieben sind. Aus Sicht von Red Hat ist die Java/JVM-Observability besonders relevant, da sie eine der ausgereiftesten Implementierungen ist. Komponenten in anderen wichtigen Sprachen und Frameworks wie NET, Node.js oder Go besitzen ebenfalls einen hohen Reifegrad.
Insgesamt betrachtet bringt Observability eine entscheidende Erweiterung klassischer Überwachungssysteme. Der Ansatz hilft Unternehmen, die Ursache von Problemen zu identifizieren und mögliche künftige Störungen zu prognostizieren. Eine Schlüsseltechnologie bei der Observability-Umsetzung wird dabei OpenTelemetry sein.
* Ben Evans ist Senior Principal Software Engineer bei Red Hat
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2023/04/computer-gd8c0415be_1920.jpg12001920Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-11-02 08:50:422023-04-24 18:24:42Warum ist Observability wichtig und wie kann OpenTelemetry unterstützen?
Deutschland muss zunehmend auf Künstliche Intelligenz verzichten
Der Einsatz von Künstlicher Intelligenz scheitert in Deutschland an den Rahmenbedingungen. Damit droht die Bundesrepublik im weltweiten Wettbewerb zurückfallen. Das ist das Fazit des aktuellen KI-Monitors vom Bundesverband Digitale Wirtschaft (BVDW) e. V. und dem Institut der deutschen Wirtschaft Köln e. V. (IW). Künstliche Intelligenz gilt als eine zentrale Zukunftstechnologie, die Studie beschreibt deren Einsatz und Verbreitung in den vergangenen Jahren.
Für 2022 ist der im KI-Monitor berechnete KI-Index in seiner vierjährigen Historie erstmals rückläufig.
„Deutschland schwelgt in Dichter-und-Denker-Romantik – leider auf Kosten der Künstlichen Intelligenz. Die Rahmenbedingungen für KI müssen dringend positiv verändert werden. Wir brauchen aus Brüssel und Berlin mutige Zeichen und Impulse, keine Regulierung und Einschränkung der KI, sondern positive Lösungsansätze für den Einsatz von Daten“,
sagt BVDW-Vizepräsident Alexander Kiock.
Am kommenden Donnerstag wird in Brüssel der AI-Act („KI-Verordnung“) auf Arbeitsebene diskutiert und der Gesetzesentwurf vorbereitet, über den das Parlament abstimmen soll. Sicher ist bereits jetzt, auf Unternehmen und Wissenschaft kommen von der Europäischen Union neue regulatorische Barrieren zu. Das Regelwerk wird voraussichtlich Anfang 2023 verabschiedet und dürfte sich mittelfristig negativ auf den KI-Index auswirken. Er ergibt sich aus einer zweistelligen Zahl an Indikatoren zu Wirtschaft, Gesellschaft sowie Infrastruktur und zum politischen Rahmen.
„Die alte Bundesregierung hatte im November 2018 ihre ‚Strategie Künstliche Intelligenz‘ beschlossen und 2020 aktualisiert, doch das Fitnessprogramm verfehlte die gesteckten Ziele. Ein positiver Effekt war 2022 für die Wirtschaft nicht sichtbar“, sagt Kiock.
Der KI-Monitor zeigt: Weniger Unternehmen setzten auf KI-Lösungen als noch im Jahr zuvor. Zuletzt bauten laut KI-Monitor annährend 19 Prozent aller Unternehmen auf KI-Lösungen – ein Rückgang von zwei Prozentpunkten. Trübe Aussichten prägten auch den Jobmarkt: Der Anteil der Stellenanzeigen, in denen nach KI-Fähigkeiten verlangt wurde, ging um neun Prozent zurück. „In Summe konstatieren wir alarmierende Tendenzen. Die Ursachenforschung wird uns beschäftigen – Fakt ist jedoch, nicht alles ist der Pandemie zuzuschreiben“, sagt Kiock.
Innerhalb der Gesellschaft hat sich die Tendenz deutlich positiv entwickelt. Besonders stark stieg der Wert beim Indikator „Bekanntheit von KI in der Gesellschaft“. Zwischen 2019 und 2022 konnte ein Plus von mehr als 44 Prozent verzeichnet werden. Im vergangenen Jahr erhöhte sich der Wert um 15 Prozent. Dies spricht deutlich für ein dezidiertes Interesse an KI in der Gesellschaft.
Rund 250 Besucher*innen, zehn Bühnengäste und unzählige Impulse zum Thema „Unternehmertum und Wissenschaft” – Zahlen, die das erfolgreiche Vertical „Future of Life Sciences“ der Life Science Factory auf der diesjährigen Bits & Pretzels zusammenfassen. Die Veranstaltung schaffte es, dem Publikum einen schnellen und tiefen Einblick in die Marktsituation zu geben und offene Potenziale klar zu benennen. Gleichzeitig untermauerten die eingeladenen unternehmerischen Vorbilder aus dem Life-Science-Kontext mit ihren Gründungserfahrungen die Wichtigkeit von guter Vernetzung und Förderprogrammen, die sowohl die wissenschaftlichen als auch unternehmerischen Fragestellungen im Blick haben.
Zu Beginn begrüßte Ralf Leister, Moderator der Life Science Factory, den vollbesetzten Saal und stellte dem Publikum in einer virtuellen Tour das innovative Laborkonzept der Life Science Factory in Göttingen vor. Den Auftakt zur Veranstaltung verschaffte Dr. Alexander Nuyken, Head of Life Science Marktes von JLL und erfahrener Life Science Experte, ein erstes Marktverständnis in seiner Keynote „Life Sciences who?” Er machte deutlich, dass die personalisierte Medizin, als aktuelle Entwicklungsstufe innerhalb der Life Science, die Branche noch einmal verändern und stark vorantreiben wird. Die aufgezeigten Venture Capital Volumina zeichneten eine gute Prognose für den Innovationsstandort Deutschland und schafften eine perfekte Überleitung zum anschließenden Q & A mit Dr. Peter Neubeck, Partner bei Kurma Partners. Neubeck ist einer der wichtigsten Akteure in Europa, wenn es um Investments in hochinnovative Biotechnologie geht. In der lebhaften Fragerunde ermutigte er die anwesenden Gründer*innen und Wissenschaftler*innen trotz der aktuell vermeintlich abgekühlten Weltmarktsituation aktiv auf Investor*innen zuzugehen.
„Time is now”, darüber waren sich auch Prof. Dr. Matthias Tschöp, CEO des Helmholtz Zentrum München und Prof. Dr. Eicke Latz, Seriengründer und Direktor des Instituts für Angeborene Immunität an der Universität Bonn, einig. Beide stehen für herausragende Erfolgsgeschichten und verdeutlichten, wie wichtig es ist, nie die eigenen wissenschaftlichen Standards zu verlieren. Gleichzeitig betonten beide, dass es noch offene Potenziale gibt, vergleicht man den Standort Deutschland mit etwa Boston, USA. So machte Latz deutlich, dass es noch viel Aufholbedarf gibt, um so effektive Forschungscluster herauszubilden.
Welche Schlüsselstelle Forschungscluster und Hubs vor allem auch in internationalen Innovations- und Kollaborationsprojekten im BioTech-Sektor inne-haben, diskutierten Dr. Thorsten Lambertus, Direktor des DEEP-Instituts an der ESMT Berlin und Sigrid Koeth, Innovation-Managerin bei der Deutschen Bundesagentur für Sprunginnovationen (SprinD).
Im abschließenden Panel „New Leadership in Life Science” erklärten Dr. Natalie Garzorz-Stark, CEO bei Dermagnostix und Philipp Baaske, Mitgründer und CEO bei NanoTemper Technologies, Virginie Clément-Schatlo (GliTTher), Daniela Sommer (u.a. CTO Helmholtz München) nahbar und gaben Einblicke in Fragen zum effektiven Leadership und den täglichen Herausforderungen. So wurde deutlich, dass eine klare Vision der Führung und wohin man mit seinem Unternehmen und dem eigenen Impact gehen möchte, unerlässlich ist.
Zum Abschluss des Panels der Life Science Factory bekamen neun Start-ups aus dem Life-Science-Bereich die Möglichkeit, ihre Geschäftsidee vor einer Jury zu pitchen und sich für den goldenen Bits & Pretzels Award zu qualifizieren. Dr. Daniel Keppeler, Gründer und COO des Göttinger Start-ups OptoGentech gewann und nutzte am darauffolgenden Tag die Chance, vor internationalen Investor*innen zu pitchen.
Mit dem ersten Life Science Vertical auf der Bits & Pretzels gelang es, die Welten der Wissenschaft und des Unternehmertums noch erfolgreicher zusammenzubringen. Es motiviert uns als Life Science Factory Team sehr, insbesondere wenn wir auf den Austausch unter den Teilnehmer*innen blicken, der weit über das Bühnenprogramm hinausging und Vorfreude darauf macht, die weiteren notwendigen Kollaborationen innerhalb der Branche weiter mit voranzutreiben.
Über die Autorin:
Irina Reimer ist seit 2019 als erste Mitarbeiterin bei der Life Science Factory, zunächst für den Aufbau im Community- und Operations-Bereich und seit Anfang 2021 als Program Director für die ganzheitliche Ausgestaltung der Programmatik der Life Science Factory in Göttingen verantwortlich.
https://trendreport.de/wp-content/uploads/2023/10/pexels-luis-quintero-2774556-scaled.jpg17072560Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-25 13:32:332023-10-24 16:41:27Beste Aussichten für die „Future of Life Sciences“
Viele Unternehmen hadern noch immer mit der DSGVO und beklagen den hohen Aufwand, den die Datenschutzvorgaben verursachen. Dabei lassen sich diese mit Software-Lösungen, die bei der Inventarisierung von Daten und der Bearbeitung von Auskunfts- und Löschanfragen helfen, effizient umsetzen.
In den vergangenen Monaten haben die deutschen Datenschutzbehörden erneut zahlreiche Bußgelder wegen Verstößen gegen die DSGVO verhängt. Neben großen Unternehmen wie Volkswagen, der Hannoverschen Volksbank und der Tochtergesellschaft eines E-Commerce-Konzerns, die hohe Summen von mehreren Hunderttausend Euro zahlen mussten, waren auch zahlreiche kleine und mittelständische Firmen betroffen. Die Strafen zeigen, dass sich Unternehmen aller Branchen und Größen nach wie vor schwertun, die Vorgaben der DSGVO umzusetzen.
Das hat natürlich auch mit der voranschreitenden Digitalisierung und der durch Corona veränderten Arbeitswelt zu tun. Unternehmen müssen heute viel größere Datenmengen als noch vor ein paar Jahren beherrschen, die überdies nicht mehr nur auf Systemen innerhalb des Firmennetzwerks lagern, sondern zunehmend in Cloud-Services und von Mitarbeitern im Homeoffice verarbeitet werden. Die komplexen Infrastrukturen und Prozesse haben dazu geführt, dass sich häufig nicht mehr nachvollziehen lässt, wo Daten gespeichert sind, welchen Rechtsvorschriften sie unterliegen und wer auf sie zugreift.
Eigentlich bräuchten Unternehmen dringend standardisierte und automatisierte Prozesse, um die DSGVO-Anforderungen zu erfüllen, doch in der Praxis dominieren weiterhin manuelle Abläufe. Kein Wunder, dass in einer Bitkom-Umfrage nahezu die Hälfte der Befragten einen durch die DSGVO dauerhaft gestiegenen Aufwand für Datenschutz beklagt und fast ein Drittel sogar mit einem weiter zunehmenden Aufwand rechnet.
Manuelle Prozesse kosten Zeit
Treffen Auskunfts- oder Löschanfragen ein, sogenannte Data Subject Access Requests (DSAR), müssen Mitarbeiter in vielen Unternehmen händisch deren Rechtmäßigkeit und die Identität der Anfragenden überprüfen. Anschließend durchforsten sie riesige, verteilte Datenbestände und brauchen unzählige Rückfragen bei Kollegen, um alle benötigten Informationen in langen Listen und Tabellen zusammenzutragen. Teilweise dauert das Tage oder sogar Wochen und Monate – zu lange oft, um die Vorgaben der DSGVO einzuhalten, die für Auskünfte eine Frist von einem Monat vorsieht. Nur in Ausnahmefällen sind drei Monate möglich.
Lassen sich Unternehmen zu viel Zeit mit der Beantwortung von Auskunftsanfragen, riskieren sie Klagen. Noch ist zwar höchstrichterlich nicht geklärt, ob verspätete Auskünfte einen Schadensersatzanspruch begründen, doch das Oberlandesgericht Köln vertrat im Juli 2022 diese Auffassung. Dazu kommt, dass die manuellen Prozesse nicht nur zeitraubend sind und Mitarbeiter binden, die eigentlich andere, wertschöpfende Tätigkeiten übernehmen sollen; sie sind überdies auch fehleranfällig und skalieren schlecht. Spätestens wenn mehrere Anfragen auf einmal bearbeitet werden oder Unternehmen nach Datenschutzverletzungen die Behörden sowie eine Vielzahl von Betroffenen benachrichtigen müssen, gelangen sie an ihre Grenzen.
Istvan Puskas zeigt auf, dass es ohne die Mittel der digitalen Transformation nicht möglich ist, Compliance-Pflichten nachzukommen.
Istvan Puskas
Software entlastet Mitarbeiter
Moderne Software-Lösungen helfen Unternehmen, sämtliche Aktivitäten rund um Auskunfts- und Löschanfragen zu automatisieren oder durch geführte Abläufe zu erleichtern. Die Anwendungen stellen beispielsweise ein einfach anpassbares Portal bereit, über das Verbraucher, Bewerber und andere Personen ihre Anfragen stellen können. Das Portal fragt alle benötigten Angaben für die Prüfung ab und verifiziert sie umgehend, sodass Mitarbeiter im Nachgang keine weiteren Informationen anzufordern brauchen. Anschließend benachrichtigt die Software die zuständigen Mitarbeiter und gibt ihnen konkrete Hinweise zu den erforderlichen Aktionen, listet Fälligkeitstermine auf und informiert auf übersichtlichen Dashboards über den Bearbeitungsstand.
Smarte Suchfunktionen unterstützen die Mitarbeiter bei der Recherche in verteilten Datenbeständen und der Überprüfung von Informationen direkt am Speicherort. Dadurch entfällt das umständliche Kopieren der Daten an eine zentrale Sammelstelle. Sind alle angefragten Informationen ermittelt, lassen sie sich per Klick in einem Dokument zusammenfassen und an den Antragsteller verschicken – alternativ ist der Versand in den ursprünglichen Datenformaten möglich. Automatisierte Workflows erleichtern dabei die Kommunikation mit den Anfragenden. Zudem werden alle Vorgänge dokumentiert, sodass Unternehmen sie für Prüfungen oder Zertifizierungen bei Behörden nachweisen können.
Ohne Dateninventar gehts nicht
Voraussetzung für eine solche software-gestützte Bearbeitung von Auskunfts- und Löschanfragen ist ein gut gepflegtes Dateninventar. Dieses listet alle vom Unternehmen gespeicherten Daten auf, den Speicherort und wer darauf zugreift. Bei der Erstellung helfen ebenfalls moderne Software-Lösungen, die idealerweise nicht nur über alle Standorte und Datenquellen wie Fileserver, Cloud-Services und Mail-Systeme hinweg erfassen, wo Daten abgelegt sind und ob es sich um personenbezogene Daten handelt. Gute Lösungen ermitteln darüber hinaus, welchen Rechtsvorschriften und Aufbewahrungsfristen die Daten unterliegen und in welche Prozesse sie eingebunden sind.
Wie lange der Aufbau eines Dateninventars dauert, hängt von der Größe des Datenbestandes ab. Wichtig ist, dass das Inventar nicht nur eine Momentaufnahme bleibt, sondern kontinuierlich aktualisiert wird, da Daten immer wieder bearbeitet oder kopiert werden oder neue Daten hinzukommen. Damit die Aktualisierungen nicht zu viele Server- und Netzwerkressourcen beanspruchen, nutzen smarte Lösungen statistische Verfahren, um Veränderungen an Daten und Zugriffen zu entdecken. Darüber hinaus unterstützen sie bei der Definition von Löschprozessen und bewerten Datenschutz- und Sicherheitsrisiken – besteht Handlungsbedarf, lösen sie automatisch eine Warnmeldung aus.
Letztlich ist der Versuch, DSGVO-Compliance mit manuellen Prozessen herstellen zu wollen, von vornherein zum Scheitern verurteilt. Angesichts wachsender Datenbestände, komplexer Regularien und steigender Datenrisiken sind Unternehmen auf intelligente Tools angewiesen, um Mitarbeiter zu entlasten und das Risiko von Strafzahlungen zu minimieren.
* Istvan Puskas, Director Sales DACH Corporate bei Exterro
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
https://trendreport.de/wp-content/uploads/2023/10/pexels-fernando-arcos-2111511-scaled.jpg17022560Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-25 13:22:342023-10-24 16:47:51Effizienter Datenschutz ist eine Frage der Automatisierung
Christian Otto Grötsch, Gründer und Geschäftsführer der dotSource GmbH, erläutert im nachfolgenden Gastbeitrag, wie sich Unternehmer:innen gerade jetzt aufstellen können, um ihr Unternehmen durch die multiplen Herausforderungen steuern zu können.
Wir sehen, dass das Jahr 2022 Unternehmen aller Branchen vor große Herausforderungen stellt: Schnell fühlt man sich ohnmächtig gegenüber den aktuellen Krisen – zwischen Einschränkungen durch die Corona-Pandemie, Lieferengpässen weltweit und Energieknappheit in ganz Europa. Dabei zeigt sich jedoch, dass es gerade jetzt darum geht, sich auf die eigenen Stärken zu besinnen und sich von innen heraus krisenfest für die Zukunft aufzustellen. Digitalisierung und Nachhaltigkeit sind dabei mehr als nur beliebte Buzzwords – vielmehr stellen sie gerade in ihrem Zusammenspiel wichtige Säulen für die Resilienz von Unternehmen dar. Unsere virtuelle Konferenz B2B Digital Masters Convention 2022 greift am 9. & 10. November diese beiden Aspekte auf und stellt ihre Business-Relevanz in den Fokus.
Der B2B-Bereich als Vorbild für nachhaltiges Wirtschaften?
Wie zuvor die Pandemie in Bezug auf die Digitalisierung, könnte die Energiekrise wie ein Brennglas wirken, das alle Unternehmen dazu zwingt, ökologisch nachhaltiger zu denken, Energie zu sparen, Transportwege zu überdenken, etc. Für den Laien scheinen diese Themen im B2B-Bereich lange Zeit unter dem Radar geflogen zu sein – hat man es hier doch nicht direkt mit den umweltbewussten Endkundinnen und Endkunden zu tun. Entgegen der allgemeinen Meinung spielen die ökologische und soziale Nachhaltigkeit im B2B jedoch bereits seit Jahren eine nicht zu unterschätzende Rolle: B2B-Kunden, seien sie nun private Unternehmen oder öffentliche Institutionen, unterliegen häufig strengen Auflagen für ihre Beschaffung, die sich unter anderem aus den Richtlinien für Environmental Social Governance (ESG) ergeben. Die Einhaltung solcher Vorgaben gilt es für den B2B-Vertrieb sicherzustellen und transparent zu machen. Damit ist man teilweise sogar Vorreiter in Bezug auf umweltverträgliche Standards und transparente Lieferketten.
An dieser Stelle kommt die Digitalisierung ins Spiel, lassen sich doch derartige Informationen in Onlineshops oder auf Websites wesentlich übersichtlicher und aktueller darstellen als auf analogen Bestelllisten: Digitale Systeme wie ein Product-Information-Management (PIM) können dazu beitragen, dass festgelegte Produktdaten wie Herkunft oder Gütesiegel automatisiert erfasst werden. So sparen B2B-Händler manuelle Aufwände ein und bieten ihren Kunden zugleich durch vollständige Informationen ein besseres Einkaufserlebnis.
„Wie schon beim Thema Nachhaltigkeit gilt auch für den wichtigen Bereich der B2B-Kundenbeziehungen: Digital Business ist zukunftsfähiges Business“,
betont Grötsch.
Foto: dot.source
Daneben spart man durch die Digitalisierung der Geschäftsprozesse auch ganz klassisch Ressourcen – angefangen natürlich bei Papier, aber auch im Energiebereich: Nicht zu unterschätzen ist beispielsweise die Migration in eine Cloud, die im Vergleich zum Hosting und zur Datenspeicherung auf eigenen Servern bis zu 45 Prozent Strom einsparen kann.
Moderne digitalisierte B2B-Unternehmen haben also in mehrfacher Hinsicht bessere Chancen, gut durch die Krise zu kommen. Zudem sind sie besser in der Lage, ihre anspruchsvolle Zielgruppe bei der Bewältigung von Herausforderungen zu unterstützen.
Mit Data-driven Business die Basis für resiliente Geschäftsmodelle schaffen
Wie schon beim Thema Nachhaltigkeit gilt auch für den wichtigen Bereich der B2B-Kundenbeziehungen: Digital Business ist zukunftsfähiges Business. Wer sein Unternehmen, die Märkte und nicht zuletzt seine Kunden gut kennt, kann Chancen, Bedürfnisse oder Engpässe eher voraussehen. Dabei können digitale Instrumente und Methoden des Data-driven Business‘ unterstützen: Mit Analyse-Tools und Business-Intelligence-Systemen tracken digitalisierte Unternehmen ihre Verkaufs- und Performancedaten und erhalten so einen klareren Einblick, was ihre Zielgruppen gerade benötigen und welche Entwicklungen die Zukunft bringen könnte.
Auf diese Weise können B2B-Händler, -Marken und -Hersteller als starke Partner ihrer Kunden auftreten, auf die man sich auch und gerade in der Krise verlassen kann. Um dies wirklich zu gewährleisten, empfiehlt es sich, ein besonderes Augenmerk auf die Customer-Journey zu legen: Wer die Berührungspunkte zwischen Stakeholdern und seinem Unternehmen kennt, kann diese optimieren und seinen Kundinnen und Kunden so in der Krise einen Teil ihrer Last nehmen.
B2B Digital Masters Convention 2022
Unter den Stichworten »nachhaltig. digital. wirtschaften« bietet die Online-Konferenz B2B Digital Masters Convention am 9. & 10. November allen B2B-Herstellern und -Händlern wichtiges Know-how, um ihren Betrieb resilient zu gestalten und krisenfest in die Zukunft zu gehen.
Dabei legt die Veranstaltung ein besonderes Augenmerk auf die Themenbereiche »Reduce, reuse, recycle – Wirtschaften in Zeiten von SDGs, ESG & Co.« sowie »Kundeninteraktion 2023 – Trends und Perspektiven«. Expertinnen und Experten wie beispielsweise der Unternehmensberater Dr. Felix Zimmermann erläutern, welche Chancen ESG für ein zukunftssicheres B2B-Geschäft bietet. Zudem zeigen führende B2B-Unternehmen wie KWS oder MEVACO, wie sie durch datengetriebenes Arbeiten Ressourcen einsparen und ihre Märkte noch besser verstehen oder mit einer Digital-Experience-Plattform die Bedürfnisse ihrer B2B-Kundengruppen erfüllen. Die Tickets für das zweitägige Event sind kostenlos.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Gastautor Holger Fischer setzt sich für positive Nutzungserlebnisse ein.
Hohe Erlebnisqualität der digitalen Interaktion stärkt die Kundenloyalität und sorgt im Wettbewerb für höhere Resilienz. Als Digitalisierungspartner von gut 770 Genossenschaftsbanken folgt Atruvia deshalb einem dezidiert menschenzentrierten UX-Ansatz, der das Zusammenspiel von Usability und Funktionalität im agilen Entwicklungsprozess systematisch optimiert.
Dass eine exzellente User Experience (UX) zu den entscheidenden Erfolgsfaktoren für dauerhafte Kundenbeziehungen zählt, bestreitet heute niemand mehr. Doch wie misst man eigentlich die Erlebnisqualität im digitalen Raum? Gibt es objektive Kriterien, die als Standards dienen können? Und wenn ja: Wie lassen sich solche Qualitätsstandards als fester Bestandteil in den agilen Entwicklungsprozess digitaler Mehrwertlösungen integrieren? Für Atruvia – eines der größten Digitalunternehmen in der deutschen Kreditwirtschaft – sind dies brennende Fragen. Denn hierbei geht es letztlich um die Wettbewerbsfähigkeit der deutschen Volks- und Raiffeisenbanken in einem zunehmend volatilen Marktumfeld.
So viel ist vorab klar: Ohne die vielbeschworene Kundenperspektive geht die Entwicklung digitaler Bankinglösungen an den realen Bedürfnissen von Menschen vorbei. Allerdings ist „Kundenperspektive“ ein ziemlich unscharfer Begriff, der eher das Ziel als den Weg dorthin beschreibt. Eine methodisch fundierte Orientierung hingegen, wie echte Kundenorientierung zu erreichen ist, verwirklicht Atruvia mit der holistischen UX-Strategie „Human-centered Design“ – kurz HCD.
Holger Fischer, UX-Coach und User Researcher bei Atruvia, beschreibt in seinem Gastbeitrag einen menschenzentrierten Ansatz bei allen Gestaltungsaspekten der digitalen Interaktion.
Vier Qualitätsmerkmale für die digitale Interaktion
HCD gliedert die Qualitätsmaßstäbe für interaktive Systeme ganz allgemein nach den vier Aspekten Usability, User Experience, Barrierefreiheit sowie Vermeidung von negativem Impact: Mit Usability ist in diesem Kontext die Gebrauchstauglichkeit und Zweckmäßigkeit gemeint. Schon an dieser Stelle zeigt sich, dass UX-Design entgegen manchem Missverständnis nicht nur auf die Nutzeroberfläche abzielt, sondern eng mit der Funktionalität der jeweiligen Features und der zugrundeliegenden Softwarearchitektur verflochten ist. Im konkreten Fall handelt es sich bei Atruvia übrigens um eine modulare Micro-Services-basierte Plattformarchitektur als einheitliches Fundament für sämtliche Omnikanalanwendungen.
Der zweite Aspekt der User Experience umreißt das Nutzungserlebnis im engeren Sinne: Hier geht es darum, durch digitale Mehrwerte konkrete Bedürfnisse von Menschen bestmöglich zu adressieren, um beim Nutzungserlebnis positive Emotionen zu wecken. Mit der Forderung nach Barrierefreiheit untermauert das HCD-Konzept seinen inklusiven Anspruch nach potenzieller Teilhabe aller Menschen. Der vierte und letzte Aspekt schließlich bezieht sich generell auf interaktive Systeme und verlangt, dass negative Auswirkungen etwa auf die Gesundheit oder die Umgebung schon bei der Konzeption bewusst vermieden werden.
„…durch digitale Mehrwerte konkrete Bedürfnisse von Menschen bestmöglich zu adressieren, um beim Nutzungserlebnis positive Emotionen zu wecken. „
User Research und UX-Coaching
Gerade bei digitalen Anwendungen wie Banking-Apps, die sich an eine breite Nutzergruppe richten, kommt es auf eine größtmögliche Schnittmenge im Hinblick auf Gewohnheiten, Wissensstand und Handhabungsfertigkeiten an. Dafür reicht das Anwenderfeedback auf Lösungsprototypen während der agilen Entwicklung im Allgemeinen nicht aus. Denn naturgemäß ist hier nur ein relativ kleiner Personenkreis involviert, der die ganze Bandbreite einer großen Zielgruppe nicht adäquat abbilden kann. Aus diesem Grund begleitet Atruvia den agilen Entwicklungsprozess mit unterschiedlichen User-Research-Methoden wie Workshops, Kontextanalysen und Tiefeninterviews in repräsentativen Anwendergruppen. Ziel dabei ist es, die realen Bedürfnisse und Erwartungen von Menschen systematisch zu erfassen und die Ergebnisse als Input den Entwicklerteams bereitzustellen.
Ein weiteres Anliegen von HCD ist die Befähigung aller Beteiligten, die gewonnenen Erkenntnisse zielgenau zu nutzen und sich bei jedem Designschritt tatsächlich in die Perspektive der späteren Anwenderinnen und Anwender hineinversetzen zu können. Atruvia hat zu diesem Zweck ein projektübergreifendes Coaching in das agile Entwicklungsmodell integriert. Dabei fördern zum Beispiel Design-Sprint-Sessions sowohl die Kreativität als auch das Empathievermögen der interdisziplinär zusammengesetzten Entwicklungsteams. Apropos interdisziplinär: UX-Design ist eine interdisziplinäre Herausforderung par excellence.
Denn hier wirken Erkenntnisse aus der Wahrnehmungs- und Kognitionspsychologie mit Methoden der empirischen Sozialforschung sowie Software-Skills, Visual-Design-Kompetenz und bankfachliche Expertise zusammen. Alles in allem erweist sich HCD bei Atruvia als eine organische Erweiterung des agilen Paradigmas: Die menschenzentrierte UX-Strategie hilft, die Entwicklung digitaler Mehrwertlösungen punktgenau an den realen Erwartungen einer breiten Kundenmehrheit auszurichten. Letztlich entsteht somit noch mehr digitale Nähe – ein echter Wettbewerbsvorteil für die betreuten Genossenschaftsbanken.
Fit für die Zukunft: Wie durch nachhaltige Geschäftsmodelle und die digitale Transformation resiliente Unternehmen entstehen.
Ob Customer-Relationship-Management, Cybersecurity oder Contentmanagement, die vielen digitalen Disziplinen sind für Management und IT-Teams eine ständige Herausforderung. Die digitale Transformation muss zudem jeden Tag gelebt und gemeistert werden. Neue Anforderungen durch die schnelle Evolution der Technologie müssen in Geschäftsprozesse integriert werden.
Beispiel sind KI (künstliche Intelligenz), Big Data, Cloud oder Blockchain, die Geschäftsmodelle nicht nur begleiten, sondern auch beeinflussen und verändern. Gleichzeitig ändern sich auch die Erwartungen potenzieller Kunden und Kundinnen sowie der Mitarbeitenden. Und ist die Pflicht im Sinne der inkrementellen Innovationen erreicht, kommt die Kür in Form neuer digitaler und innovativer Geschäftsmodelle in Sichtweite.
Der digitale Reifegrad des Unternehmens hilft dabei, neue datengetriebene Geschäftsmodelle anzudenken und sorgt gerade jetzt in unserer volatilen Zeit für mehr Resilienz. Zurzeit scheint nichts mehr sicher zu sein. Wer hätte gedacht, dass der Bitcoin als erste und weltweit am Markt stärkste Kryptowährung im Kontext der Energieaufwendung beim Mining Probleme bekommen würde. Dabei belief sich der gesamte Stromverbrauch im Jahr 2019 laut Statista bereits auf 60 Terrawattstunden (Twh). Somit benötigt die Bitcoin-Blockchain in etwa soviel Strom wie die Schweiz. Wandlungsfähigkeit scheint das Gebot der Stunde zu sein und vielleicht ist es ja mit einem dicken Update, wie dies bei Ethereum unlängst geschehen ist, schon erledigt?
Die Coronapandemie, der Krieg und die Energiekrise zeigen momentan vielen Unternehmen ihre Verwundbarkeit schonungslos auf. Teilweise geht es um die blanke wirtschaftliche Existenz.
Aber welche Chancen liegen nun in digitalen Technologien und welche Rolle spielt die Digitalisierung beim Resilienzmanagement? Diese Frage sollte sich jede:r Unternehmer:in momentan stellen. Resilienz wird in diesen Zeiten zur Metakompetenz und ist die wichtigste Fähigkeit eines Unternehmens in Krisenzeiten. In diesem Kontext umfasst Resilienzmanagement alle Maßnahmen mit dem Ziel, die Belastbarkeit eines organisatorischen oder betriebswirtschaftlichen Systems, z. B. eines Unternehmens, gegenüber äußeren Einflüssen zu stärken.
Die Europäische Union bezeichnet Resilienz sogar als Kompass ihrer zukünftigen Politik. „So sind beispielsweise Digitalisierung, eine interdisziplinäre Ausrichtung, branchenübergreifende Netzwerke, unternehmerische Flexibilität sowie ein differenziertes Verständnis der eigenen und latenten Stakeholder wichtige Stellschrauben für ein krisenfestes, sprich resilientes Unternehmen“, erklärt die Innovationsforscherin Weissenberger-Eibl auf der Wissenschaftsplattform Nachhaltigkeit 2030. >>
Am Rande notiert:
Effizienzoffensive
„Geopolitische Krisen und gesellschaftlicher Wandel prägen die aktuell turbulenten Zeiten und das hohe Maß an Unsicherheit erschwert zukünftige Entscheidungsfindungen bei Unternehmen. Es scheint, als sei der Dauerkrisenmodus zur neuen Realität geworden. Effizienzsteigerungen und Kosteneinsparungen müssen nun in den Fokus rücken. Die digitale Transformation ist hierbei ein Schlüsselelement“, schreibt Markus Fost in seinem Gastbeitrag „Effizienzoffensive durch digitale Transformation“ unter:
„Die Cloud ist ein kollektives Sicherheitsrisiko.“
Resilienz und Wettbewerb
Auch unsere Bankenlandschaft und Finanzindustrie ist dabei, die neuen Anforderungen und technischen Möglichkeiten durch Anpassung und Transformation zu adaptieren und ihre Geschäftsmodelle zu verändern. Inzwischen verändern vor allem Megatrends wie die Digitalisierung, der Kampf gegen den Klimawandel, die demografische Entwicklung und eine neue Kundengeneration die Nachfrage nach Finanzdienstleistungen.
Wettbewerb droht Geldhäusern heute insbesondere aus der digitalen Welt. Ob passgenauer Payment Service oder Ratenkredit im Onlineshop: Mit jeder Transaktion fließt wertvolles Wissen über Verbraucherbedürfnisse an ein Non-Banking-Unternehmen ab, das seine Angebote damit immer besser personalisieren kann. Dies bringt die Gefahr mit sich, dass gewachsene Kundenbeziehungen zur Hausbank schrittweise erodieren. In der digitalen Ära konkurrieren Banken mit Non-Banken vor allem um Kontaktpunkte, weshalb eine unverwechselbare User Experience (UX) entlang der digitalen Kundeschnittstelle für klassische Kreditinstitute mehr und mehr zu einem entscheidenden Resilienzfaktor im Wettbewerb wird.
„Aus diesem Grund verlässt sich Atruvia bei der Gestaltung digitaler Mehrwertlösungen auch nicht mehr allein auf fragmentarisches Anwenderfeedback aus dem agilen Entwicklungsprozess. Vielmehr hat der Digitalisierungspartner der Volks- und Raiffeisenbanken das Konzept Human-centered Design (HCD) in den gesamten Entwicklungsprozess integriert – mit dem Ziel, das Zusammenspiel zwischen Funktionalität und UX-Design systematisch zu perfektionieren“, berichtet in diesem Kontext Holger Fischer, UX-Designer bei Atruvia. >>
Unsere Reportage-Teilnehmer
Human-centered Design: Königsdisziplin im digitalen Zehnkampf
„Automatisierte Codeprüfung“
Sicherheit: Containerlösungen für mobile Endgeräte
Holger Fischer von Atruvia
Frank Fischer von Snyk
Dr. Hermann Granzer von Materna Virtual Solution
Cyber-Resilienz, DSGVO und Cloud-Security
In der IT bedeuten Resilienz und Risikomanagement, dass zentrale Prozesse und Infrastrukturen selbst unter außergewöhnlichen Umständen, etwa nach einem Hackerangriff, aufrechtzuerhalten sind. Die Kommission will nun mit der überarbeiteten Richtlinie zur Sicherheit von Netz- und Informationssystemen (NIS 2) EU-weite Standards für Cybersecurity definieren, die auch die Industrie verpflichtend umsetzen muss. Dadurch soll die gesamte Infrastruktur resilienter werden. So werden Unternehmen nicht mehr vor die Wahl gestellt – nein, sie müssen einen Mindeststandard an Sicherheit erfüllen. Und das ist dringend notwendig angesichts der zunehmenden Abhängigkeit von funktionierenden IT-Umgebungen und der Tatsache, dass die Kriminellen immer raffinierter vorgehen. Ohne digitale Widerstandsfähigkeit werden sich Unternehmen künftig schwertun.
In Zeiten von Homeoffice und BYOD (Bring your own device) wird z.B. die mobile Sicherheit immer wichtiger und darf nicht vernachlässigt werden. Mobile Endgeräte, die von Mitarbeitenden privat und für die tägliche Arbeit genutzt werden, müssen nicht nur sicher sein, sondern auch dem Datenschutz entsprechen.
Welche Vorteile eine Containerlösung gegenüber einem Mobile Device Management (MDM) liefert und dass sich beide nicht gegenseitig ausschließen müssen, hat uns Dr. Hermann Granzer von Materna Virtual Solution erklärt: „Bei BYOD wird ein privates Smartphone für berufliche Zwecke genutzt, das komplementäre Pendant dazu ist COPE (Corporate Owned, Personally Enabled), wobei Diensthandys auch für den privaten Gebrauch eingesetzt werden dürfen. Beide Varianten sind aus den besagten Gründen sicherheitskritisch und für beide gelten die gleichen gesetzlichen Vorgaben. Laut DSGVO (Datenschutz-Grundverordnung) muss ein IT-Administrator jederzeit die volle Kontrolle über die Firmendaten haben, und Kommunikationsverläufe und Kontakte sicher löschen können, wenn ein Mitarbeiter ausscheidet. Gleichzeitig ist ihm keinerlei Zugang auf die privaten Informationen, wie Login- oder Tracing-Daten der Mitarbeiter, gestattet. Eine Containerlösung sichert das durch die strikte Trennung von beruflichen und privaten Daten ab.“ >>
Herausforderungen für die Cloud-Security
Auch die Cloud macht Unternehmen resilienter. Der Zugriff auf cloudbasierte Anwendungen und Daten ist praktisch von jedem Gerät mit Internetverbindung aus möglich. Durch die Entwicklung in der Cloud können Unternehmen ihre Anwendungen schnell auf den Markt bringen und dank vernetzter Sicherungen führen Hardwarefehler nicht mehr zu Datenverlusten.
Inzwischen ist die Cloud jedoch für viele Angriffe zum nachhaltigen Einfallstor geworden. Doch die Cloud-Strategien von Unternehmen werden immer konkreter: Mehr und mehr rückt die hybride Multi-Cloud in den Mittelpunkt der Überlegungen. Frank Fischer von Snyk definiert in seiner neusten Studie die Cloud demnach auch als „kollektives Sicherheitsrisiko“. Im Gespräch mit unserer Redaktion erklärt er: „Fehlkonfiguration ist eine Achillesferse der Cloud und laut einer unserer Studien für etwa die Hälfte aller Vorfälle mitverantwortlich. Für über 40 Prozent der Unternehmen ist die gestiegene Größe und Komplexität von Cloud-Konfigurationen ein Sicherheitsproblem, da Teams entsprechend durch Ausbildung oder mit Werkzeugen befähigt werden müssen.“
Für Anwendungsentwickler:innen kann es eine komplexe Aufgabe sein, alle verwendeten Codepakete zu erfassen. Noch schwieriger ist es für die Sicherheitsteams, Schwachstellen und Patches für alle Open-Source-Pakete im gesamten Unternehmen im Auge zu behalten. Wer die Tools von Snyk ausprobieren möchte, sollte sich z.B. die Live-Demo von Snyk Code anschauen, um den eigenen Entwicklern und Entwicklerinnen zu helfen, Software über dem gesamten Stack hinweg sicher zu erstellen – einschließlich Code, Open Source, Container, Kubernetes und IaC (Infrastructure as Code). >>
„ESG ist nicht nur einfach ein neuer Reporting-standard, sondern ein gesamtgesellschaftlicher Kraftakt.“
Resiliente Lieferketten?
Dirk Lörwink: „Wir konnten durch unsere intelligenten Planungstools die Produktion mit den Lieferengpässen in Einklang bringen.“
Unternehmen stehen ständig vor neuen Herausforderungen. Gerade die Lieferketten sind zunehmend unter Druck. Wie die digitale Transformation dazu beiträgt, Unternehmen in diesen schwierigen Zeiten zu unterstützen, hat unsere Redaktion mit Dirk Lörwink, von Gigaset und Ansgar Eickeler, von Board Deutschland besprochen. „Wir haben bei Gigaset zum Glück schon sehr früh angefangen, unsere Prozesse zu digitalisieren und eine integrierte Planung aufzubauen. Dazu haben wir im Jahr 2011 Board als intelligente Planungsplattform eingeführt. Im Laufe der Jahre konnten wir die Board-Plattform für die Bereiche Vertrieb, Qualität, Logistik, Beschaffung und Produktionsmanagement – alle mit Schnittstellen zum Finanzwesen – problemlos erweitern und anpassen. Auf diese Weise haben wir einen schnellen Überblick, wo wir im Unternehmen stehen und an welchen Stellschrauben wir drehen können“, erklärt uns Dirk Lörwink.
Wie bei vielen anderen Elektronikherstellern auch hat sich bei Gigaset insbesondere die mangelnde Verfügbarkeit von Mikrochips erheblich ausgewirkt. Da Gigaset jedoch über einen robusten Planungsprozess verfügt, war das Unternehmen in der Lage, neue Wege zu beschreiten und neue Prozesse zu entwickeln, die zuvor – ohne den Einfluss der Krise – gar nicht in Betracht gezogen wurden. „Dies ermöglicht uns neue, zukunftssichere Herangehensweisen. Das Planungsteam war zum Beispiel in der Lage, ein Zuordnungsprogramm zu erstellen, eine Stückliste zu laden und die Materialverfügbarkeit an jedem Produktionsstandort zu analysieren. Wir haben dann die Sichtweise um 180 Grad von einer vertriebsgesteuerten Planung zu einer Allokationsplanung gedreht und erhielten einen Report darüber, wie viel wir wo produzieren können. Auf diese Weise konnten wir die Produktion mit den Lieferengpässen in Einklang bringen und die vertrieblichen Anforderungen bestmöglich berücksichtigen“, verdeutlicht uns Dirk Lörwink. Das ausführliche Interview zum Thema „Intelligente Planung für resiliente Lieferketten“ finden Sie auf trendreport.de. >>
In unseren heutigen Zeiten, wird der Faktor Cyberresilienz für KRITIS-Unternehmen und uns überlebenswichtig.
Nachhaltigkeit und Digitalisierung
Keine Nachhaltigkeit ohne digitale Technologien. Zwei der großen Herausforderungen, auf die sich Unternehmen derzeit einstellen müssen – und welche durch Corona, Krieg und Energieknappheit weitere Dynamik und Nachdruck erhalten –, sind die zunehmende Digitalisierung unserer Gesellschaft und die politische Forderung nach einer nachhaltigen Wirtschaftsweise. Und so steht auch, angesichts der globalen Herausforderungen immer mehr im Fokus, wie ein ganzheitlicheres, resilienteres und damit nachhaltigeres Wirtschaften generiert werden kann. Ziel sollte es sein, dass Unternehmen die Digitalisierung als Instrument für nachhaltiges Wirtschaften zu nutzen verstehen.
„Durch Digitalisierung zu mehr Nachhaltigkeit“ sollte für alle Unternehmer:innen in Deutschland zum Leitmotiv werden. Auch zur Sicherung der Zukunftsfähigkeit Deutschlands und Europas werden Themen wie die digitale Souveränität, Nachhaltigkeit und die Schaffung resilienter Strukturen stark an Bedeutung gewinnen. Dies unterstreicht der Gesetzgeber aktuell mit den neuen ESG-Kriterien für große Unternehmen. >>
Unsere Reportage-Teilnehmer
ArbeitszeiterfassungsgesetzIntelligente Planung macht Lieferketten und Unternehmen resilientertern
Low-Code macht den Unterschied
Neue Nachhaltigkeitskultur
Ansgar Eickeler von Board
Erik Hufeld von Simplifier,
Jörg Plass von Wolters Kluwer
Angemessene Standards rund um Environmental, Social und Governance, kurz ESG, gewinnen im Hinblick auf die Unternehmensbewertung immer mehr an Bedeutung. Gleichzeitig steigt der regulatorische Druck auf mittelständische und große Unternehmen.
Um die notwendigen Daten zur Erfüllung aller Vorgaben schnell und einfach bereitzustellen, empfiehlt sich der Einsatz einer Corporate-Performance-Management- (CPM)-Lösung. CPM ist ein Überbegriff, der die Methoden, Metriken, Prozesse und Systeme beschreibt, die zur Überwachung und Verwaltung der Geschäftsleistung eines Unternehmens verwendet werden.
Anwendungen, die CPM ermöglichen, übertragen strategisch fokussierte Informationen in operative Pläne und senden aggregierte Ergebnisse. Um ESG-Kennzahlen zu entwickeln, müssen Unternehmen zahlreiche Informationen systematisch sammeln, erfassen und aufbereiten. Die Messung und Erhebung der dafür notwendigen Daten gestalteten sich oft sehr komplex, sodass der Aufwand zum Teil nicht mehr im Verhältnis zum finanziellen Nutzen steht.
Doch welche Anforderungen muss heute eine Softwarelösung für den ESG-und-Sustainability-Bereich im Kontext der aktuellen Regularien erfüllen?
Jörg Plass von Wolters Kluwer, Produktbereich CCH Tagetik, definiert es so: „Sie muss drei Dinge erfüllen: Sie muss die gängigen Standards und Regularien beinhalten, sie muss vom Hersteller ständig erweitert werden und sie muss ein hohes Maß an Flexibilität haben. Neben dem Reporting sollte die Software auch die Planung von ESG adressieren.
Darüber hinaus ist die Steuerung von Prozessen unerlässlich – und wir sprechen über weltweite Prozesse und eine Vielzahl von Systemen, die angebunden werden. Gleichermaßen sind es Funktionstiefe und Erweiterbarkeit, die den Wert der Lösung ausmachen.“ Bei Wolters Kluwer CCH Tagetik hat man die Projekterfahrung, relevante Daten weltweit zu sammeln, beliebig zu kalkulieren und sehr flexibel in Berichten darzustellen. „Datenlogistik, Prozesssteuerung sowie eine sichere und stabile Infrastruktur in der Cloud oder On-premises bieten wir seit vielen Jahren an und versorgen heute tausende Finanzabteilungen in Konzernen“, betont Jörg Plass.
Am Rand notiert:
Web3 und Metaverse
Make Web3 more beautiful: Das Metaverse verspricht eine grundlegende Transformation der Internetnutzung, wie wir sie heute kennen. Doch was steckt eigentlich dahinter? Die Beiträge aus der Verantstaltungsreihe von Hotwire und House of Beautiful Business beleuchten, welche Möglichkeiten sich für Geschäftsmodelle und neue Organisationsstrukturen wie dezentralisierte autonome Organisationen (DAO) ergeben. Der Leser erfährt, wie der Krypto-Markt reguliert wird und wie sich energie- und klimasichere, nachhaltige Lösungen für die Blockchain-Technologie gestalten lassen. Lesen Sie mehr unter: https://www.trendreport.de/make-web3-more-beautiful/
ESG ist nicht nur einfach ein neuer Reportingstandard, der uns von der EU verordnet wird. ESG ist ein gesamtgesellschaftlicher, politischer und ökonomischer Kraftakt in Bezug auf Deutschland, die EU und die gesamte Welt. Es geht um nicht weniger als unseren Wohlstand, vielleicht um unser Überleben.
„Meine These ist, Wachstum wird in Zukunft nur nachhaltig erfolgen können. Nicht nur Gesetze fordern ESG-Standards ein, sondern auch die Menschen. Es dürfte mittlerweile bei allen Unternehmen angekommen sein, dass neben gesetzlichen Vorgaben auch die Kapital- und Finanzierungskosten beeinflusst werden. In ein paar Jahren, wenn die Generation Z über das Geld verfügt, um in Aktien zu investieren, sind vermutlich ESG-Kriterien gleichwertig mit finanziellen Größen“, verdeutlicht Jörg Plass im Gespräch mit unserer Redaktion. >>
Am Rand notiert:
Resilienter werden
Können Unternehmen mehr Resilienz im Wettbewerb erreichen, indem sie mit den Mitteln der digitalen Transformation arbeiten? Wir haben uns umgehört und aufschlussreiche Antworten erhalten. Lesen Sie in kurzen Panels was Experten raten und gewinnen Sie neue Einblicke unter: https://www.trendreport.de/mehr-resilienz-durch-die-digitale- transformation/
Transformation durch Low-Code/No-Code
Unternehmen, die sich in Zukunft mit der App-Entwicklung beschäftigen wollen, sollten sich eine Low-Code/No-Code(LC/NC)-Entwicklungsstrategie zulegen. Neue datengetriebene Geschäftsmodelle können so schneller und kostengünstiger entwickelt werden. App-Lösungen, die mit Low-Code-Technologien erstellt wurden, nehmen meist schnell Fahrt auf, da Product Owner und Business-Entscheider:innen durch den Einsatz von Prototypen in der frühen Phase verständliche Investitionsnachweise sehen können.
Diese Prototypen führen oft dazu, dass man schnell grünes Licht für die Implementierung von Minimum Viable Products (MVP) bekommt, die wiederum das Wachstum und die Investitionen in den Prozess weiter vorantreiben. Low-Code-Lösungen helfen grundlegend bei der Zusammenarbeit zwischen allen Fachbereichen und der IT-Abteilung, insbesondere aufgrund ihrer visuellen Gestaltungselemente.
LC/NC-Lösungen fungieren als Wegbereiter für die Implementierung digitaler Technologien und den kulturellen Wandel für Mitarbeitende in allen Abteilungen des Unternehmens. Das ist ein grundlegender Bestandteil einer wirklichen digitalen Unternehmenstransformation.
Ebenso befeuert aktuell der Fachkräftemangel den Einsatz von LC/NC-Tools. Erik Hufeld von Simplifier ergänzt dazu: „Wir haben bei einer Studie von der Computerwoche mitgewirkt, in der die Unternehmenswelt befragt wurde. Für 71 % sind LC/NC -Applikationen von zentraler Bedeutung und damit strategisch ein wichtiger Baustein innerhalb der IT-Landschaft. 67% der Befragten, erwarten, dass der Einsatz für Software, die per LC/NC entwickelt wird, also die Plattform, innerhalb der nächsten drei Jahren in ihrem Unternehmen ausgebaut wird oder deutlich mehr Einsatzszenarien dafür aufgebaut werden.“
Am Rand notierte:
Pflicht zur Zeiterfassung
Das Arbeitszeit-erfassungsgesetz gilt: Im September 2022 hat sich das Bundesarbeitsgericht nun entschieden: Die Pflicht zur Zeiterfassung wird durchgesetzt. Dieses ist im BAG-Grundsatzurteil (1ABR 22/21) festgelegt. Mehr Informationen und was es jetzt zu tun gilt unter: https://www.trendreport.de/ Arbeitszeiterfassungsgesetz
Die digitale Transformation hat fast alle Unternehmen auf der ganzen Welt erfasst. Unternehmer:innen haben die Herausforderungen bereits aufgenommen und stehen mitten im Wandel. Aber unabhängig von technischer Ausstattung und New Work sowie den meisten Hard Skills, spielen bei der Transformation vor allem auch die passenden Soft Skills eine wichtige Rolle. Denn ohne das nötige Mindset bei Führungskräften ebenso wie bei den Mitarbeitenden oder bei Freelancern fehlt dem digitalen Wandel die Basis. Bleiben Sie neugierig. —
Im Interview erläutert Dr. Hermann Granzer, CTO von Materna Virtual Solution, wie eine sichere Kommunikation für mobile Endgeräte durch Container-lösungen gewährleistet werden kann.
Herr Granzer, welche Unterschiede machen Sie aus zwischen Container-Lösungen im Kontext üblicher Mobile-Device-Management-Strategien, wenn es um die Sicherheit mobiler Endgeräte im Unternehmensalltag geht?
Ein Container ist praktisch ein „digitaler Tresor“ für berufliche Daten auf einem mobilen Endgerät. Sie sind damit strikt getrennt von den privaten Daten und Apps, die daher keinerlei Zugang dazu bekommen können.
Mobile Device Management (MDM) dagegen ist ein meist sehr umfangreiches generelles Verwaltungs-Tool für Mobilgeräte ohne den exklusiven Fokus auf Datensicherheit. Daher ergänzen sich beide Lösungen vor allem dann, wenn es um hohe Sicherheitsanforderungen geht, wie etwa mobiles Arbeiten mit unternehmenskritischen Daten oder Verschlusssachen.
Dr. Hermann Granzer, CTO von Materna Virtual Solution
Für welche Einsatz-Szenarien ist „SecurePIM“ entwickelt worden?
Es geht um die Erfüllung gesetzlicher Vorgaben zum Datenschutz (DSGVO) beim mobilen Arbeiten. Die parallele Nutzung privater und beruflicher Apps auf dem gleichen Gerät beim mobilen Arbeiten ist mit einem hohen Sicherheitsrisiko verbunden, weil beispielsweise Messenger oder Social-Media-Apps ungeniert auf sensible Daten zugreifen. Die Container-Technologie von SecurePIM verhindert das. Damit ist es möglich, höchsten Anforderungen gerecht zu werden, etwa die sichere Bearbeitung von klassifizierten Verschlusssachen wie VS-NfD (VS-Nur für den Dienstgebrauch) oder NATO RESTRICTED.
„Ein Container ist praktisch ein „digitaler Tresor“ für berufliche Daten auf einem mobilen Endgerät.“
Gilt dies auch für Betreiber kritischer Infrastrukturen?
Unbedingt! Die dringliche Aktualität erleben wir ja gerade. Die Diskussion um die KRITIS-Security wird Fahrt aufnehmen, und die Sicherheit beim mobilen Arbeiten dabei ein Schlüsselthema sein. Darüber hinaus sollten wir die Behörden und Organisationen mit Sicherheitsaufgaben (BOS) nicht vergessen. Das BSI verpflichtet ja auch Polizei, Zoll, Feuerwehr oder Rettungsdienste wie das THW zur Einhaltung von IT-Sicherheitsstandards bei mobilen Einsätzen. Das muss und kann gelöst werden.
Welche Vorteile bieten Container-Lösungen, wenn es um die Sicherheit mobiler Endgeräte geht?
Auf einem Smartphone finden wir in der Regel einen Mix aus privaten und geschäftlichen, beziehungsweise dienstlichen Anwendungen und den dort genutzten Daten. Und das unabhängig davon, ob es sich um ein auch privat genutztes Dienst-Smartphone (COPE) oder ein auch beruflich eingesetztes Privat-Handy (BYOD) handelt. Damit ist ein hohes Sicherheitsrisiko verbunden, da viele Messenger-, Spiele- oder Social-Media-App die fatale Neigung haben, gezielt auf berufliche Daten und Kontakte zuzugreifen.
Eine Container-Lösung schiebt diesem unbefugten Datenzu- und abgriff einen massiven Riegel vor. Sie ist besonders sicher, weil sie berufliche Daten wie in einem „digitalen Tresor“ abschottet. Private Apps haben so keine Chance, sich in den professionellen Daten-Pools zu bedienen. Dazu kommen die Security-Vorteile beim mobilen Arbeiten in unsicheren Netzen und die durchgehende Datenverschlüsselung (Data in Rest und Data in Transit).
Welche rechtlichen Anforderungen und Regularien müssen Unternehmen beachten beim Thema Datenschutzgrundverordnung (DSGVO) und BYOD (Bring Your Own Device)?
Bei BYOD wird ein privates Smartphone für berufliche Zwecke genutzt, das komplementäre Pendant dazu ist wie erwähnt COPE (Corporate Owned, Personally Enabled), bei dem Diensthandys auch für den privaten Gebrauch eingesetzt werden dürfen.
Beide Varianten sind aus den besagten Gründen sicherheitskritisch und für beide gelten die gleichen gesetzlichen Vorgaben. Laut DSGVO muss ein IT-Administrator jederzeit die volle Kontrolle über die Firmendaten haben, und Kommunikationsverläufe und Kontakte sicher löschen können, wenn ein Mitarbeiter ausscheidet. Gleichzeitig ist ihm keinerlei Zugang auf die privaten Informationen, wie Login- oder Tracing-Daten der Mitarbeiter gestattet. Eine Container-Lösung sichert das durch die strikte Trennung von beruflichen und privaten Daten ab.
„Die Diskussion um die KRITIS-Security wird Fahrt aufnehmen, und die Sicherheit beim mobilen Arbeiten dabei ein Schlüsselthema sein.“
Welche Einsparpotentiale können im Hinblick auf übliche Mobile-Device-Management-Lösungen generiert werden?
SecurePIM ersetzt keine MDM-Lösung, aber sie erleichtert das Security-Management und erhöht das Sicherheitsniveau. Die Entlastungen, und damit indirekt die Kosteneinsparungen, erfolgen auf zwei Ebenen. Für die IT-Administration wird das gesamte Aufgabengebiet der Erfüllung rechtlicher Datenschutzvorgaben und der Gewährleistung der praktischen Datensicherheit vereinfacht.
Ein eigenes Gateway sorgt für raschen Zugriff über das Mobilgerät auf die interne Infrastruktur wie E-Mail-Server, Intranet-Anwendungen oder Filesharing, ganz ohne umständliche VPN-Verbindung. Aus Sicht der Mitarbeiter ist das ein Komfort, der die Akzeptanz für Security-Maßnahmen enorm erhöht. Das wiederum erhöht die Arbeitseffizienz, die je nach Unternehmen und Anwendungsgebiet unterschiedlich ausfällt.
Wie lange dauert die Implementierung bis Unternehmen starten können und wie funktioniert der Roll-Out im Kontext Ihrer Container-Technologie?
SecurePIM ist sowohl für Administratoren als auch für Anwender einfach zu nutzen. Es wird nur ein einziges Mal von der IT konfiguriert und dann verteilt. Danach muss nur noch bei neuen, respektive ausscheidenden Mitarbeitern eingegriffen werden. Aus Nutzersicht wird die App einmal installiert, der Registrierungscode eingeben und schon kann er sicher mobil arbeiten, egal ob auf einem dienstlichen oder privaten Mobilgerät. Updates erfolgen automatisiert und für alle Nutzer gleichzeitig. Damit ist gewährleistet, dass alle Geräte jederzeit auf dem gleichen Release-Stand sind und es keine Sicherheitslücken gibt.
Warum setzen gerade Bundes-, Landes- & Kommunalbehörden auf Ihre Lösung und welche Herausforderungen mussten Ihrerseits gemeistert werden, um die Anforderungen zu gewährleisten?
Die erwähnten Behörden haben oft besonders hohe Sicherheitsanforderungen. So werden in vielen Bundesbehörden klassifizierte Verschlusssachen bis hin zur Geheimhaltungsstufe VS-NfD (VS-Nur für den Dienstgebrauch) auch mobil bearbeitet. Die Container-Technologie ist für diese anspruchsvollen Sicherheitsstandards ideal. Deshalb hat beispielsweise unsere Systemlösung SecurePIM Government SDS die Zulassung für den Einsatz bei klassifizierten Verschlusssachen der Geheimhaltungsstufe NATO RESTRICTED für iOS-Geräte erhalten, die der deutschen Geheimhaltungsstufe VS-NfD entspricht.
Darüber hinaus besitzt SecurePIM ein Set hochsicherer, ebenfalls Container-geschützter Kommunikations- und Kollaborations-Tools für E-Mail-, Kalender-, Adress- und Notizfunktionen, einen gehärteten Browser für webbasierte Fachanwendungen im Intranet und einen eigenen Messenger inklusive verschlüsselter Telefoniefunktion für Einzel- und Gruppenchats, Video-Telefonie, Sprachanrufe und Dokumentenversand.
Die TREND-REPORT Redaktion spricht mit Andreas Hoogendijk und Emanuel Hoch, Founder und Co-Founder von Compado, über Contextual Advertising und die effizienteNeukundengewinnung in Krisenzeiten.
Herr Hoogendijk, was versteht man unter „Contextual Advertising“?
Contextual Advertising bezeichnet die Platzierung von digitaler Werbung in thematisch passenden Umfeldern. Als “Umfeld” bezeichnet man den Inhalt, den sich ein Nutzer ansieht, z.B. ein Artikel oder Video. Wer einen Artikel über Superfood liest, hat vermutlich Interesse an gesunder Ernährung. Im Contextual Advertising liest eine Technologie das Umfeld aus; kommt bspw. eine bestimmte Wort-Kombination vor, erkennt die Technologie ein „Thema“. Werbetreibende können nun in diesem Umfeld Werbung buchen. Bei den meisten Lösungen läuft das manuell ab: Der Werbetreibende muss die Werbung selbst buchen. Bei uns ist das anders: Wir präsentieren unsere Partner-Brands automatisiert und kostenlos in thematisch passenden Umfeldern. Wir sorgen dafür, dass Marken in passenden Umfeldern präsentiert werden, und das sofort, ohne manuellen Buchungsprozess.
Andreas Hoogendijk (li.) weiß: „Contextual Advertising ist die Werbung der Zukunft .“ Emanuel Hoch: „Künstliche Intelligenz und Machine Learning sind mittlerweile unersetzbar und ermöglichen die Durchführung des modernen Contextual Advertising.“
Herr Hoogendijk, welche Kontexte sind besonders wertvoll und interessant?
Eine Grundidee von Contextual Advertising ist, für jedes Umfeld eine thematisch passende Werbung auszuspielen. Theoretisch gibt es also keine wertlosen Umfelder. „Wert“ ergibt sich immer dann, wenn man zu dem, was der Nutzer gerade betrachtet, eine passende Werbung ausspielen kann. Während der eine Kontext bspw. für die Bewerbung von Kochboxen geeignet ist, ist ein anderer Kontext prädestiniert für die Bewerbung von Tierversicherungen. Mit unseren Technologien können wir jedes Umfeld mit thematisch passender Werbung ausstatten. Finden wir ein passendes Umfeld für eine unserer Partner-Brands, präsentieren wir die Marke dort mithilfe einer unserer diversen Benutzeroberflächen. Wer z.B. einen Artikel über das Kochen in der Mittagspause liest, findet in dem Artikel vermutlich eine von uns bereitgestellte Rangliste von Kochbox-Anbietern.
Herr Hoch, welche Rolle spielen dabei die neuen Technologien rund um KI und ML?
Für Contextual Advertising – also das automatisierte Interpretieren von Umfeldern und eine darauf abgestimmte Ausspielung von Werbung – sind Künstliche Intelligenz und Machine Learning mittlerweile unersetzbar. Ohne sie geht es nicht. Beide fungieren als “Enabler”: Sie ermöglichen die Durchführung des modernen Contextual Advertising, das abertausende Inhalte interpretieren und mit passender Werbung ausstatten kann, überhaupt erst. Sie können sich das so vorstellen: Es gibt Unmengen an Inhalten im Web. Würde man diese nun ohne Technologien auslesen und kategorisieren wollen, wäre dies quasi unmöglich. Die Technologie ermöglicht es uns, die Inhalte zu erfassen und die KI schafft es, diese zu interpretieren, zu kategorisieren und wählt dann das passende Werbemittel aus. Wer im heutigen Internet eine Vielzahl von Inhalten auswerten möchte, kommt an Machine Learning und Artificial Intelligence nicht vorbei.
„Pay-per-Customer kann in Krisenzeiten für die nötige Sicherheit sorgen.“
Herr Hoch, wie können Unternehmen Ihre Contextual-Targeting-Lösung für sich nutzen?
Contextual Advertising hilft unterschiedlichen Parteien und ist in dem Sinne mehr als nur eine Werbelösung. Zum einen gibt es die Inhalte-Ersteller, häufig auch Publisher genannt. Hier können Sie sich News-Seiten verschiedener Medienhäuser, aber auch kleinere Blogs vorstellen. Inhalte-Ersteller, neudeutsch Content Creator, stehen vor der Herausforderung, mit ihren Inhalten Geld zu verdienen. Dabei helfen wir: Wenn wir kontextbasierte Werbung auf einem Publisher ausspielen, sorgen wir dafür, dass diese möglichst gut zu den Inhalten passt, und der Publisher somit seinen Inhalt monetarisieren kann. Auf der anderen Seite stehen Werbetreibende: Marken, die ihre Bekanntheit steigern wollen oder Neukunden finden möchten. Denen helfen wir, indem wir die Zielgruppen dort ansprechen, wo sie sich aufhalten, bei themenrelevanten Inhalten oder dem aktiven Suchen danach. Unsere Werbekunden bezahlen dabei rein erfolgsbasiert, also nur für den Kunden, der sich tatsächlich anmeldet oder kauft. Somit arbeiten wir entlang der gesamten Wertschöpfungskette des Online-Marketings, von der Monetarisierung von Inhalten bis zur Konvertierung des Neukunden.
Herr Hoogendijk, welche Rolle spielt Contextual Advertising für den Nutzer und das Internet an sich?
Das Internet befindet sich im Umbruch: Chrome, der meistverbreitete Browser, verbannt in 2024 Third-Party-Cookies. Cookies wurden bisher zur Nutzer-Wiedererkennung verwendet. Es war bspw. möglich, auszulesen, auf welchen Webseiten ein Nutzer vorher war. Diese Möglichkeit gibt es bald nicht mehr: ohne Cookies gibt es keine Nutzer-Wiedererkennung. Ferner gewinnt Privacy rasant an Bedeutung. Endgeräte verbieten zunehmend das Tracking und neue Gesetze steuern in Richtung Stärkung der Privatsphäre. Vor diesem Hintergrund lässt sich sagen: Contextual Advertising ist die Werbung der Zukunft. Eine Werbung, die Privatsphäre unterstützt. Denn die Werbung basiert darauf, was der Nutzer sieht und nicht darauf, was man über den Nutzer weiß. Für den Nutzer ist das positiv: thematisch passende Werbung von vertrauenswürdigen Marken, bei maximalem Schutz der Privatsphäre.
Was ist Contextual Advertising?
Kontextbezogene Werbung bezeichnet die Platzierung von digitaler Werbung in thematisch passenden Umfeldern. Inhalte wie Text, Sprache, Bilder und Geolocation werden mit KI und Deep-Learning-Algorithmen in Echtzeit (Contextual Targeting) analysiert, um Nutzern eine am konsumierten Inhalt ausgerichtete Anzeige zu liefern. Mar keting ent scheider:innen müssen sich damit nicht mehr auf Cookies oder Verhaltenssignale verlassen, um relevante Werbung zu schalten und erhalten mit Contextual Marketing eine echte Alternative zu Third Party Cookies, um Ihre Zielgruppen zu adressieren.
Herr Hoogendijk, welche wertorientierten Marken konnten Sie bisher mit Ihrer Technologie und Ihrer Plattform unterstützen?
Es stimmt, dass wir auf Value-Driven Brands bzw. wertorientierte Marken spezialisiert sind. Das heißt, nicht alle Marken, die sich für unsere Plattform anmelden, werden gleich häufig präsentiert. Wir bevorzugen Marken, die zu den führenden Anbietern in ihrer Industrie gehören und das auch beweisen können, z.B. durch einen hohen Kundenwert. So arbeiten wir in der Regel mit führenden Marken zusammen. Wir präsentieren bspw. die Sprachlern-App Babbel in Kontexten, die zum Lernen von neuen Sprachen passen oder die Kochbox-Marke Hello Fresh in Kontexten rund um gesunde Ernährung; die Audio Book-Ikone Audible wiederum in Umfeldern für digitales Audio-Entertainment. Alle unsere Partner-Brands profitieren dabei von unserer enormen Reichweite und der generierten Brand Awareness, die wir übrigens nicht in Rechnung stellen. Bei uns Zahlen Marken nur eine Erfolgsprovision für gewonnene Neukunden.
Herr Hoch, gibt es momentan überhaupt eine krisensichere Erfolgsformel für das Online-Marketing?
Krisenstimmung herrscht nun schon seit Monaten, zudem stehen immer mehr Unternehmen vor gravierenden wirtschaftlichen Schwierigkeiten. In solchen Zeiten ist es wichtig, kosteneffizient zu arbeiten und dennoch das Marktumfeld zu nutzen, um, wenn möglich, günstiger an Neukunden zu kommen. Für mich bedeutet das, jetzt verstärkt auf Performance Marketing zu gehen – also auf ein Marketing, bei dem die Erfolge der Werbung exakt gemessen und kontinuierlich optimiert werden können. Dafür ist es wichtig, die gesamte User-Journey so messbar wie möglich zu machen, um zu erkennen, wo potenzielle Nutzer abspringen. Wir merken auch, dass immer mehr unserer Kunden verstehen, wie wertvoll ein solcher Kanal ist, da man nur einen fixen Preis pro Neukunden bezahlt und keinerlei Overhead-Kosten im eigenen Marketing-Team hat.
Herr Hoch, die Online-Marketing-Branche steht aufgrund des baldigen Stopps der Third Party Cookies auf Chrome vor großen Veränderungen. Wie sollten z.B. Verlage und Medienhäuser jetzt reagieren?
Gerade Medienhäuser haben es sich zuletzt zur Gewohnheit gemacht, mithilfe von Third-Party-Cookie Werbelösungen Geld zu verdienen. Denken Sie bspw. an Werbung, die Ihnen immer wieder die zuletzt im Warenkorb zurückgelassene Kleidung oder Rückholangebote vorher besuchter Webseiten zeigt. Ob die Werbung zum Thema passte, stand selten zur Debatte. Dass Werbung zukünftig nicht mehr daran ausgerichtet ist, was in einem Dateischnippsel, einem Cookie, so alles gespeichert ist, sondern an konsumierten Inhalten, wird das “New Normal”. Medienhäuser sollten sich Contextual Advertising Partner suchen oder selber wieder näher mit inhaltsnahen Anzeigenkunden zusammenarbeiten. Die Verbesserung der Nutzererfahrung, kombiniert mit der richtigen Technologie, wird dabei helfen, die anstehenden Umbrüche zu meistern. Wir, als Contextual-Partner, fokussieren uns dabei auf Relevanz und deren automatisierte Erkennung – und arbeiten daran, diesen Ansatz kontinuierlich zu verbessern. Nur so konnten und können wir langfristig in einem Marktumfeld erfolgreich sein, dass nur am Erfolg der Werbekunden gemessen wird.
Herr Hoogendijk & Herr Hoch, welche Ziele haben Sie sich, im Hinblick auf das momentan anspruchsvolle Marktumfeld, für dieses Jahr noch gesteckt?
Andreas Hoogendijk: Wir werden bis Ende des Jahres circa 10 neuen Industrien Zugriff auf unsere Plattform gewähren. Über unsere Plattform können Marken kaufbereite Zielgruppen erreichen: Sprich, wir präsentieren unsere Partner-Brands in thematisch passenden Umfeldern immer genau dort, wo sich Nutzer mit Kaufinteresse informieren. Wer unsere Tech-Plattform ausprobieren möchte, kann sich gerne bei uns melden. Auch wenn der Andrang groß ist, ein offenes Ohr haben wir immer! Kommt es zu einem Kauf, berechnen wir lediglich eine Erfolgsprovision. Gerade diese Art der Bewerbung ist ungemein krisenfest und risikofrei. Obwohl im Werbemarkt also zurzeit die Werbebudgets sinken, verzeichnen wir keine Budgetrückgänge. Logisch, niemand würde einen Werbekanal kürzen, in dem lediglich eine Erfolgsprovision gezahlt werden muss.
Emanuel Hoch: Für mich als technischer Leiter wird es ein Schwerpunkt sein, die Themenfelder, die wir bisher abdecken, zu erweitern. Bisher können wir zwar viele Umfelder mit thematisch passender Werbung ausstatten, sind aber immer noch auf bestimmte Industrien begrenzt. Diese Begrenzung aufzulösen und über Netzwerke mit sämtlichen Nischen arbeiten zu können, soll bis Ende des Jahres erreicht werden. Unser Ziel ist es, jedes thematische Umfeld mithilfe von passgenauer Werbung zu unterstützen. Zudem erhalten unsere Partner-Brands bis zum Ende des Jahres ein Cockpit, also einen Login Bereich, in dem Werbetreibende relevante Daten einsehen und nachvollziehen können und somit ihre Erfolgsprovisionen überwachen und steuern können.
Hintergründe:
Pay-per-Customer
Für Werbetreibende ist die Plattform von Compado ein lukratives Modell, denn sie zahlen nach dem Pay-per-Customer- Prinzip, sprich nur für gewonnene Neukunden und Neukundinnen. Mit seiner innovativen Technologie und dem transparenten Vergütungsmodell konnte das Berliner Unternehmen bereits viele namhafte Unternehmen aus verschiedenen Branchen gewinnen, darunter die bekannte E-Learning-Plattform Babbel und den internationalen Hörbuchanbieter Audible. Seit 2020 gehört auch HelloFresh zum Kundenstamm des Tech-Unternehmens.
Wer wir sind?
Die Compado GmbH ist einer der weltweit führenden Spezialisten für digitale Neukundengewinnung und wurde 2017 als Software-Start-up von Andreas Hoogendijk und Emanuel Hoch in Berlin gegründet. Mittels Machine Learning und Contextual-Targeting-Lösungen entwickelt das Unternehmen unterschiedliche Technologien und digitale Benutzeroberflächen zur datengestützten Markenempfehlung und Neukundengewinnung.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Foto von Mikael Blomkvist: https://www.pexels.com/de-de/foto/kreativ-schreibtisch-buro-computer-6476567/
https://trendreport.de/wp-content/uploads/2023/10/pexels-mikael-blomkvist-6476567-scaled-e1698162340364.jpg12451706Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2022-10-25 08:32:002023-10-24 17:45:49Wissen was der Kunde morgen will
Im Interview erläutert Dr. Hermann Granzer, CTO von Materna Virtual Solution, wie eine sichere Kommunikation für mobile Endgeräte durch Containerlösungen gewährleistet werden kann.
Eine neue Herangehensweise für hoch sichere und ultramobile Arbeitsumgebungen auf Smart Devices sind Containerlösungen, die das Mobile Device Management (MDM) in Unternehmen wesentlich sicherer gestalten. „Ein Container ist praktisch ein ‚digitaler Tresor‘ für berufliche Daten auf einem mobilen Endgerät. Sie sind damit strikt getrennt von den privaten Daten und Apps, die daher keinerlei Zugang dazu bekommen können“, verdeutlicht uns Hermann Granzer eingangs unseres Gesprächs.
Für den Chief Technology Officer geht es auch um die Erfüllung gesetzlicher Vorgaben, wie die der Datenschutz-Grundverordnung (DSGVO), beim mobilen Arbeiten. „Die parallele Nutzung privater und beruflicher Apps auf dem gleichen Gerät beim mobilen Arbeiten ist mit einem hohen Sicherheitsrisiko verbunden, weil beispielsweise Messenger oder Social-Media-Apps ungeniert auf sensible Daten zugreifen. Die Containertechnologie von SecurePIM verhindert das“, erklärt er.
„Die Diskussion um die KRITIS-Security wird Fahrt aufnehmen, und die Sicherheit beim mobilen Arbeiten dabei ein Schlüsselthema sein.“
Die Containerlösung erfüllt laut Hermann Granzer die höchsten Anforderungen, wie etwa die sichere Bearbeitung von klassifizierten Verschlusssachen wie VS-NfD (VS-Nur für den Dienstgebrauch) oder „Nato Restricted“. In diesem Kontext gehören zur Kundenstruktur von Materna Virtual Solution schon hunderte Bundes-, Landes- und Kommunalbehörden.
Auf unsere Frage hin, ob die Lösung zudem auch für Betreiber kritischer Infrastrukturen (KRITIS) geeignet wäre, ergänzt Hermann Granzer: „Unbedingt. Die dringliche Aktualität erleben wir ja gerade. Die Diskussion um die KRITIS-Security wird Fahrt aufnehmen, und die Sicherheit beim mobilen Arbeiten dabei ein Schlüsselthema sein. Darüber hinaus sollten wir die Behörden und Organisationen mit Sicherheitsaufgaben (BOS) nicht vergessen. Das BSI verpflichtet ja auch Polizei, Zoll, Feuerwehr oder Rettungsdienste wie das THW zur Einhaltung von IT-Sicherheitsstandards bei mobilen Einsätzen. Das muss und kann gelöst werden.“
https://trendreport.de/wp-content/uploads/2022/10/mobile-7727017_640.jpg427640Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2022-10-25 08:20:002023-11-08 16:42:33Sicherheit: Containerlösungen für mobile Endgeräte
Jörg Plass, Director Operations DACH bei Wolters Kluwer, spricht mit unserer Redaktion über das Thema „ESG und Sustainability“ im Kontext der aktuellen Regularien und Anforderungen.
Herr Plass, welche Bedeutung haben die Themen ESG-Compliance bzw. ESG-Reporting für Unternehmen und auf was müssen sich Konzerne einstellen?
Jedes Unternehmen wird sich mit dem Thema ESG beschäftigen. Die Gründe können gesetzliche Vorschriften sein (EU-Taxonomie, die geplante CSRD Richtlinie), Gründe können aber auch in einer „freiwilligen“ Berichterstattung nach den gängigen ESG-Standards (GRI, SASB oder andere) gegeben sein. Das Thema ist jedoch weit mehr als eine Vorgabe – ESG ist die strategische Größe für Unternehmen, wenn es um die Geschäftsmodelle der Zukunft geht, ein ökonomisches sowie politisches Thema, kurz, ein „Überlebensthema“.
Welche Anforderungen muss eine Softwarelösung für den Bereich „ESG und Sustainability“ im Kontext der aktuellen Regularien erfüllen?
Sie muss drei Dinge erfüllen: Sie muss die gängigen Standards und Regularien beinhalten, sie muss vom Hersteller ständig erweitert werden und sie muss ein hohes Maß an Flexibilität haben. Neben Reporting sollte die Software auch die Planung von ESG adressieren. Darüber hinaus ist die Steuerung von Prozessen unerlässlich –und wir sprechen über weltweite Prozesse und eine Vielzahl von Systemen, die angebunden werden. Gleichermaßen sind es Funktionstiefe und Erweiterbarkeit, die den Wert der Lösung ausmachen.
„ESG ist die strategische Größe, wenn es um die Geschäftsmodelle der Zukunft geht.“
Jörg Plass, Director Operations DACH bei Wolters Kluwer
Wie und durch welche Features, kann Ihre Lösung dabei helfen, eine langfristige Nachhaltigkeitskultur im Unternehmen zu verankern?
Finanzkennzahlen beeinflussen die Kultur von Konzernen seit langer Zeit, Geschäftsmodelle, Vorgaben und Ziele werden daraus abgeleitet. Das beeinflusst das Handeln und Denken. Durch ESG werden neue Perspektiven auf das Unternehmen zum Standard. Investoren, Partner und Mitarbeitende haben nun Kenntnisse in Bezug auf Nachhaltigkeit, soziale Aspekte sowie Compliance. Ein Rating ist der konsequente nächste Schritt.
Diese veränderte Perspektive, die neuen Vorgaben sowie die erweiterte externe Bewertung verändern die Kultur. ESG ist ein neuer Steuerungsaspekt, der sehr gut in die Tradition von Wolters Kluwer CCH Tagetik hineinpasst. Steuerung heißt zunächst Reporting, dann jedoch auch Planung sowie eine erfolgreiche Maßnahmensteuerung. Mit CCH Tagetik kann hierfür eine einheitliche Plattform etabliert werden. Der CFO kann jederzeit seine Finanz- sowie die ESG-Daten sehen und auf deren Basis steuern.
Können Simulationen durchgeführt werden, um diverse ESG-Szenarien und ihre Auswirkungen einzuschätzen?
Im Zuge einer erfolgreichen Konzernsteuerung sind Simulationen ein wesentlicher Baustein. Wolters Kluwer CCH Tagetik stellt dafür umfangreiche Funktionen zur Verfügung, die in schicken Berichten dargestellt werden.
Einen Konzern zu simulieren bedeutet, das gesamte Zahlenmaterial mit alternativen Annahmen zu versehen, also die Strukturen und Modelle zu verändern. Über die Simulation hinaus verfügt die Software über eine Maßnahmen- und Vorgabensteuerung. Simulierte Modelle werden dann häufig zur Planvorgabe.
Über den Interviewpartner:
Jörg Plass ist Experte für CPM-Lösungen, speziell für Konzernrechnungslegung und Finanzplanung, und seit 25 Jahren in dem Bereich tätig.
Seit 2010 arbeitet er im Tagetik Ecosystem, u. a. als Director Pre-Sales in der Region Central & Nordic. Seit Januar 2022 ist Jörg Plass als Director Operations DACH tätig.
Wie sollten Unternehmen vorgehen, um kurzfristige finanzielle Performance mit langfristiger Nachhaltigkeit in Einklang zu bringen?
Kurzfristige finanzielle Performance ist überlebensnotwendig. Gleichwohl wird ein Umdenken bei Investoren und Finanzinstituten in Bezug auf die Bewertung stattfinden. Hoher Gewinn bei schlechter Nachhaltigkeit wird die Kapitalkosten erhöhen und damit den Gewinn schmälern, Reputation sowie die Neigung, in das Unternehmen zu investieren, sinken. ESG-Investitionen werden zukünftig wie anderen Investitionen in Maschinen oder Standorte bewertet. Der SASB-Standard trägt dieser Sichtweise bereits heute Rechnung.
Welche Voraussetzungen benötigen Unternehmen, um mit Ihrer Lösung zu starten? Welche Schnittstellen bringen Sie mit? Gibt es Updates und Aktualisierungen im Sinne zukünftiger Gesetzeslagen?
Wolters Kluwer CCH Tagetik verfügt über eine offene Architektur, wodurch eine Anbindung an Vorsysteme möglich ist. Bei unseren Kunden sehen wir häufig viele unterschiedliche Systeme, in denen die Daten gespeichert sind. Die Prozesse rund um ESG sind gut vergleichbar mit anderen CPM-Prozessen, sodass keine besonderen Voraussetzungen notwendig sind. Wir verfügen über Fachexperten, darüber hinaus arbeiten wir mit den Big Four und Boutique-Partnern zusammen. Die Lösung wird von uns weiterentwickelt.
Unternehmen stehen ständig vor neuen Herausforderungen. Gerade die Lieferketten sind zunehmend unter Druck. Wie digitale Transformation dazu beiträgt, Unternehmen in diesen schwierigen Zeiten zu unterstützen, erläutern Dirk Lörwink, Head of IT Business Applications und Supply-Chain-Experte bei Gigaset und Ansgar Eickeler, General Manager Central & Eastern Europe bei Board International in unserem Interview.
Eine Maßnahme gegen Engpässe in der Produktion ist neben einer diversifizierten Einkaufspolitik auch die Digitalisierung der zugehörigen Prozesse – integriert mit dem Finanzwesen, stellt Dirk Lörwink im Interview dar.
Welche sind die größten Herausforderungen in der Supply-Chain, vor denen Unternehmen derzeit stehen? Dirk Lörwink:Die Herausforderungen sind bei allen Unternehmen wahrscheinlich sehr ähnlich. Wir haben immer noch mit brüchigen Lieferketten zu kämpfen, was gerade die Logistik vor besondere Anforderungen stellt. Sollte es durch die derzeitige Energiekrise zu weiteren Produktionsausfällen oder auch zu Problemen im Transportbereich kommen, wird sich die Lage noch verschärfen. Ansgar Eickeler: Ich spreche häufig mit unseren Kunden, die ja aus den verschiedensten Branchen kommen. Und fast alle bestätigen mir, was Dirk Lörwink gerade gesagt hat. Das Schlimme ist, dass die Engpässe zu Problemen in allen Bereichen führen. Stehen nicht genug Vorprodukte zur Verfügung, beeinträchtigt das die Produktion und den Vertrieb. Es reicht bereits, wenn nur ein wichtiges Teil nicht zur Verfügung steht. Die größten Auswirkungen haben dabei wahrscheinlich die Mikrochips, die heutzutage in fast allen Produkten benötigt werden. Etwa 60 % davon kommen allein aus Taiwan. Was es bedeutet, wenn es hier zu Problemen kommt, kann sich jeder ausmalen.
Wie wappnet man sich am besten gegen diese Engpässe? Dirk Lörwink: Es gibt ein paar bewährte Maßnahmen in der Supply-Chain, die dem Materialmangel entgegenwirken. Dazu gehört sicherlich, dass man seine Einkaufspolitik diversifiziert und verschiedene Anbieter für seine Vorprodukte hat. Dies hat in der Vergangenheit gut funktioniert, wenn mal einzelne Anbieter ausgefallen sind. Bei einer so breiten Krise, die fast alle produzierenden Unternehmen irgendwie betreffen, stoßen wir da aber manchmal an die Grenzen. Wir haben bei Gigaset zum Glück schon sehr früh angefangen, unsere Prozesse zu digitalisieren und eine integrierte Planung aufzubauen. Dazu haben wir im Jahr 2011 Board als intelligente Planungsplattform eingeführt. Im Laufe der Jahre konnten wir die Board-Plattform für die Bereiche Vertrieb, Qualität, Logistik, Beschaffung und Produktionsmanagement – alle integriert mit dem Finanzwesen – problemlos erweitern und anpassen. Auf diese Weise haben wir einen schnellen Überblick, wo wir im Unternehmen stehen und an welchen Stellschrauben wir drehen können. Ansgar Eickeler: Viele Studien bestätigen, dass Unternehmen, die früh mit der digitalen Transformation begonnen haben, heute besser dastehen als die Unternehmen, die noch zögern. Sie können heute auf einen großen Datenschatz zurückgreifen, der ihnen jetzt dabei hilft, die richtigen Entscheidungen zu treffen. Sie können Analysen fahren und Szenarien simulieren, die ihnen wichtige Anhaltspunkte geben.
Wie muss ich mir den operativen Einsatz der Planungslösung bei Gigaset vorstellen? Dirk Lörwink: Die Landesgesellschaften nutzen Board u.a. für ihre monatliche Absatzplanung. Die Planung wird rollierend für zwölf Monate hinterlegt und berücksichtigt neben den Rolling Order Forecasts (ROF) auch Sonderaktionen oder die Markteinführung neuer Produkte. Die Ergebnisse der ROF-Planung werden in Deutschland zentral durch das Supply-Chain-Team konsolidiert und überprüft. Daraus wird zum einem die Basis für den Umsatz-Forecast geschaffen. Zum anderen übernimmt das Team diese Daten und erstellt auf deren Grundlage eine strategische Planung. Diese dient der gesamten Lieferkette von der Beschaffung bis hin zur Produktionssteuerung als Basis. Dafür werden die Daten in in die Disposition und Produktionsplanung zurückgeschrieben. In einem weiteren Schritt verteilt die SCM je nach Kundenverhalten die Monatsbedarfe auf Wochen und übergibt dies ebenfalls an das ERP. Die Ergebnisse werden als Grundlage sowohl für den monatlichen Financial Forecast als auch die jährliche Budget-Planung genutzt. Hierfür werden zu den geplanten Mengen die entsprechenden Preise und Herstellkosten der Produkte entweder aus dem ERP in die Board-Plattform geladen oder, falls noch nicht vorhanden, in Board festgelegt und später in das ERP zurückgespielt. Ansgar Eickeler: Dies ist ein wunderbares Beispiel dafür, welchen Nutzen integrierte Businessplanung für Unternehmen bringt. Vorher existierende Silos werden aufgebrochen und durch die gemeinsame Nutzung der Daten – in diesem Fall von Vertrieb, Produktion und Supply-Chain – können diese Daten leicht miteinander in Beziehung gebracht werden. Das vereinfacht die gemeinsame Planung erheblich, verbessert das Verständnis der verschiedenen Bereiche füreinander und erhöht die Transparenz und Reaktionsfähigkeit über das gesamte Unternehmen.
„Die Zeit ist reif für neue, intelligente Planungslösungen, die dabei unterstützen, wirklich smart zu planen, die Ergebnisse zu verbessern und die Transformation aktiv zu gestalten“, fordert Ansgar Eickeler.
Wie hilft die intelligente Planung konkret dabei, die Folgen der aktuellen Lieferengpässe abzumildern? Dirk Lörwink:Wie bei vielen anderen Elektronikherstellern auch hat sich bei Gigaset insbesondere die mangelnde Verfügbarkeit von Mikrochips erheblich ausgewirkt. Da wir jedoch über einen robusten Planungsprozess verfügen, waren wir in der Lage, neue Wege zu beschreiten und neue Prozesse zu entwickeln, die zuvor – ohne den Einfluss der Krise – gar nicht in Betracht gezogen wurden. Dies ermöglicht uns neue, zukunftssichere Herangehensweisen. Das Planungsteam war zum Beispiel in der Lage, ein Zuordnungsprogramm zu erstellen, eine Stückliste zu laden und die Materialverfügbarkeit an jedem Produktionsstandort zu analysieren. Wir haben dann die Sichtweise um 180 Grad von einer vertriebsgesteuerten Planung zu einer Allokations-Planung gedreht und erhielten einen Report darüber, wie viel wir wo produzieren können. Auf diese Weise konnten wir die Produktion mit den Lieferengpässen in Einklang bringen und die vertrieblichen Anforderungen bestmöglich berücksichtigen. Ansgar Eickeler:Ich bin immer wieder begeistert, wie unterschiedlich die Board-Plattform bei unseren Kunden im Einsatz ist. Das zeigt die Flexibilität unserer Lösung. Und die wiederum scheint die Kreativität unserer Kunden zu beflügeln. Wir freuen uns, wenn wir unseren Kunden helfen können, besser durch diese herausfordernden Zeiten zu kommen. Denn die derzeitigen Disruptionen im Markt machen es den Unternehmen zunehmend schwer, intelligente Entscheidungen zu treffen und für eine ungewisse Zukunft zu planen. Dies wird durch langsame, fehleranfällige und undurchsichtige Planungsprozesse und Systeme noch verschärft, die nicht in der Lage sind, wichtige Erkenntnisse für die Entscheidungsfindung zu liefern. Die Planung muss also auf den Prüfstand gestellt werden. Die Zeit ist reif für neue, intelligente Planungslösungen, die dabei unterstützen, wirklich smart zu planen, die Ergebnisse zu verbessern und die Transformation aktiv zu gestalten.
Wer mehr über den Einsatz von Board bei Gigaset erfahren möchte, findet hier eine interessante Case-Study.
https://trendreport.de/wp-content/uploads/2022/10/financial-consolidation-reporting-software-screen.jpg9331888Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2022-10-25 07:50:002022-10-24 16:14:36Intelligente Planung macht Lieferketten und Unternehmen resilienter
Frank Fischer von Snyk stellt im Interview neue Tools und Strategien für Codeanalyse und Cloud-Sicherheit vor.
Herr Fischer, Sicherheitslücken, Datensilos und Fehlkonfigurationen kosten Unternehmen bares Geld – von der Reputation ganz abgesehen. Wie kann Ihre Lösung helfen? Was kann man sich unter Ihrer Plattform vorstellen? Aus unseren Studien wissen wir, dass weit über 60 Prozent der befragten Organisationen in den letzten 12 Monaten einen wesentlichen Sicherheitsvorfall hatten. Snyk hat sich auf das Thema Absichern von Cloud Applikationen spezialisiert und bietet führende Werkzeuge. Unsere Plattform ist Developer-First und integriert sich nahtlos in den Software-Entwicklungsprozess. Wir bieten von statischer Code Analyse über Open Source Abhängigkeit, Container und Cloud Konfiguration alles auf einer Plattform.
Security by Design: Wie kann Ihre Sicherheitsplattform Unternehmen bei diesem Konzept effektiv unterstützen? Wird eine Lösung auf der Cloud entwickelt, ist praktisch alles Software, bis hin zur Definition der Umgebung. Heutzutage verfolgen Teams einen iterativen Ansatz und Experimentieren wird explizit gewünscht. Unsere Werkzeuge ermöglichen es, bereits beim Experimentieren teilweise hochkomplexe Cloud-Designs direkt auf ihre Sicherheit zu überprüfen. Ein weiterer Aspekt ist, dass Security by Design auch den Entwurf und die Automatisierung der Software-Produktionslinie enthalten muss. Snyk stellt hier wesentliche Werkzeuge zur Verfügung.
Inwieweit können sich Ihre Lösungen in diverse Entwicklungsumgebungen integrieren? Dem Entwickler Zugriff auf direkt umsetzbare Sicherheitshinweise ohne Medienbruch zu geben, ist der entscheidende Schlüssel, dass Sicherheit umgesetzt wird. Wir bieten für eine Vielzahl von Entwicklungsumgebungen eigene Plug-ins an, mit denen unsere Werkzeuge Ergebnisse direkt in die Werkbank des Entwicklers liefern. Neu ist eine Schnittstelle namens Language Server Protocol. Sie ermöglicht die Integration von Entwicklungsumgebungen und Diensten wie unsere in praktisch jeder Umgebung. Laut Ihrer aktuellen Studie ist die Cloud einerseits ein „kollektives Sicherheitsrisiko“, andererseits aber für die Zusammenarbeit unverzichtbar. Mit welchen Tools können Sie Unternehmen insbesondere in Cloud-Umgebungen unterstützen, damit Fehlkonfigurationen vermieden werden und die Entwicklungsgeschwindigkeit nicht abnimmt? Fehlkonfiguration ist eine Achillesferse der Cloud und laut einer unserer Studien für etwa die Hälfte aller Vorfälle mit verantwortlich. Für über 40 Prozent der Unternehmen ist die gestiegene Größe und Komplexität von Cloud-Konfigurationen ein Sicherheitsproblem, da Teams entsprechend mit Ausbildung oder Werkzeugen befähigt werden müssen. Unser Tool Snyk IaC (Infrastructure as Code) ermöglicht Teams einen gemeinsamen Blick auf die Sicherheit einer Cloud-Konfiguration und pro-aktives Handeln.
Frank Fischer erklärt: „Wir nutzen bis zu 150.000 Open-Source-Projekte als Trainingsdaten für die Codeanalyse“.
Vereinfacht gesagt, prüft Ihre Plattform den Code und weist auf Sicherheitslücken und Misskonfigurationen hin. Welche Basis liegt dem zugrunde und wie kommen Sie auf Ihre hohe Performance? Unsere statistische Analyse „Snyk Code“ basiert auf jahrelanger Forschung an der ETH in Zürich und ermöglicht uns, vom enormen Wissen der globalen Open Source Entwicklergemeinschaft zu lernen. Für die sehr aufwändige semantische Code-Analyse haben wir einen super-schnellen Logic-Solver entwickelt und nutzen bis zu 150.000 Open Source Projekte als Trainingsdaten. Unsere Analyse lernt Funktionen von Bibliotheken selbstständig und wird mit dieser Masse an realem Code auf Genauigkeit optimiert.
Sie bieten eine Plattform für die Sicherheit im gesamten Softwareentwicklungslebenszyklus. Vom Code zur Software zum Code: Können Sie uns Ihre Strategie erläutern? Inwieweit begleiten Sie den Softwareentwicklungslebenszyklus? Traditionell wird Sicherheit als ein Gateway in den Softwarelebenszyklus eingebracht. Dies hat den Nachteil, dass man alle Probleme bis zu diesem Zeitpunkt aufsammelt und dann den Prozess brechen muss. Alle Beteiligten sind unzufrieden und Software geht nicht in Produktion. Daher glauben wir an DevSecOps und wollen Sicherheitsprobleme so früh wie möglich im Lebenszyklus von Software adressieren, am besten gleich beim Entwickler, der den Code schreibt. Statt Sicherheit an einem Punkt im Prozess, wollen wir das Thema in jeden Schritt integrieren. Das gibt die Möglichkeit, mit wenig Aufwand große Verbesserungen im Bereich Sicherheit zu erreichen. Ein weiterer Aspekt ist, dass Sicherheitstests nicht wirklich Sicherheit verbessern, wenn nicht ein Entwickler am Schluss den Code anfasst. Daher ist es wichtig, Developer First zu denken.
Wie schaffen es Unternehmen, auch in Multi-Cloud-Umgebungen den Vendor Lock-in mit Ihrer Lösung zu umgehen und zuverlässig zu deployen? Unsere Tools unterstützen neben den großen Anbietern AWS, GCP und Azure auch eigene Cloud Umgebungen mit Kubernetes. Von unserer Seite aus sind Multi-Cloud- oder Hybrid-Cloud-Ansätze direkt realisierbar und wir können das Thema Sicherheit adressieren.
Was sind Best Practices im Umgang mit Software Security und Ihrer Plattform? Wir sehen, dass der Ansatz, Entwickler frühestmöglich möglich einzubringen, funktioniert. Unser Kunde Citrix hat uns gesagt, dass für die 2.000 Entwickler, die Snyk derzeit nutzen, in den ersten 90 Tagen mit Snyk über 200% mehr Akzeptanz als mit der vorherigen Lösung sehen und dies ihre Risk Exposure um 50% gesenkt hat. Eine wichtige erste Erfahrung ist also, dass man Entwickler mit einbinden muss. Mehr als 3.500 Entwickler bei Atlassian nutzen Snyk. Über 5,5 Million Open Source Tests wurden durchgeführt und 100% aller Container werden gescannt. Atlassian konnte damit 65% der kritischen Container Probleme innerhalb weniger Monate beheben. Für mich zeigt das deutlich, wie wichtig der Einsatz und die Automatisierung von Sicherheitswerkzeugen ist. Häufig hören wir, dass die Einführung von Sicherheitswerkzeugen ein enormes Projekt ist, dass Monate oder Jahre dauert. Unser Kunde Visma hat 140 Teams mit unseren Tools ohne Probleme ausgerollt und die Snyk Plattform in über 20.000 Projekte integriert. Nicht nur haben sie ihre hohen und kritischen Sicherheitsrisiken um 65% bzw 39% reduziert, sie zeigen auch deutlich, wie schnell und einfach das heutzutage gehen kann.
Open Source-Bibliotheken erfreuen sich großer Beliebtheit. Aber am Beispiel von Log4j wurde klar, dass auch hier Risiken bestehen. Welche Auswirkungen hatte dieses Beispiel auf Ihre Plattform? Unser Security Team hat CVE-2021-44228, wie die Registriernummer für den Log4J Vorfall heißt, sehr früh erkannt und verfolgt. Wir wissen aus unserer Datenbank, wie weit verbreitet Log4J als Abhängigkeit ist. Im Moment, als ein Proof of Concept in der Security Community bekannt wurde, haben wir innerhalb von Minuten unsere Datenbank aktualisiert und Kunden gewarnt. Eine amerikanische Großbank gab uns das Feedback, dass sie mit Hilfe von Snyk innerhalb von 26 Minuten eine klare Sicht auf ihren Status und einen Plan hatte. Heutzutage muss man davon ausgehen, dass man nur wenige Minuten Reaktionszeit hat, daher sind solche Werkzeuge extrem wichtig. Wir wissen das und bieten daher unsere Werkzeuge frei zum Ausprobieren und Nutzen an. Wir haben durch Log4J eine Vervierfachung der Zugriffe auf unsere Tools gesehen. Viele haben die Möglichkeit zum freien Scan genutzt. Seither ist die Anzahl übrigens nicht mehr zurückgegangen, sondern sogar gestiegen. Das macht uns stolz, dass wir einen Beitrag zur Sicherheit des Internets erbringen.
Welche wichtigen Erkenntnisse brachte in diesem Zusammenhang Ihr State of Open Source Security Report zutage? Nur 46% der Developer verwenden eine Software Composition Analysis (SCA) und 36% eine statische Code-Analyse. Und dies sind die meist verwendeten Werkzeuge. Dabei haben wir einen Anstieg der durchschnittlichen Zeit bis zur Behebung von Open Source Problemen gesehen, von 49 Tagen in 2018 auf 114 in 2021 (kritische Probleme brauchen sogar 118 Tage). Dabei sagen etwa 88% der Befragten, sie sehen ihre Organisation von akzeptabel bis sehr sicher. Wir sehen hier einen enormen Unterschied und es scheint viele wiegen sich in falscher Sicherheit. Nur 49% der Organisationen haben im Schnitt eine Sicherheits-Policy für Open Source. Große Organisationen offensichtlich mehr, aber immer noch nur um die 56%. Dies zeigt wieder, dass Unternehmen die Gefahr aus der Open Source Lieferkette nicht ernst nehmen. Dabei hat gerade Log4J auf das Thema aufmerksam gemacht. 79% aller Projekte, die die Log4J-Schwachstelle hatten, hatten mehr als einmal eine angreifbare Version von Log4J eingebunden. Mehr als 60% der gefundenen Probleme waren in sogenannten transitiven Abhängigkeiten, also Abhängigkeiten von Abhängigkeiten. Aber: Noch heute finden wir in etwa 2% aller Java Projekte, die wir scannen, angreifbare Log4J Versionen. Zusammenfassend kann man sagen, dass hier noch viel Arbeit vor uns liegt.
Unsere Erfahrung ist: Unternehmen die DevSecOps umsetzen, in ihre Teams und Werkzeuge investieren sowie einen hohen Grad an Automatisierung haben, können am schnellsten auf Probleme reagieren. Dabei braucht es kein hohes Budget, aber einen klaren Willen in Richtung der Cloud.
Frank Fischer
Was raten Sie Unternehmen im Sinne „digitaler Resilienz“? Gerade für kleine und mittelständische Unternehmen bietet die Cloud enorme Möglichkeiten. Man kann Lösungen entwickeln ohne teure und risikoreiche Investitionen. Viele Dienstleistungen wie Zahlungen oder Kommunikation können direkt über vorhandene Dienste eingebunden werden. Und man zahlt nur, was man auch benutzt. Aber man muss die Philosophie der Cloud verstehen und umsetzen: Anstatt eines großen, ausfallsicheren Dinosauriers hat man einen Schwarm von lose gekoppelten Containern, die dynamisch mehr oder weniger werden. Software-Produktion in kleinen iterativen Schritten ermöglicht ein minimieren des Risikos und gleichzeitig stets ein Produkt beim Kunden zu haben. Das bringt Komplexität, die ein gut ausgebildetes und ausgerüstetes Team braucht. Unsere Erfahrung ist daher, Unternehmen die DevSecOps umsetzen, in ihre Teams und Werkzeuge investieren sowie einen hohen Grad an Automatisierung haben, können am schnellsten auf Probleme reagieren. Dabei braucht es kein hohes Budget, aber einen klaren Willen in Richtung der Cloud.
Inwieweit können Ihre Lösungen auch in Low-Code und No-Code-Umgebungen zum Einsatz kommen? Die bekannteste No-Code Lösung ist wohl Salesforce und sie sind Kunde bei Snyk. Unserer Erfahrung nach, reden wir mehr von Low als von No-Code. Nehmen wir Salesforce als Beispiel, dann sehen wir sehr häufig, dass die reichhaltigen Möglichkeiten der Plattform durch Elemente in einer Programmiersprache namens APEX ergänzt werden. Der Vorteil ist, dass die Plattform schon viel bietet und man nicht das Rad neu erfinden muss. Aber sobald man eigene Elemente integriert, sollte man sich über Sicherheit speziell Gedanken machen. Und ja, wir können APEX scannen.
Florian Douetteau, CEO und Mitbegründer von Dataiku, zeigt auf, wie Unternehmen ihren eigenen Weg zu KI auf eine menschenzentrierte Weise gestalten können.
Herr Douetteau, welche Bedeutung hat die Demokratisierung von KI(AI) und Data Science für Unternehmen und welche Möglichkeiten bietet in diesem Kontext Ihre AI-Plattform?
Es ist keine Chance, sondern eine Notwendigkeit. Aktuell sind Data Scientists und andere Modellierungsexperten nicht gerade üppig am Markt zu finden. AI der breiten Basis an Mitarbeitern zugänglich zu machen, wirkt dem Fachkräftemangel entgegen und fördert die kollaborative Zusammenarbeit und damit die Transformation hin zu datengetriebenen Unternehmen. Zudem könnte man auch nie so viele Experten einstellen, denn der Markt ist recht leer. Dafür gibt es eine Menge ungenutztes Potenzial, das in der Organisation steckt.
Daten und auch Modelle in den Händen von Vielen, nicht von einigen Wenigen. Genau das ist die Mission von Dataiku: Everyday AI, extraordinary People.
Welche Rolle spielen in diesem Kontext AutoML- und Low-Code-Lösungen?
Sie senken die Einstiegshürde. Nicht alle Anwendungsfälle brauchen eine ausgefuchste, von Experten angepasste und komplexe Deep-Learning-Lösung. Meistens geht es darum, durch Low-Code eine leicht nachvollziehbare Arbeitsmethode anzubieten, die auch in Kombination mit automatisiertem maschinellem Lernen bei immer wieder aufkommenden Fragestellungen schnell und effektiv eine Lösung anbietet. Bei Low-Code und AutoML geht es darum, eine Lösung für die vielen Nichtexperten zu bieten – in beiden Bereichen ist Dataiku führend. So schafft man es auch, in die Breite zu skalieren und versteckte Potenziale zu heben.
“ Daten und auch Modelle in den Händen von Vielen, nicht von einigen Wenigen. Genau das ist die Mission von Dataiku.“
Unser Interviewpartner
Florian Douetteau, CEO und Mitbegründer von Dataiku, der Plattform für alltägliche KI.
Mit ihr wird der Zugang zu Data Science demokratisiert und Unternehmen weltweit können ihre eigene Reise mit künstlicher Intelligenz gestalten.
Das Unternehmen hat in seiner jüngsten Serie-E-Finanzierungsrunde im August 2021 400 Millionen US-Dollar bei einer Bewertung von 4,6 Milliarden US-Dollar erhalten.
Florian, ein kreativer Mathematiker, gründete Dataiku im Jahr 2013 mit der Vision einer Zukunft für Unternehmen, in der KI zum Mainstream wird, und zwar durch die gemeinsame Anstrengung aller Mitarbeiter des Unternehmens, nicht nur der Data Scientist oder technischen Experten.
Welche Wettbewerbsvorteile haben Unternehmen, die alle Abteilungen und Mitarbeitenden in KI-Projekte integrieren?
Quelle: McKinsey Global Institute
Die Vorteile sind vielschichtig: Lösungen werden kollaborativ erarbeitet, Informationsverluste beim Handover werden vermindert. Wir bringen Modellierer, Analysten, Entscheider etc. zur Zusammenarbeit. So können optimale Lösungen schneller erzielt werden. Zudem sind das Vertrauen und die Nachvollziehbarkeit einer gemeinsamen Lösung höher. In Kombination mit der Demokratisierung können auch insgesamt mehr Datenprodukte kreiert werden.
Welche Voraussetzungen müssen hierzu geschaffen werden und wie unterstützen Sie Ihre Kunden dabei?
Zunächst einmal: Einstiegshürden und Reibungsverluste abbauen. Das bedeutet, dass die vielen Datenquellen und die Infrastruktur, auf denen letztendlich die KI läuft, für den Nutzer fast schon unsichtbar und einfach nutzbar sind. Dataiku bietet dazu eine breite Basis an Integrationen an und dient als „Übersetzer“ für die Themen Datenanalytik und Modellierung sowie KI.
Wir unterstützen während des Onboardings, des Change Managements, bei der Datenstrategie und setzen mit unseren Trainings der Dataiku Academy Maßstäbe in Bezug auf Upskilling. Zudem berücksichtigen wir von Anfang an die Governance und Nachhaltigkeit der Prozesse. Hier teilen wir unsere Erfahrungen sowie Best Practices mit den Kunden, oft auch in Kombination mit unseren Consulting Partnern – denn das muss ja alles mit der Datenstrategie zusammenpassen!
“ Weltweit ist die Nutzung von KI im Geschäftsbetrieb so weit etabliert, dass man nicht mehr von ‘Vorteil‘ sprechen sollte, sondern eher von einem Muss, um nicht den Anschluss zu verlieren.“
Wie können Unternehmen wertsteigernde KI-Projekte identifizieren, um sinnvoll zu starten?
Wir legen unser Hauptaugenmerk darauf, herauszufinden, wie und wo unsere Kunden die größten Fortschritte machen können, die mit ihren eigenen strategischen Zielen übereinstimmen – natürlich unter Berücksichtigung von Governance und Compliance! Dabei ist es die Kunst, einen guten Mix zwischen wirklich schwierigen „Moonshot“-Projekten und eher naheliegenden Use Cases zu finden.
Mein Tipp: Schauen Sie zunächst, was Wettbewerber in der gleichen Industrie bereits erfolgreich und mit klarem und schnellem Lösungsansatz umgesetzt haben. So können schnell und mit geringem Risiko viele Erfolge erzielt werden.
Wir unterstützen, indem wir unsere Erfahrungen weitergeben und mit Blueprints zu wiederkehrenden Use Cases aus den Industrien und Firmenfunktionen, z.B. Finance, Marketing oder HR, die schnelle und erfolgreiche Umsetzung fördern. Unsere Kunden berichten hier oft von Benefits in dreistelliger Millionenhöhe.
Was meinen Sie damit, wenn Sie sagen: „Ein Produktionalisieren eines Modells muss einfach und effizient sein“?
Zahlreiche Untersuchungen zeigen, dass zwischen 70 und 80 Prozent der in Proofs of Concept entwickelten KI-Lösungen es nie in den produktiven Betrieb schaffen. Ein häufiges und frühes Ausrollen in eine Testumgebung senkt hingegen die Hürden für eine spätere Produktionalisierung und Integration. Dieses DevOps funktioniert gut, weil die jeweiligen „Neuerungen“ relativ gering sind und man so kleinere Hürden Schritt für Schritt nehmen kann.
Wir empfehlen, schon die ersten „Kandidaten“ eines Modells zunächst mittels MLOps anzustreben.
„…wenn man gar nicht erst anfängt, dann verpasst man natürlich auch die Chance, sich als Unternehmen neu zu erfinden und neue Geschäftsmodelle auf Basis von Daten zu etablieren.“
Inwieweit kann Ihre Plattform dabei helfen, die Transformation hin zu einem datengetriebenen Unternehmen zu meistern?
Mit Dataiku kommen ML und KI raus aus dem Elfenbeinturm. Wie wir bei zahlreichen Kunden gelernt haben, fängt Transformation in einem Center of Excellence an. Doch erst wenn die vielen Analysten und Fachleute in den Unternehmensbereichen teilnehmen, kommt eine echte Transformation zustande. Demokratisierung der Technologie durch Dataiku ist dabei der Katalysator, ohne den das nicht klappen würde.
Veränderungen sind immer schwierig – doch wenn man gar nicht erst anfängt, dann verpasst man natürlich auch die Chance, sich als Unternehmen neu zu erfinden und neue Geschäftsmodelle auf Basis von Daten zu etablieren.
Was bedeutet eigentlich „Whitebox-AI“, hier im Hinblick auf die neuen Regulierungen der EU für den Einsatz künstlicher Intelligenz?
Bei “Whitebox AI” geht es darum, Transparenz darüber zu schaffen, was in einem AI Modell vor sich geht. Also in anderen Worten: Ziel ist es, beobachtbar und nachvollziehbar zu machen, wie und warum die KI zu einem bestimmten Ergebnis kommt. Somit ist die Beziehung zwischen den zum Trainieren des Modells verwendeten Daten und dem Modellergebnis erklärbar.
Hingegen ist bei “Blackbox” Modellen die Entscheidungsfindung nicht nachvollziehbar, insbesondere durch unbeobachtbare Input-Output Beziehungen. Im Kontext der kommenden EU Regulierungen sind diese Unterschiede relevant: Wenn durch KI Entscheidungen getroffen werden sollen, die potenziell Menschen diskriminieren könnten, ist man schnell in der Gruppe der sogenannten “Hochrisikosysteme”. Hier ist die Verwendung von intransparenten Blackbox-Modellen schnell problematisch, da die geforderte Transparenz nur schwer mit der mangelnden Erklärbarkeit vereinbar ist.
„Es gehört für mich dazu, dass man nicht zu schnell aufgibt und aufkommende Fehler als eine Lernchance sieht – das erfordert oft einen Kulturwandel beim Management!“
Was bedeutet es für Sie „eine ganzheitliche KI-Kultur“ im Unternehmen zu etablieren?
Den Nutzen und den Nutzer der KI in den Fokus zu stellen, und nicht die Technologie selbst –denn diese ist nur das Werkzeug zum Erfolg. Dann gehört für mich dazu, dass man nicht zu schnell aufgibt und aufkommende Fehler als eine Lernchance sieht – das erfordert oft einen Kulturwandel beim Management! Oftmals unterschätzte Erfolgsfaktoren sind Training, Weiterbildung und leicht verfügbarer kontinuierlicher Support der Nutzer, bei dem von einander gelernt werden kann.
Bestätigt wird das von Erfahrungen bei Porsche Consulting oder auch AVIVA. Das wichtigste ist natürlich auch, überhaupt anzufangen und bereit zu sein, sich auf die Veränderung einzulassen – und das schließt auch das Management ein!
Sie sind einer der weltweit führenden KI-Anbieter, woran arbeiten Sie gerade?
Wir arbeiten an der weiteren Demokratisierung von KI durch zusätzliche Funktionen für Anwender und Konsumenten von Datenprojekten mit weiterhin leichtem Zugang auch für Nicht-Programmierer. Da mehr und mehr unserer Kunden hunderte oder sogar tausende ihrer Mitarbeiter, wie z.B. bei GE Aviation oder Schlumberger, von KI „Konsumenten“ in „KI Erschaffer“ weiterentwickeln, werden wir unsere Arbeiten zur Senkung der Einstiegshürde und Förderung der Kollaboration auf den verschiedenen Ebenen der Organisationen fortsetzen.
Das betrifft sowohl etablierte Technologien als auch neue Ansätze. Wir werden weiterhin investieren, um verlässliche AI Methoden für jeden Nutzer verfügbar zu machen. Ein gutes Beispiel hierfür ist unsere visuelle Vorhersagefunktion für Zeitreihen in unserer neuesten Version: einige der Algorithmen die nun für non-coder sind, sind „cutting-edge“, während andere seit 50 Jahren bekannt sind. Es geht darum, für die Nutzer die Chance zu erhöhen, schnell eine gute Lösung für ein reales Problem zu finden – das ist dann EverydayAI.
https://trendreport.de/wp-content/uploads/2022/10/pexels-photo-669986.jpeg12511880Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2022-10-25 07:30:002022-10-19 11:30:38Die Zeit ist reif für Everyday AI
Status Quo in Deutschland: Das jährliche Gutachten, vom BVDW und dem Institut der deutschen Wirtschaft Köln e. V. (IW), untersucht den Fortschritt von Künstlicher Intelligenz (KI) in Deutschlands Wirtschaft und Gesellschaft sowie die vorliegenden Rahmenbedingungen.
Der KI-Monitor vom BVDW und dem Institut der deutschen Wirtschaft Köln e. V. (IW), stellt durch differenzierte Analyse Zahlenmaterial bereit, um die Entscheidungsfindung über den Einsatz von KI in Unternehmen sowie deren Regulierung und gezielte Förderung durch staatliche Institutionen zu unterstützen. Zudem hilft er, die Gesellschaft über aktuelle Entwicklungen zu informieren. Neueste Insights finden sich im kommenden KI Monitor im November 2022.
„Der KI-Monitor zeigte erfreulicherweise einen positiven Trend beim Fortschritt von Künstlicher Intelligenz“, resümierte Mattias Wahl, BVDW-Präsident. Es wird zudem deutlich, dass die Wirtschaft weiterhin der größte Treiber von Künstlicher Intelligenz in Deutschland ist: Der Beitrag der Wirtschaft ist mit 17,33 Indexpunkten sogar größer als die Gesamtentwicklung.
Alle fünf für die Betrachtung der Wirtschaft verwendeten Indikatoren haben sich positiv entwickelt: Es gab mehr Patentanmeldungen, der Einsatz von KI in Unternehmen hat sich nahezu verdoppelt, die Thematisierung von KI in Geschäftsberichten hat um mehr als 80 Prozent zugenommen und die Nachfrage nach KI-Fachkräften wuchs ebenfalls stark an. Zudem ist bei der Einschätzung der Bedeutung von KI durch Unternehmen ein positiver Trend zu verzeichnen. Im Gegensatz dazu haben sich die anderen beiden untersuchten Kategorien, „Rahmenbedingungen“ (-0,32 Prozentpunkte) und „Gesellschaft“ (-0,74 Prozentpunkte), leicht negativ entwickelt.
Studienautor Dr. Henry Goecke (IW) sieht diese Entwicklung kritisch: „Die negative Entwicklung bei den Faktoren Rahmenbedingungen und Gesellschaft zeigt hingegen, dass beim Thema KI nach wie vor Hemmnisse vorliegen. Der KI-Monitor macht diese als Index messbar.“ Bei den Rahmenbedingungen zeigt sich, dass verhältnismäßig weniger wissenschaftliche Publikationen zu KI veröffentlicht wurden.
Handlungsempfehlung: So muss unter anderem mehr Wissen über KI bei Mitarbeitern, Fachkräften und Bürgern geschaffen werden.
BVDW
Zudem wurde KI seltener als zuvor im Bundestag thematisiert. Die Kategorie „Gesellschaft“ zeigt einen leicht negativen Trend, da der Indikator „Suchinteresse an KI auf Google“ deutlich nachgelassen hat, obwohl sich die Bekanntheit von KI in der Bevölkerung insgesamt positiv entwickelt hat.
Um diese noch bestehenden Potenziale zu heben, formuliert der BVDW folgende Handlungsempfehlungen: So muss unter anderem mehr Wissen über KI bei Mitarbeitern, Fachkräften und Bürgern geschaffen werden. „Zudem ist eine technologieneutrale und anwendungsbezogene Regulierung für eine vertrauensvolle, transparente Künstliche Intelligenz notwendig“, konkretisiert BVDW-Präsident.
Für den deutschen Wirtschaftsstandort muss auch der Faktor „Data Economy“ gefördert werden. Dies gelingt beispielweise durch den Abbau von Hemmnissen der Datennutzung und Aufbau von anonymisierten Data-Sharing-Plattformen.
Mehr Informationen finden Sie auch im aktuellen KI-Monitor 2022
Wir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Webseite besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Webseite anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Webseite und auf die Dienste haben kann, die wir anbieten können.
Wichtige Webseiten-Cookies
Diese Cookies sind unbedingt erforderlich, um Ihnen über unsere Webseite verfügbare Dienste bereitzustellen und einige ihrer Funktionen zu nutzen.
Da diese Cookies für die Bereitstellung der Website unbedingt erforderlich sind, wirkt sich die Ablehnung auf die Funktionsweise unserer Webseite aus. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Dies wird Sie jedoch immer dazu auffordern, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Webseite erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten, aber um zu vermeiden, Sie immer wieder zu fragen, erlauben Sie uns bitte, ein Cookie dafür zu speichern. Sie können sich jederzeit abmelden oder sich für andere Cookies anmelden, um eine bessere Erfahrung zu erzielen. Wenn Sie Cookies ablehnen, entfernen wir alle gesetzten Cookies in unserer Domain.
Wir stellen Ihnen eine Liste der auf Ihrem Computer in unserer Domain gespeicherten Cookies zur Verfügung, damit Sie überprüfen können, was wir gespeichert haben. Aus Sicherheitsgründen können wir keine Cookies von anderen Domains anzeigen oder ändern. Sie können diese in den Sicherheitseinstellungen Ihres Browsers überprüfen.
Google Analytics Cookies
Diese Cookies sammeln Informationen, die entweder in aggregierter Form verwendet werden, um zu verstehen, wie unsere Webseite verwendet wird oder wie effektiv unsere Marketingkampagnen sind, oder um unsere Webseite und Anwendung für Sie anzupassen, um Ihre Erfahrung zu verbessern.
Wenn Sie nicht möchten, dass wir Ihren Besuch auf unserer Website erfassen, können Sie das tracking in Ihrem Browser hier deaktivieren:
Andere externe Dienste
Wir verwenden auch verschiedene externe Dienste wie Google Webfonts, Google Maps und externe Videoanbieter. Da diese Anbieter möglicherweise personenbezogene Daten wie Ihre IP-Adresse erfassen, können Sie diese hier sperren. Bitte beachten Sie, dass dies die Funktionalität und das Erscheinungsbild unserer Website erheblich beeinträchtigen kann. Änderungen werden wirksam, sobald Sie die Seite neu laden.
Google Webfont-Einstellungen:
Google Map-Einstellungen:
Google reCaptcha-Einstellungen:
Einbettung von Vimeo- und Youtube-Videos:
Andere Cookies
Die folgenden Cookies werden ebenfalls benötigt - Sie können auswählen, ob Sie sie zulassen möchten:
Datenschutz-Bestimmungen
Sie können unsere Cookies und Datenschutzeinstellungen im Detail auf unserer Datenschutzrichtlinie nachlesen.