Digitale Job-Skills im Future Talent Camp entwickeln

Wir sprachen mit Simone Stein-Lücke, Gründerin und Geschäftsführerin der BG3000 Service GmbH und Lorenz Beringer, Gründer und Geschäftsführer der LOBECO GmbH zum Joint Venture Future Talent Camp. Die ersten Future Talent Camps laufen im Herbst an. Darin lernen Auszubildende und Young Professionals in sechs Wochen die Möglichkeiten von Social Media im Unternehmenskontext kennen und wenden ihr frisch erworbenes Knowhow sofort praktisch in motivierenden Challenges an.

Was war die Idee hinter dem Future Talent Camp?
Lorenz Beringer: Mit dem Future Talent Camp möchten wir das digitale Knowhow von jungen Beschäftigten in Unternehmen fördern. Das Verständnis für digitale Plattformen, digitale Medienkompetenz ist im Zuge der immer weiter fortschreitenden Digitalisierung in jeder Branche ein zentraler Wettbewerbsfaktor. Die Young Talents der Unternehmen sind mit digitalen Medien aufgewachsen und sind durch dieses Grundverständnis prädestiniert zum Sprachrohr des Unternehmens in der digitalen Welt zu werden. Dieses Grundverständnis wird mit der langjährigen Expertise unserer Speaker des Future Talent Camps gefördert. Theoretische Wissensvermittlung mit Best-Practice-Cases aus der Praxis formen den ganzheitlichen Ansatz in der digitalen Bildung junger Talente.
Simone Stein-Lücke: Nur jeder fünfte Deutsche traut der Politik zu, Deutschland in eine digitale Zukunft führen zu können. Bei den unter Dreißigjährigen stimmt sogar nur jeder siebte zu, was aus einer bundesweiten repräsentativen Umfrage des Meinungsforschungsinstituts INSA hervorgeht. Sogar zwei von drei Deutschen sagen, dass die Bildungspolitik zu wenig unternimmt, um bei Jugendlichen Digitalkompetenzen auszubilden. Das ist natürlich ein alarmierender Wake-Up-Call und führt uns vor Augen, wie sehr die Digitale Bildung in den letzten Jahren auf der Strecke geblieben ist. Das wollen wir mit dem Future Talent Camp ändern. Die Unternehmen haben es selbst in der Hand, ihre jungen Talente für die digitale Arbeitswelt fit zu machen. Das Future Talent Camp stellt der Wirtschaft sehr systematisch und praxisnah digitale Bildung für Auszubildende und junge MitarbeiterInnen zur Verfügung.

Im Mai startete dieses Joint Venture zwischen BG3000 und LOBECO. Was bringen Sie als Partner jeweils ein?
Simone Stein-Lücke: Die BG3000 hat in den letzten sechs Jahren bundesweit die digitalen Skills von mehr als 30.000 SchülerInnen, LehrerInnen, SchulleiterInnen und Azubis in über 250 Camps trainiert. Mit großem Erfolg, wie die Wiederbuchungsquote von 96 Prozent bestätigt. Auf dem Gebiet Internetkontextbildung schließen wir Lücken in der Förderung digitaler Kompetenzen. Wir wissen, wo die jungen Talente derzeit stehen und welches Rüstzeug sie brauchen, um sich in der digitalen Geschäftswelt zurechtzufinden. Aus passiven Internet-Konsumenten werden in unseren Camps kreative Gestalter, die Verantwortung als Markenbotschafter in der Social Media Unternehmenskommunikation übernehmen können. LOBECO inspiriert die Young Talents mit brandaktuellen Best-Practice-Beispielen aus dem Agentur-Alltag.
Lorenz Beringer: Gemeinsam, mit gebündelter Expertise aus der langjährigen Erfahrung in digitaler Wissensvermittlung der BG3000 und uns, LOBECO, einer der führenden Social Media Agenturen, können wir das digitale Knowhow der jungen Talente von Unternehmen auf ein neues Level heben. LOBECO setzt seinen Fokus auf die digitale Markenkommunikation und treibt die Transformation von Geschäftsmodellen weltweit voran. Durch die Standorte München, Zürich und Shanghai können globale Innovationen und Trends schnell aufgenommen und in neue Cases adaptiert werden, um so die Wettbewerbsfähigkeit von Unternehmen weiter auszubauen. Hier sehen wir die Bedürfnisse anderer Unternehmen – wir von LOBECO möchten ihnen durch die Young Talents helfen und unser Wissen aus der Digitalwelt weitergeben.

Wir wollen nicht im Stillstand verharren und darauf warten, dass die Digitalisierung vom Himmel fällt.

Simone Stein Lücke

Welche Erfahrungen nehmen Sie aus dem Pilotprojekt mit?
Lorenz Beringer: Der Testdrive des Future Talent Camps war ein großer Erfolg! Wir konnten nicht nur unsere Expertise vermitteln, sondern auch sehr viel Input der Young Talents mitnehmen. Nach jedem Modul hatten die TeilnehmerInnen die Möglichkeit, Feedback zu geben – sowohl zu dem Inhalt des Moduls als auch zu den Speakern. Dieses Feedback wurde von uns ausgewertet und für den Start des Basic Camps im Herbst umgesetzt, um die jungen Talente noch besser digital auszubilden. Ein sehr wichtiges Learning, das wir ziehen konnten, ist, dass die Young Talents bereits ein gutes Grundverständnis der digitalen Medien aufweisen, welches wir noch verfeinern können. Es kamen spannende Diskussionen zustande, die definitiv einen Mehrwert für die Young Talents, aber auch für uns haben.
Simone Stein-Lücke: Der Pilot hat unsere Erfahrungen und die Ergebnisse der Studie bestätigt: Die Young Talents sind als Digital Natives grundsätzlich sehr vertraut mit digitalen Medien, bewegen sich aber im digitalen Business-Kontext oftmals noch sehr unbedarft. Wöchentliche Challenges motivieren die Teilnehmenden, ihr frisch erworbenes Know-how direkt umzusetzen und ihre Ergebnisse zu präsentieren. Unsere Erfahrung ist, dass die Camps ein positives Mindset für die digitale Transformation vermitteln und die Young Talents sich schnell neue digitale Skills aneignen. Wichtig war es auch, uns im Vorfeld genau zu informieren, wo in Unternehmen der Schuh drückt und wie wir unser Angebot bestmöglich gliedern. Jedes Unternehmen, jede Branche hat ihre eigenen Herausforderungen. Mit den Erfahrungen aus dem Pilot-Camp können wir unser Schulungsangebot passgenau ausgestalten.

Könnten Sie sich vorstellen, dass sich weitere Unternehmen mit der jeweils eigenen Expertise einbringen könnten?
Simone Stein-Lücke: Wir von der BG3000 können auf einen Pool von über 130 TrainerInnen zugreifen. Die Inhalte reichen von Hate Speech und Fake News über Live-Hacking bis hin zu Gaming und Social Media Management. Wir stehen mit unseren Speakern ständig im Dialog und arbeiten ununterbrochen daran, unseren Referenten-Pool zu erweitern, aber auch auf den Prüfstand zu stellen. Wir verfolgen Trends und Diskurse, um ganz individuelle Schulungsbedarfe thematisch abdecken zu können.
Lorenz Beringer: Da die digitale Welt einem ständigen Wandel unterliegt und neue Felder erschlossen werden, gibt es natürlich auch immer tiefgreifendere Expertise. Wir sind aktuell mit unseren Speakern aus unterschiedlichen Bereichen sehr gut aufgestellt, schließen aber natürlich nicht aus, zu einem späteren Zeitpunkt dieses Repertoire zu erweitern. Die Digitalisierung bringt die Voraussetzung mit, sich auf Neues einzulassen und schnell reagieren zu können. Daher wäre es falsch zu denken, dass wir schon jetzt für die Zukunft optimal aufgestellt sind – schließlich ist die Zukunft uns allen noch unbekannt, weshalb wir uns auf die Gegenwart konzentrieren, um diese bestmöglich zu gestalten.

Die Digitalisierung bringt die Voraussetzung mit, sich auf Neues einzulassen und schnell reagieren zu können.

Lorenz Beringer

Braucht es mehr Unternehmen, die sich wieder mehr in „überbetrieblicher Ausbildung“ engagieren? Gerade vor dem Hintergrund von Technologien wie künstlicher Intelligenz und zunehmender Automatisierung in allen Tätigkeitsbereichen im Unternehmen?
Lorenz Beringer: Definitiv. Dazu benötigt es nicht zwingend große Innovationen wie künstliche Intelligenz oder zunehmende Automatisierung. Hier reichen bereits alltägliche Neuerungen, die in jedem Unternehmen, egal ob klein-,mittel- oder großständig, zu finden sind, wie zum Beispiel die demographische Veränderung der Kunden eines Unternehmens. Die bereits existierende oder nachrückende junge Generation informiert sich auf völlig anderen Wegen, als es noch vor einigen Jahren der Fall war. Die digitalen Medien, seien es Webseiten, Social-Media-Kanäle oder Foren sind die neuen Informationsquellen potentieller Kunden und lösen TV, Radio und Zeitungen zu einem Großteil ab. Über die neuen Kanäle ist jeder Nutzer zum Absender geworden.
Ist ein Unternehmen in den digitalen Medien gar nicht oder nicht ausreichend vertreten, rückt dieses Unternehmen bei vielen Kunden nicht in den Interessenshorizont und ist auf kurze oder lange Sicht nicht mehr wettbewerbsfähig. Daher sollte es im Interesse aller Unternehmen liegen, die digitale Bildung im eigenen Unternehmen voranzutreiben.
Simone Stein-Lücke: Ja, es ist ganz wichtig, dass sich Unternehmen dieser Aufgabe stellen und selbst Verantwortung übernehmen. Digitale Bildung steht in Deutschland noch ganz am Anfang. Es gibt zwar viele Modellprojekte, aber systematisch ist weder in der schulischen Bildung noch in der Berufsausbildung bisher etwas passiert. Wir wollen nicht im Stillstand verharren und darauf warten, dass die Digitalisierung vom Himmel fällt, sondern Unternehmen motivieren, selbst den ersten Schritt zu gehen. Ob Pandemie oder nicht, ist es wichtig in die Weiterbildung zu investieren, sich als Unternehmen für die eigenen Mitarbeitenden zu engagieren. Wer auch morgen fähige Fachkräfte braucht, sollte sich heute intensiv um seine jungen Talente kümmern.

Weitere Informationen unter:
http://www.futuretalentcamp.de/

Contextual Targeting

Contextual Targeting in einer cookielosen Welt

Datenschutz ist nicht mehr nur ein Anliegen der Digitalbranche. Das Thema zieht sich durch sämtliche Medien sowie die ganze Gesellschaft. Die Netflix-Dokumentation „The Social Dilemma“ oder die neuesten Updates von Apple verdeutlichen, wie sehr Datenschutz zu einem internationalen Debattenthema geworden ist.

Verbraucher haben ein Bewusstsein dafür entwickelt, was mit ihren Daten passiert, sowohl im persönlichen Rahmen als auch durch Unternehmen. Das haben mittlerweile auch Technologieanbieter erkannt und wollen den Nutzern mehr Kontrolle über ihre Daten geben. So brachten Firefox und Apples Browser Safari den Stein ins Rollen, indem sie Cookies von Drittanbietern blockierten. Google verkündete ein ähnliches Bestreben und wird ab 2023 im Chrome-Browser ebenfalls keine Third-Party-Cookies mehr erlauben und stellt die digitale Werbebranche vor eine Herausforderung.

Autorin:
Caroline Hugonenc,
Global VP Insights bei Teads

Das Ende der Cookies ist nur der Beginn einer neuen Ära

Bei der Debatte über das Ende von Drittanbieter-Cookies ist wichtig zu erwähnen, dass Cookies zwar seit langem ein fester Bestandteil von Online-Werbung sind, das digitale Ökosystem hängt jedoch nicht von ihnen ab. Keine Cookies heißt eben nicht werbefrei, nicht personalisiert oder nicht relevant. Es bedeutet einfach zwei Dinge:

  • Die Notwendigkeit eines Übergangs zu verantwortungsbewusster und nachhaltiger Werbung für die Digitalbranche.
  • Es ist an der Zeit, dass nicht aufdringliche Personalisierung die neue Norm ist, angefangen bei der Nutzererfahrung und dem Vertrauen des Endverbrauchers.

Der erste Punkt sollte eine Selbstverständlichkeit sein. Die Frage ist, wie wir unaufdringliche Personalisierung angehen. Eine der verfügbaren Lösungen dafür ist Contextual Targeting.

Warum eine kontextbezogene Ausrichtung wichtig ist

Beim kontextuellen Targeting werden Werbemittel anhand von bestimmten Keywords, die sich aus dem Content beziehungsweise Kontext einer Webseite oder redaktionellem Artikel ergeben, ausgespielt. Dieser Ansatz ist für die Werbebranche allerdings nicht neu, ist aber mit der Weiterentwicklung der Technologie zu einer fortschrittlichen Targeting-Methode geworden – die durch semantische Analysen sowie künstliche Intelligenz viel mehr als nur eine reine Keyword-Suche ist und Werbetreibenden damit auch einen viel größeren Mehrwert bieten. 

Anzeigen, die kontextuell ausgerichtet sind, machen für Leser Sinn. Denn, sobald sich ein Nutzer dazu entschließt, Content wie beispielsweise einen redaktionellen Artikel zu lesen, hat er bereits eine bestimmtes Mindset eingenommen – egal, ob es sich um Hochzeitsthemen, die neueste technische Veröffentlichung oder eine lokale Nachricht handelt. Indem Ads auf dieses Mindset abgestimmt sind, kann deren Botschaft verstärkt werden und somit ein Uplift sowie ein positiver Effekt für die Kampagne einer Marke erzeugen.

Kontextuelles Targeting ist mehr im Einklang mit den Werten und Interessen des Verbrauchers, da seine persönlichen Daten dabei nicht mit zusätzlichen Beteiligten geteilt werden.

Die größten Herausforderungen beim kontextbezogenen Targeting

Mit dem Ende des Cookies werden sich viele Agenturen und Werbetreibende kontextuellen Lösungen zuwenden. Den Kontext zu nutzen, um die Wirkung von Werbung zu maximieren, ist jedoch nicht einfach. Dabei gibt es einige zentrale Herausforderungen, die zu beachten sind:

Genauigkeit: Viele kontextbezogene Lösungen verlassen sich heute stark auf Keywords, um beispielsweise Content zu einem bestimmten Thema von der Werbeausspielung auszuschließen. Das scheint auf den ersten Blick sinnvoll. Aber übermäßiges Vertrauen in einzelne Mechaniken kann zu falsch-positiven Ergebnissen und dadurch zu einer fragwürdigen Genauigkeit führen.

Granularität: Ein zu allgemeines und breites kontextbezogenes Targeting kann die Verstärkung einer Marketingbotschaft oder das entsprechende Engagement bei der richtigen Zielgruppe verhindern.

Platzierung: Kontextuelles Targeting kommt immer noch häufig im Rahmen von usergenerierten Inhalten zum Einsatz. Diese Art von Content birgt für Marken aber von Natur aus Probleme in Bezug auf die Genauigkeit sowie Standardisierung und Markensicherheit. Das steht im deutlichen Gegensatz zu den professionellen Inhalten, die beispielsweise Premium-Publisher bieten und für die es seit langem Standards und Lösungen für kontextuelles Targeting gibt.

Umsetzbarkeit: Der Einsatz von Contextual über das Naheliegende hinaus wird ein wichtiger Unterschied bei der Bewertung von Contextual-Partnern sein. Nicht alle Plattformen werden in der Lage sein, über die intuitive Planung hinauszugehen und zu umsetzbaren Insights zu gelangen.

Das Ausloten von Medienpartnern in allen oben genannten Bereichen ist entscheidend für Werbetreibende, die in Zukunft kontextuelle Werbung als Teil ihrer Planungsstrategien nutzen möchten. Bei der Auswahl sollte aber auch die Menge des Contents sowie die Reichweite des potenziellen Partners eine Rolle spielen.

Contextual Targeting ist in einer Zukunft ohne Third-Party-Cookies eine sinnvolle Lösung, um eine bessere Medieneffektivität zu erzielen.


Caroline Hugonenc

Ist kontextuelles Targeting wirklich effektiv?

Konsumenten haben sich mit den Jahren nicht nur daran gewöhnt, dass sie im Internet Werbung sehen, sie sind auch in der Lage diese komplett auszublenden. Das hat zu regelrechten Kämpfen um die Aufmerksamkeit der Nutzer unter den Werbetreibenden geführt, da für sie Aufmerksamkeit ein wertvolles Gut zur Steuerung von KPIs ist. Wie die Universität Bournemouth im Whitepaper ‚Attention Please‘ festgestellt hat, lässt sich die Qualität von Aufmerksamkeit nicht gut anhand der Zeit messen, die wir mit dem Betrachten von Inhalten verbringen. Denn wir wenden routinemäßig schon viel Zeit dafür auf, Dinge zu tun, ohne ihnen viel Aufmerksamkeit zu schenken. Allerdings lässt sich die Effektivität von kontextuellen Kampagnen anders belegen, nämlich mit einem klassischen A/B-Testing.

Wir haben dafür A/B-Tests in Kombination mit unserer Befragungsmethode Brand Pulse- durchgeführt, um so die Auswirkungen von kontextbezogenem Targeting auf die KPIs von Werbetreibenden zu bewerten. Bei dieser Art der Befragung wurden durch Retargeting Nutzer angesprochen, die zuvor Test-Anzeigen gesehen hatten. Sie haben dann Fragen zur Medienwirksamkeit gestellt bekommen. Dies geschah für Anzeigen, die auf Basis von kontextuellem Targeting ausgespielt wurden, sowie ohne. Im Anschluss haben wir die Ergebnisse des Brand Uplifts der Kampagnen verglichen. Unsere Tests befinden sich zwar noch im Anfangsstadium, aber die Ergebnisse für Contextual sind vielversprechend:

 % Markenlift – exposed- control (Werbung gesehen im Vergleich zu Werbung nicht gesehen)% Unterschied zwischen kontextueller und nicht kontextueller Ausspielung
Aided Ad Recall (gestützte Werbeerinnerung)+56%+177%
Ad Awareness (Reichweite und Aufmerksamkeit für eine Marke)+43%+16%
Message Association (Wurde die Markenbotschaft verstanden?)+43%+68%
Consideration (Nutzer sind aktiv auf der Suche, bspw. nach Produkten)+18%+281%
Purchase Intent (Kaufabsicht eines Nutzers)+7%+29%
All Branding KPIs (Gesamtheit der KPIs, die auf das Branding einzahlen)+35%+135%

Das Plus in der linken Spalte zeigt den Anstieg der Nutzer, die die Anzeigen gesehen haben im Vergleich zur Kontrollgruppe (die die Ads nicht gesehen haben). In der rechten Spalte bezieht sich der Anstieg auf Formate mit einer kontextuellen Ausspielung im Vergleich zur Ausspielung ohne kontextuelles Targeting. So erinnerten sich beispielsweise 56 Prozent der Nutzer, die die Werbung gesehen hatten, später noch an die Marke. Wurde die Anzeige kontextuell ausgespielt, erinnerten sich 177 Prozent mehr an die Brand. Die Ergebnisse basieren auf den Daten von acht verschiedenen Kampagnen über verschiedene Branchen sowie Regionen hinweg und sind Durchschnittswerte.

Contextual Targeting ist in einer Zukunft ohne Third-Party-Cookies eine sinnvolle Lösung, um eine bessere Medieneffektivität zu erzielen.

Kontextuelles Targeting bei Nestle und UM

Die erwähnten positiven Ergebnisse wurden kürzlich auch in einer Kampagne mit Nestlé und UM in Spanien nachgewiesen und quantifizieren die Wirksamkeit von kontextbezogenem Targeting erfolgreich.

Nestlé führte im November sein neues Nesquik Intenso-Sortiment für junge Erwachsene ein. Ein neues Angebot ohne Zusatzstoffe oder künstliche Süßstoffe und verkauft in einem zu 100 Prozent recycelbaren Behälter. Dafür hat das Teads-Studio-Team zwei Video-Ads für mobile Endgeräte optimiert, die die Verpackung, das Produkt und seine wichtigsten Eigenschaften hervorhoben. Die Kampagne lief von November bis Dezember 2020, dabei wurde auf verschiedene Segmentierungsstrategien zurückgegriffen: soziodemografische und Interessens-Daten sowie kontextuelles Targeting. Parallel zur Kampagne lief eine Brand-Pulse-Studie, die die Branding-Effektivität der verschiedenen verwendeten Targeting-Segmente quantifizieren sollte. Mehr als 250 Personen, die mit den Werbemitteln der Kampagne in Berührung kamen, wurden in den verschiedenen Targeting-Segmenten zu der Medienwirksamkeit der Anzeigen befragt.

Die Rate an Usern, die sich an die Werbeanzeige erinnerten, stieg in der Gruppe, bei der soziodemografische Daten beim Targeting zum Einsatz kam, um 86 Prozent und beim kontextuellen Targeting um 87 Prozent. Das zeigt, dass kontextuelles Targeting mindestens genauso effektiv sein kann wie klassisches soziodemografisches Targeting. Die Markenbekanntheit konnte außerdem um 87 Prozent verbessert werden und das mit nur 25 Prozent des Kampagnenbudgets.

Fazit

Auf lange Sicht ist der Cookie kein sicheres Targeting-Tool mehr. Media-Einkäufer stehen deswegen vor dem nächsten Entwicklungsschritt in der Digitalbranche. Kontextuelles Targeting stellt dabei eine effektive sowie verlässliche Lösung dar, allerdings kann es sich wie ein veralteter Ansatz anfühlen, da es keine neue Herangehensweise ist. Aber die Technologie hat sich weiterentwickelt und beispielsweise durch semantische Analysen kontextuelles Targeting auf die nächste Stufe gehoben. Damit ist der Ansatz in der Lage, die wichtigsten Herausforderungen wie Genauigkeit, Granularität, Ausrichtung, Platzierung und Aktionsfähigkeit zu lösen und bietet Werbetreibenden auch ohne Third-Party-Cookies effektives Targeting sowie eine effiziente Zielgruppenansprache.

Untersuchung von Red Hat belegt steigendes Interesse an Containern und Kubernetes

Von Markus Eisele*

Sobald Linux-Container als architektonisches Konzept für die Erstellung und Paketierung von Anwendungen aufkamen, öffneten sie Entwicklern die Tür zu einer völlig neuen Welt. Die Container-Orchestrierungsplattform Kubernetes folgte schnell und bot Unternehmen eine Möglichkeit, die Leistungspotenziale von Containern besser auszuschöpfen.

Um die Bedeutung von Containern und Kubernetes für Entwickler besser einzuordnen, hat Red Hat das Marktforschungsunternehmen CCS Insight beauftragt, den aktuellen Stand der Container-Nutzung in der EMEA-Region zu untersuchen – einschließlich der Vorteile, Herausforderungen und Anwendungsfälle. Die Ergebnisse dieser Untersuchung basieren auf dem Feedback von Hunderten von IT-Fachleuten, die an der Planung, Entwicklung, Bereitstellung und Verwaltung von Softwareanwendungscodes und -services beteiligt sind.

Markus Eisele ist Developer Adoption Program Lead in EMEA bei Red Hat.

Klar ist, dass Applikationen immer komplexer werden und der Bedarf an schnellerer Entwicklung steigt. Um besser auf die sich rasant entwickelnden, softwaregetriebenen Märkte reagieren zu können, ändern Unternehmen die Art und Weise, wie sie Anwendungen konzipieren, erstellen und bereitstellen. Dabei nutzen sie verstärkt Cloud-native Architekturen auf der Basis von Containern – und dieser Trend wird sich voraussichtlich fortsetzen. So zeigen auch die Ergebnisse der Studie, dass die Cloud-Einführung (33%), der skalierbare Betrieb (30%) und die verbesserte Produktivität (29%) zu den wichtigsten geschäftlichen Vorteilen gehören, die für den Einsatz von Containern genannt werden.

Vor diesem Hintergrund ist es auch nicht überraschend, dass die containerbasierte Entwicklung von 91% der Befragten als hohe oder wichtige Priorität eingestuft wird. Darunter nennen 30% als Grund, neue Arten von Anwendungen bereitzustellen, und weitere 19%, Geschäftsbereiche und Fachabteilungen in ihrem Unternehmen besser zu unterstützen. Angesichts des breiten Einsatzes von Containern in der gesamten IT-Branche wird die Technologie darüber hinaus auch als Karrieresprungbrett eingestuft. 40% der Befragten geben an, dass die berufliche Weiterentwicklung ein wichtiger Grund für ihr Interesse an Containern ist.

Partner sind der Schlüssel

Mit der zunehmenden Nutzung von Containern steigt auch der Bedarf an Lösungen, die dieses Wachstum unterstützen. Plattformen wie Kubernetes, die bei der Orchestrierung, Automatisierung und Verwaltung von Containern helfen, sind von entscheidender Bedeutung, um die Technologie in einer Unternehmensumgebung einfach nutzbar zu machen. Die Befragten bestätigen dies: 61% geben an, dass sie Container-Orchestrierungsdienste benötigen. 19% davon sind jedoch der Ansicht, dass eine eigenständige Implementierung zu komplex ist. Folglich geht mehr als die Hälfte aller Befragten davon aus, dass die Container-Entwicklung in ihrem Unternehmen von einem Drittanbieter durchgeführt wird, entweder vollständig (24%) oder durch eine Kombination aus Dienstleistern und internen Ressourcen (32%). Für die Entscheidungsträger sind dabei die Benutzerfreundlichkeit von Tooling-Services (37%) und die Reputation (44%) die beiden wichtigsten Kriterien bei der Auswahl eines Anbieters.

Container und Hybrid Cloud sind Top-Software-Prioritäten

Für 46% der Befragten sind containerbasierte Applikationen die oberste Priorität bei der Softwareentwicklung in den nächsten 12 Monaten. Darüber hinaus nennen als Beweggründe für den Container-Einsatz 43% die Optimierung der Qualität, Performance und Sicherheit von Anwendungen, 32% die Stärkung von CI- und CD-Prozessen, 29% die Verbesserung der Portabilität und 27% die Migration zu einem Cloud-basierten Betrieb.

34% der Befragten, die direkt an der Erstellung von Softwareanwendungscodes oder der Bereitstellung von Anwendungen beteiligt sind, sehen in der Unterstützung eines hybriden IT-Betriebs einen zentralen Vorteil von Containern. Die Hybrid Cloud ist in vielen Unternehmen auf mehreren Ebenen – Infrastruktur, Tools und Anwendungen – bereits Realität. Die Ergebnisse der Umfrage zeigen, dass Container sowohl technische als auch geschäftliche Vorteile bieten, gerade auch hinsichtlich der Unterstützung der Anwendungsportabilität und eines konsistenten Bereitstellungsmodells für den hybriden IT-Betrieb.

Als zentraler Trend ergibt sich aus dieser Umfrage, dass Container mehr sind als nur eine „Nice-to-have“-Technologie. Sie sind ein wichtiges Element für die Nachhaltigkeit und den Erfolg heutiger Unternehmen. Und mit dem zunehmenden Wissen um ihre geschäftlichen und IT-Vorteile beginnt nun die verstärkte Nutzung von Containern, mit denen Unternehmen einen Wettbewerbsvorteil erzielen wollen.

Die Untersuchung von Red Hat liefert weitere wichtige Ergebnisse und Erkenntnisse: Der vollständige Bericht steht zur Verfügung unter https://www.redhat.com/en/resources/containers-kubernetes-market-dynamics-analyst-material.

* Markus Eisele ist Developer Adoption Program Lead in EMEA bei Red Hat.

Studie „The Resurgent Finance Leader“: CFOs sind bereit, strategische Führungsrolle einzunehmen

In Teil 1 hatten wir dargestellt, dass CFOs die Finanzabteilung in die digitale Zukunft führen, aber auch im digitalisierten Unternehmen als Ganzes eine strategische Führungsrolle einnehmen müssen. Aber sind die CFOs auch darauf vorbereitet und bereit dazu, sich in diese Richtung zu verändern? Genau zu diesem Thema hat Board in seiner Studie „The Resurgent Finance Leader“ weltweit 600 Führungskräfte aus dem Finanzbereich befragt. Ansgar Eickeler, General Manager Central & Eastern Europe bei Board International, erläutert uns in Teil 2 die Ergebnisse und gibt uns seine Einschätzung.

Beurteilung der aktuellen Situation

Ausgangspunkt waren Fragen zur aktuellen Situation der Finanzabteilungen. Befragt nach ihren Herausforderungen antworten 51 % der befragten Finanz-Führungskräfte, dass sie die gestiegenen Erwartungen der Business Partner als größte Herausforderung für die Finanzabteilung im Unternehmen sehen. 89 % der Finanz-Führungskräfte sind sich bewusst, dass sie nicht nur zusehen dürfen, wie immer mehr Finanzfunktionen automatisiert werden, sondern dass sie jetzt die Chance ergreifen müssen, sich zu verändern und eine neue strategische Rolle im Unternehmen zu übernehmen.


Interessant war, worauf die Finanz-Führungskräfte derzeit den Großteil ihrer Zeit und Ressourcen verwenden. 18 % geben an, sich immer noch hauptsächlich um die Erledigung der Grundlagenarbeit zu kümmern. 23 % der Befragten sind da schon weiter und verwenden den größten Teil ihrer Zeit und Ressourcen darauf, die Zukunft des Finanzwesens zu gestalten. 33 % nutzen die Zeit, um ihr Knowhow im Bereich der Digitalisierung zu stärken.


Umgang mit Daten

Die Antworten zeigen, dass Digitalisierung und der Umgang mit den gewonnenen Daten in den Köpfen der Finanz-Führungskräfte angekommen ist und eine wichtige Rolle spielt. Erkenntnisse aus der Analyse der Daten bieten ungeahnte Möglichkeiten für das gezielte Wachstum von Unternehmen. Die CFOs sind sich bewusst, dass sie diese Chance für sich nutzen müssen. 91 % sehen die Finanzabteilung als natürlichen Ort für die Analyse der Daten. Allerdings sind sie noch nicht überzeugt, dass die Voraussetzungen bereits gegeben sind. So glauben lediglich 47 %, dass die Finanzabteilung dafür gerüstet ist, wertvolle Erkenntnisse aus den Daten zu gewinnen, die für Geschäftsentscheidungen und Rentabilität entscheidend sind.

Veränderung und Kultur

„CFOs sehen in Technologie eine wichtige Unterstützung für ihre zunehmend veränderte Rolle hin zum Business-Partner“, zieht Ansgar Eickeler als Fazit aus der aktuellen Studie.

Es müssen also Veränderungsprozesse greifen, um die Finanzabteilungen so umzubauen, dass sie den Anforderungen der Zukunft genügen. Die gute Nachricht ist, dass den Unternehmen die Notwendigkeit dieser Veränderung bewusst ist und dass die Unternehmensleitung diesen Wandel auch unterstützt. So fühlen sich 94 % der befragten Finanz-Führungskräfte von der Unternehmensleitung bestärkt, den Wandel zum wichtigen Business Partner durchzuführen.
Offen ist, ob der Wandel wirklich gelingt. 92 % der Befragten sagen, dass sich die Unternehmenskultur ändern muss, um diesen Wandel zu unterstützen. Lediglich 44 % sind der Meinung, dass sie bereits jetzt die Mittel haben, den Wandel umzusetzen. Eines der am häufigsten genutzten Mittel ist, neue Mitarbeiter mit neuen Skills dafür anzuwerben. 87 % der Finanz-Führungskräfte arbeiten daran. Sie sind dabei auch davon überzeugt, dass andere Skills – vor allem aus dem Bereich IT und Data Science – wichtiger werden als reines Finanz-Wissen.

Interessanter Punkt zum Thema Kultur ist ebenfalls, dass 92 % der Finanz-Führungskräfte die Meinung vertreten, die Unternehmenskultur solle das Finanzteam zu Kreativität und Neugier ermutigen, damit es schnell handeln und den Status quo ständig in Frage stellen könne. Das entspricht einem neuen Selbstverständnis der Finanzabteilung und zeigt die Bereitschaft, in Zukunft eine wichtigere Rolle bei der Entscheidungsfindung zu übernehmen.

Die gezielte Nutzung neuer Technologien ist ein probates Mittel, um den Wandel zu erleichtern. Geeignete Programme können den Mitarbeitern im Finanzbereich helfen, Routinetätigkeiten zu automatisieren und einfacheren Zugang zur Analyse von Daten und der Darstellung und Nutzung der Ergebnisse zu bekommen. 34 % halten es für notwendig, den Einsatz von Technologie im Finanzbereich neu zu denken und 65 % sehen zumindest hohes Verbesserungspotential beim Einsatz von Technologie. Entsprechend bewerten 45 % der Finanz-Führungskräfte Investitionen in Finanztechnologie als Top-Priorität.

Einsatz von Technologie

Eine der wichtigsten Funktionen für den Finanzbereich ist das Erstellen von Szenarien in Echtzeit. Das antworten 94 % der Befragten. Ebenfalls 94 % glauben, dass Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) noch stärker Einzug in die Finanzabteilungen halten werden und die Ergebnisse in Zukunft verbessern werden.

Fazit

Die aktuelle Board-Studie zeigt, dass es immer noch Lücken gibt, wenn es darum geht, die richtige Technologie, die richtigen Fähigkeiten und die richtige Kultur zu etablieren, um die Finanzabteilung von einer reinen Unterstützungsfunktion zu einem strategischen Business-Partner zu entwickeln. Allerdings sind sich die Finanz-Führungskräfte bewusst, welche Aufgaben vor ihnen liegen und der Großteil von ihnen hat eine Idee, wie sie diese Aufgaben meistern können. Eine wichtige Rolle spielt die Unterstützung durch geeignete Technologie, um im Zeitalter der digitalen Transformation alle Informationen effizient zu nutzen. Damit sind die Finanz-Führungskräfte in der Lage, den Geschäftserfolg mit digitalen Diensten aktiv zu fördern.

Alle Ergebnisse und mehr Details finden Sie in der Board-Studie „The Resurgent Finance Leader“, die Sie hier kostenlos herunterladen können.
Die Studienergebnisse werden zudem in einem exklusiven, kleinen Kreis von Finanz-Führungskräften in Hamburg (21.10.21) und Frankfurt (28.10.21) vorgestellt.
Mehr erfahren:
Frankfurt – https://bit.ly/RFL-FFM
Hamburg – https://bit.ly/RFL-HH

Weitere Informationen unter:
www.board.com/de


Wer steuert die Künstliche Intelligenz?

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 3. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Künstliche Intelligenz stellt auch Politik und Verwaltung vor neue Herausforderungen. Wie wurde in der Vergangenheit technischer Fortschritt wahrgenommen und verhandelt? Was ist mit Öffentlichkeit und Zivilgesellschaft? Was muss als nächstes getan werden? 

 

Elon Musk: „I think, we should be very careful about AI. If i would guess, what our biggest existential threat is, it is probably that. We are summoning the demon.“

„Ich denke, wir müssen sehr vorsichtig sein, wenn es um Künstliche Intelligenz geht. Wenn Sie mich fragen, ist diese Technologie die größte Bedrohung, die es gibt, für die Menschheit. Wir züchten einen Dämon heran.“ 

Elon Musk ist bekannt für seine großen Worte. Der Unternehmer baut als Chef von Tesla nicht nur Elektroautos, er hat auch ein eigenes Raumfahrtunternehmen und will den Mars kolonisieren. Außerdem plant er einen Zug, der mit 1200 km/h durch luftleere Röhren saust – um nur einige seiner visionären Projekte zu nennen. Realisieren kann er all diese Ideen nur mit Künstlicher Intelligenz, an deren Entwicklung er mit seinen Unternehmen arbeitet. Gleichzeitig warnt er schon seit Jahren eindringlich vor den Risiken – und ist damit nicht allein. Auch der Physiker Stephen Hawking etwa spricht davon, Künstliche Intelligenz könne die Menschheit auslöschen.  

Diese Technologie verspricht in Zukunft den größten Fortschritt. Gleichzeitig birgt sie existenzielle Risiken. Wie lassen sie sich minimieren? Wie können wir Künstliche Intelligenz regulieren? Vor welchen Herausforderungen stehen Forschung, Wirtschaft, Politik und Gesellschaft? Darum geht es in der letzten Folge von Böll-Spezial, der Podcast-Serie der Heinrich-Böll-Stiftung.  

Die Anwendungsgebiete von Künstlicher Intelligenz sind heutzutage relativ begrenzt auf spezifische Tätigkeiten, wie Sprache übersetzen oder, in naher Zukunft, Auto fahren.  

Was aber, wenn die Entwicklung so weit ist, dass ein Computersystem auch komplexere Aufgaben erfüllen kann, zum Beispiel unser privater Assistent zu sein? Wenn das System immer mehr lernt, über uns und die Welt? Wäre dann das, was wir aus Hollywood kennen, denkbar? Hätten wir dann diese Superintelligenz, die alles kann, was Menschen können – nur eben viel besser?  Diese Superintelligenz könnte nett zu uns sein, wenn wir ihren definierten Zielen nicht im Weg stehen. Sie könnte uns aber auch einfach auslöschen, weil sie keinen menschlichen Wertvorstellungen unterworfen ist.  

Ob und wann es so weit sein wird, dass wir solche superintelligenten Computer haben, darüber wird unter Forscher*Innen zur Zeit heftig gestritten. Fest steht aber für die meisten: Autonome Entscheidungssysteme müssen kontrolliert werden – und das so bald wie möglich. Welche Regulierungen braucht es also? 

Die technische Ebene

Geht das überhaupt, eine Künstliche Intelligenz zu kontrollieren? Schon jetzt scheinen wir nämlich den Durchblick verloren zu haben. Sogar die Programmierer*Innen einer Künstlichen Intelligenz können nicht bis ins Detail nachvollziehen, warum der Computer zu dieser oder jener Entscheidung gekommen ist. Zum Beispiel sollen sie lernen, Pferde auf Fotos zu erkennen. Niemand weiss genau, warum die künstlichen neuronalen Netze des jeweiligen Systems dann Pferde erkennen. Denn die Algorithmen werden nicht mehr programmiert, sondern lernen selbst – anhand von Unmengen an Daten. So bleiben diese Systeme bis zu einem gewissen Grad black boxes für uns. Wolf Dieter Lukas ist Leiter der Abteilung Schlüsseltechnologien im Bundesministerium für Bildung und Forschung. Auf der Konferenz “Netz-regeln 2017”, die die HeinrichBöll-Stiftung gemeinsam mit dem Branchenverband Bitcom veranstaltet hat, erklärt er anschaulich, dass es sehr schnell zu Fehlern kommen kann bei den selbstlernenden Systemen:  

 

Wolf Dieter Lukas: „Ich weiß nicht, was die Maschine gelernt hat. Ein klassisches Beispiel, Bilderkennung: Es wurde festgestellt, dass die Bilder von Pferden immer zu 100% erkannt werden und die von anderen Tieren immer zu 80 oder 90%. Und ein guter Professor sagte sofort, ihr habt ein Problem mit dem Programm, 100% gibt es nicht. Was war passiert? Die Bilder von Pferden hatten immer ein Copyright. Die Maschine hat nur geguckt, hat das Bild ein Copyright, da hätten sie einen Hund nehmen können, die Maschine hätte es als Pferd erkannt.

Es gibt Übersetzungsmaschinen, die müssen erkennen, welche Sprache gesprochen wird. Die Maschine, was hat sie gemacht, sie konnte es zu 100%. Professor sagt wieder zur Mitarbeiterin, das kann nicht sein, 100%. Guck mal, in welcher Zeit das passiert. – Unter einer Sekunde, Zehntelsekunde. -Hat die Konversation überhaupt schon stattgefunden? -Nein. Bevor die miteinander sprachen, wusste das System in welcher Sprache. Was war? Es hatte einfach erkannt die Klimaanlage – in den USA klappert sie, bei uns nicht. Und wenn es klappert, dann wusste sie: Jetzt kommt englisch, oder amerikanisches Englisch.”   

Wie genau der Algorithmus arbeitet, können wir also gar nicht kontrollieren – wohl aber die Grundsätze und Daten anhand derer der Computer lernt. Denn das müssen wir uns klar machen: Auch Algorithmen entscheiden nicht neutral. Ihre Entscheidungen sind abhängig von ihren Entwickler*Innen und von den Datensätzen, mit denen sie gefüttert werden.  

In den Folgen eins und drei dieses Podcasts gehen wir näher darauf ein: Wir zeigen, wie Künstliche Intelligenz Menschen diskriminieren kann, wenn das System seine Entscheidungen auf Grundlage, zum Beispiel, sexistischer oder rassistischer Vorurteile fällt.  
Sprecherin: Wie können wir also gewährleisten, dass Algorithmen ausgewogen entscheiden? Eine Lösung könnte ein Amt sein oder ein öffentliches Institut, das Algorithmen und Entscheidungsprozesse überprüft, um sicher zu stellen, dass die KI entsprechend unserer freiheitlich demokratischen Werte handelt und etwa nicht gegen das Antidiskriminierungsgesetz verstößt. 

 

Joachim Fetzer: „Der Algorithmen-TÜV. Es ist eine attraktive Begriffsbildung die verspricht ja echt deutsche Sicherheit und Gründlichkeit. Und jeder denkt dann an die große und erfolgreiche deutsche Leittindustrie. Ich habe auch gar nichts gegen Tüv und übrigens auch Dekra und ich freue mich, dass natürlich nicht nur jedes Auto, sondern auch jeder Aufzug regelmäßig geprüft wird. Aber was ist wichtiger: der Führerschein für alle oder der Tüv? Ich glaube, dass der Führerschein wichtiger ist als der Tüv. Und insofern gibt es bestimmte Denkstrukturen die die für die Datenwelt wichtig sind. Ich glaube dass es zum Alltag gehören sollte, so wie Schuhe binden, sich anziehen, dass man in diesen Denkstrukturen alltäglich zu Hause ist.” 

Der Wirtschaftsethiker Joachim Fetzer betont, wie wichtig es ist, dass wir verstehen, wie Künstliche Intelligenz über uns bestimmen kann. Wir müssen nicht alle programmieren lernen, wohl aber verstehen, welche Denkmuster hinter dieser Technologie stecken: um zu verhindern, dass sie zu einem Machtinstrument einiger weniger wird. (Schon heute ist es so, dass Künstliche Intelligenz unsere Entscheidungen manipuliert. Das einfachste Beispiel ist vielleicht die intelligente Werbung bei Google: Der Algorithmus lernt unsere Wünsche kennen – und blendet auf den Werbeflächen der Internetseiten genau das Sportgerät, genau, das Möbelstück ein, das ich überlege zu kaufen.) Deshalb hält es die deutsche NGO AlgorithmWatch für ungemein wichtig, dass eine breite Öffentlichkeit Einblick bekommt in diese komplexen, technischen Vorgänge. Sie schreiben in ihrem Manifest:  

 

“Prozesse algorithmischer Entscheidungsfindung müssen nachvollziehbar sein, damit sie demokratischer Kontrolle unterworfen werden können.”

“Demokratische Gesellschaften haben die Pflicht, diese Nachvollziehbarkeit herzustellen: durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen.“ 

NGO AlgorithmWatch

Das wird vor allem dann wichtig, wenn Künstliche Intelligenz die Entscheidungsmacht hat und richtet, zum Beispiel darüber, wer einreisen darf, zum Vorstellungsgespräch eingeladen wird oder wer einen Kredit bekommt. Oft wissen die Beteiligten noch nicht einmal, dass ein Computer ausgewählt hat. Die Entscheidungen, die ein Algorithmus trifft, müssen transparent sein.

Sie müssen kontrolliert, in Frage gestellt und wenn nötig auch revidiert werden können. Jeanette Hoffmann von der FU Berlin: 

 

Jeanette Hofmann: “Was ich mindestens ebenso wichtig finde, ist, dass, wenn Algorithmen oder überhaupt Maschinen Entscheidungen treffen, die für das Leben von Menschen von unmittelbarer Relevanz sind, dass es dann Einspruchs-Verfahren geben muss, und dass auch jemand außerhalb dieses Algorithmus erklären muss, wie diese Entscheidung zustande gekommen ist. Das heißt, es reicht nicht, dass wir so etwas automatisieren. Sondern es ist wesentlich, dass ein Mensch erklärt was da entschieden worden ist und warum.“ 

Welche Regulierung braucht es auf wirtschaftlicher Ebene?  

The Big Five – die großen Fünf bestimmen zurzeit den Markt: Alphabet, die Mutterfirma von Google, Apple, Amazon, Facebook und Microsoft. Hinzu kommt vielleicht noch der chinesische Internetkonzern Alibaba. Sie treiben die Entwicklung voran, setzten eigene Standards, bevor Gesetzgeber die Probleme überhaupt erkannt haben, sie haben das Know-How – und sie haben unsere Daten. Große Datensätze sind eine wichtige Voraussetzung, um eine effektive Künstliche Intelligenz zu bauen. Je größer der Datensatz, desto besser wird das System lernen:  Je häufiger Google einen Suchauftrag von mir erhalten hat, desto besser weiß das System, nach was ich suchen werde. 

 

Jeanette Hofmann: „Es ist tatsächlich so, dass die Generierung und Analyse von Daten in der Hand von sehr wenigen Organisationen liegt. Und natürlich ist es auch so, dass je mehr Daten man hat, desto bessere Algorithmen kann man auch bauen und damit ist sozusagen in diesem Markt ein inhärenter Trend zum Monopol angelegt. Wir sehen auf der europäischen Ebene verschiedene Versuche, den Besitz von Daten zu regulieren. Das finde ich langfristig auch sinnvoll, auch wenn meine Empfehlungen sicher in eine andere Richtung gehen, als die von der Europäischen Kommission. Ich würde mir wünschen, dass man Daten eher breiter zugänglich macht, um auf diese Weise auch so etwas wie Marktwirtschaft zu erhalten in dem Bereich.”

Also Open Data statt Regulierung? Die EU hat sich anders entschieden: Ab Mai 2018 gilt die neue Datenschutz-Grundverordnung: Sie verpflichtet Unternehmen zu mehr Transparenz und zu einem besseren Schutz der Daten ihrer Kunden: Die Firmen müssen besser und in verständlichen Worten ihre Kunden darüber informieren, was sie mit deren Daten vorhaben, wie lange und wo sie gespeichert werden, etc. Zudem müssen sie die Kundendaten besser vor Cyberattacken schützen. Die strengere Verordnung wird nicht nur für EU-Firmen gelten, sondern für alle Unternehmen, die Kunden in der EU erreichen, also auch für Facebook und Co. 
Sprecher: Kontrolle ist gut – aber die EU sollte endlich auch die Initiative ergreifen und europäische Firmen und Unternehmen, die KI-Produkte entwickeln, stärker unterstützen. Das findet der Wirtschaftsethiker Joachim Fetzer:  

 

Joachim Fetzer: „Wenn man etwas kontrollieren will, wäre es schön, wenn man das im eigenen Verfügungsbereich hat. Das heißt, wenn wir gestalten wollen,  müssen wir erst mal als eigenständiger Akteur bestehen, als globaler Akteur, in der KI-Szenerie und zwar nicht nur in der Forschung. Da sind wir gut, sondern eben auch in der Wirtschaft auftreten, und können uns dann noch überlegen, wie wir da wie kontrollieren können. Insofern würde ich sagen, Lassen Sie es uns gestalten und dann noch über kontrollieren nachdenken statt zuerst über kontrollieren nachzudenken, was man gar nicht gestaltet hat.“ 

Google und Co schaffen allerdings Fakten – die eine Regulierung notwendig machen. Denn hier geht es um unsere Grundrechte. Google, zum Beispiel, weiß alles über mich: meine Internetsuche verrät, wofür ich mich interessiere, mein Android-Telefon meldet, wo ich bin, mein Kalender verrät, was ich mache, und über mein Emailsystem kennt Google auch all meine Kontakte und Freunde. Wäre Google ein Staat, so hätte er mich in der Hand. Die Autorin und Unternehmerin Yvonne Hofstetter verzichtet deswegen auf ein Smartphone: 

 

Yvonne Hofstetter: “Auf dem Smartphone sind relativ viele Sensoren installiert. die Sensoren sowieso jeden Tag nutzen: Kamera, Mikrofon und dann haben wir natürlich noch Sensorik, das ist uns ganz klar, dass sie da sind: Beschleunigungmesser, Lichtmesser, Kreiselkompass. Diese Dinge sind auch installiert und über diese Sensorik vermisst man das Verhalten des Objekts, das diese Sensoren mit sich herumträgt. Haben wir auch im industriellen Bereich Industrie 4.0: „Industrial Internet of Things“ tut genau das und der Sinn dieser Überwachung ist der, dass wir uns ein Bild machen können, Situationsanalyse über das überwachte Objekt und dass wir eben auch eine Vorhersage treffen, wie sich dieses Objekt verhält.

Es ist kein Problem, wenn das eine Sache ist. Industrieanlage, Ventile, Kompressoren, Weichen, bei der Bahn beispielsweise. Es ist natürlich ein Problem beim Menschen, denn beim Menschen haben sie dann einen ziemlich guten Überblick wie sich so ein Mensch verhält, wie der tickt welche Knöpfe sie an dem drehen können, um ihn zu einer bestimmten Art und Weise um ein bestimmtes Verhalten dort auszulösen.

“Das tritt in Konflikt mit den Grundrechten, die uns als Freiheitsrechte, die uns garantiert sind grundsätzlich garantiert sind. Das Neue daran ist, dass die Hersteller und Betreiber, wenn Sie so wollen, diese Smartphones nicht der Staat sind, sondern private Unternehmen sind aber über diese Technologie in die Lage versetzt werden in unsere Grundrechte einzugreifen. Etwas das der Gesetzgeber gar nicht vorgesehen hat im letzten Jahrhundert.” 

Kontrolle auf politischer Ebene 

Der Bundestagsabgeordnete Konstatntin von Notz ist in der Fraktion der Grünen für die Bereiche Innen- und Netzpolitik zuständig und setzt sich seit Jahren dafür ein, dass die Politik verlässliche Regeln für den digitalen Fortschritt schafft.

 

Konstantin von Notz: “Wir haben etwas zu verlieren. Und das darf nicht dazu führen, dass man retro-verklärende Diskussionen führt oder dass man den Status quo halten will. Aber das hat viel damit zu tun, dass man einen Anspruch formuliert. Gerade auch politisch, gerade auch demokratisch, dass man was zu verteidigen hat und dass es nicht gottgegeben ist, dass durch eine solche Umbruchphase, wie wir sie die nächsten Jahren und Jahrzehnten durchleben werden eben dieses Maß an Freiheit automatisch bleibt. Wir müssen was dafür tun.” 

Welche Gesetze könnten das sein?

Besonders wichtig ist sicherlich der Datenschutz! 

Es ist auch in diesem Bereich nicht einfach, einen gesetzlichen Rahmen zu schaffen, der beides ermöglicht: eine ausreichende Freiheit für den Fortschritt UND einen ausreichenden Schutz für uns Verbraucher.

 

Jeanette Hofmann: “Ich glaube, dass unsere Datenschutzverordnung nicht lange halten wird. Das hat auch ein bisschen mit Big Data zu tun. Im Falle von Big Data aber auch im Bereich von Internet of Things: Da wird ja eine ganze neue Generation von Datentypen generiert und die sind für den Datenschutz oder für die Privatsphäre der Menschen unmittelbar relevant. Weil mehr und mehr Daten produziert werden, die zwar nicht für sich genommen Aufschluss auf Personen auf individuelle Personen geben , aber zusammengenommen tun sie das. Und wenn wir dies … in einem solchen Umfang eine Verdatung unseres öffentlichen Lebens und auch unseres privaten Lebens erzeugen, dann müssen wir sicherstellen, dass die Privatsphäre der Menschen gewahrt bleibt und dass man vor allen Dingen selber weiß, was mit den eigenen Daten passiert, und dass wir auch wissen, wer diese Daten eigentlich speichert.” 

Doch was nützt es, strenge Datenschutzregeln gesetzlich zu verankern, wenn viele Menschen ihre Daten freiwillig, Google, Facebook und Co zu Verfügung stellen – und deren Künstlichen Intelligenzen immer mächtiger machen?  

Konstantin von Notz: “Also ich glaube man kann die Leute vor krasser Selbstschädigung nicht bewahren. Aber auch in dem Bereich gilt: Man muss sich einfach klar machen was da passiert, und man kann nicht in totaler Naivität sozusagen sich solchen solche Dinge zu eigen machen und am Ende des Tages muss es Aufklärungspflicht und Schutz geben. Also wir sind ja in ganz vielen Bereichen, machen wir den Spagat. Ich selbst rauche zum Beispiel ab und zu. Nun rauchen ist sehr gesundheitsschädlich, das steht auf Packungen auch Fett drauf. Und der Staat sagt „na gut also in dem Bereich, du kannst dich schon selbst schädigen, wenn du willst, aber wir klären zumindest darüber auf,  dass du Bescheid weißt, dass du dich selbst schädigt“. Jetzt sage ich nicht: Man muss große Aufkleber auf Alexas kleben. Aber ich glaube, wir werden schon darüber reden müssen, eben Transparenz herzustellen. Und wenn die Unternehmen das nicht von selbst tun, dann muss man sie im Zweifel dazu verpflichten. Also jemand der sich Alexa ins Wohnzimmer oder ins Kinderzimmer stellt, der muss verstehen, was da genau passiert. Wer die Daten bekommt, wie lange die gespeichert werden, wie die verarbeitet werden, was für Informationen daraus generiert werden – sonst kann kein wirksamer Vertrag über diese Datennutzung entstehen und das muss der Gesetzgeber durchsetzen, dass dieser Anspruch eben gilt.” 

In der neuen EU-Datenschutzverordnung werden die Unternehmen dazu verpflichtet, nicht nur zu informieren – sondern auch VERSTÄNDLICH zu informieren: Denn wer versteht schon diese viel zu langen, viel zu komplizierten AGBs? Wer liest sich das durch, bevor man sich die App auf dem Smartphone installiert?. Auch Jeanette Hofmann fordert, dass auf der politischen Ebene viel mehr zum Schutz der Verbraucher*innen und Bürger*innen getan werden muss:  

 

Jeanette Hofmann: „Ich glaube, dass das Wirtschaftsmodell mit dem zurzeit Daten gesammelt werden, also, dass wir faktisch ohne Entgelt sehr viele digitale Kommunikations-Dienste nutzen und das mit unseren persönlichen Daten zahlen und dann auch noch die vertragliche Konstruktion so ist, dass wir dem zustimmen. Das ist sozusagen, die Verantwortung für die Folgen dieses Wirtschaftsmodells uns individuell zugerechnet wird, weil wir ja so etwas wie eine informierte Einwilligung haben – das finde ich wirklich eine geradezu zynische Lösung.” 

Allerdings sollte es auch für die Unternehmen, die mit KI arbeiten und Geld verdienen wollen, von großem Interesse sein, dass in einem klaren rechtlichen Rahmen zu tun. Schließlich werde sich die Technik sonst einfach nicht durchsetzen, meint Konstantin von Notz.

 

Konstantin von Notz: “Es ist einer der großen Trugschlüsse dieses libertaristischen SiliconValley-Weltbildes, je weniger Staat desto geiler für die Digitalisierung, desto besser für den Menschen. Zumindest in europäischen Kontexten stimmt das nicht, diese Techniken werden nur auf Akzeptanz stoßen, wenn sie rechtsstaatlich eingehegt sind. Auch die Fantasie zur Zukunft des Automobils, werden nur funktionieren, wenn das rechtsstaatlich funktioniert.“

Wie sollen wir Künstliche Intelligenz kontrollieren? Dieser Podcast hat gezeigt, dass es darauf keine einfache Antwort gibt. Viele Fragen sind offen: Wie können wir die Kontrolle behalten über diese riesigen Datensätze, mit der die Künstliche Intelligenz arbeitet?  
Wie sollen die Gesetzgeber mithalten mit einer Entwicklung, die so rasant ist?  

Wie schaffen wir es, nicht nur nationale oder EU-Richtlinien zu schaffen, sondern auch globale Verordnungen, die es braucht, weil die großen Unternehmen weltumspannend arbeiten? 

Müssen wir auch regulieren, wofür Künstliche Intelligenz eingesetzt wird? Wie sieht es, zum Beispiel, mit der Entwicklung von Kriegsrobotern aus? Dürfen wir zulassen, dass weiter an autonomen Killermaschinen geforscht wird und diese dann auch eingesetzt werden?   

Und was passiert, wenn Roboter tatsächlich irgendwann schlauer sein sollten als wir? Elon Musk arbeitet bereits an einer Lösung dieses Problems: Er hat dafür die non-profit Organisation “Open AI” gegründet, die sich der Erforschung der Künstlichen Intelligenz verschrieben hat. Seine neue Idee, um zu verhindern, dass die Künstliche Intelligenz uns überholt: Unser Gehirn mit Computern zu vernetzen. Damit will er die Konkurrenz zwischen Mensch und Maschine auflösen.  

 

Yvonne Hofstetter: „Jetzt kommt ein verändertes Menschenbild auf uns zu, aus dem Silicon Valley. Das drückt sich aus in Sätzen, die wir von dort hören, wie: „der Mensch ist die ultimative Maschine“, „Wir wollen unsere künstliche Intelligenz dazu einsetzen um die Menschen umzuprogrammieren damit sie sich besser benehmen“. Dieses Menschenbild wird transportiert.“ 

Um unsere Souveränität zu behalten, dürfen wir nicht abwarten, was da auf uns zu kommt. Der Auftrag an uns als Gesellschaft lautet also: Künstliche Intelligenz zu verstehen, sich mit ihr auseinander zu setzen, der Technologie mündig gegenüber zu stehen. Sich die Freiheit zu erarbeiten, entscheiden zu können. Und die Wegbereitung nicht allein großen Konzernen zu überlassen, sondern sich individuell, gesellschaftlich und politisch dafür zu engagieren, dass wir eine Wahl haben.  

 

Joachim Fetzer: „Lassen wir uns nichts einreden von der neuen Technik. Bleiben wir erwachsen und nutzen die Technik als Maschine – mehr ist sie nicht.“  

Damit endet unsere 4-teilige Podcast-Serie zum Thema “Künstliche Intelligenz”

Folge 1: Was ist Künstliche Intelligenz

Folge 2: Wie verändert Künstliche Intelligenz den Verkehr?

Folge 3: Künstliche Intelligenz in der Verbrechensbekämpfung

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist eine Produktion des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski. 
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer. 
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger. 

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

 

KI wird Produktentwicklung und Fertigung prägen

Arian van Hülsen, IIoT und AR-Experte bei PTC, und Martin Meßner, Industrie 4.0 Technologie-Experte bei PTC beantworten in ihrem Gastbeitrag die wichtigsten Fragen rund um KI und die Möglichkeiten im Engineering.

Welche Bedeutung haben die neuen Technologien rund um KI für zukünftige Ingenieure?
In alle Entwicklungsprozesse integriert, kann KI zum täglichen Begleiter für Ingenieure werden. Sie müssen andauernd Entscheidungen fällen, die von sehr viel mehr Information abhängen, als sie im Kopf haben können. Etwa, ob sie ein Bauteil neu schaffen oder auf ein vorhandenes zurückgreifen, welches Material sie wählen, welche Tests sie einplanen, welche Art der Verbindung sie wählen, welches Produktionsverfahren, wo sie einkaufen. So kann KI zu enormen Einsparungen führen. Jede Entscheidung im Entwicklungsprozess, jede Produktvariante und Stückliste kann in der Produktlebenszyklus-Management-Lösung Windchill gespeichert werden.
Durch die tägliche Arbeit vieler Designer und Ingenieure entsteht somit automatisch eine äußerst wertvolle Datensammlung, die mit KI analysiert werden kann. Will man zum Beispiel herausfinden, an welcher Stelle ein Prozess einen zeitlichen Bottleneck entwickelt hat und welche Ursache dahintersteckt bzw. welche Maßnahmen ergriffen werden sollten, kann KI hier zu einer Antwort verhelfen.

Wie verändern die neuen Technologien das Ingenieurwesen und die Produktentwicklung und -Planung?
Industrieprodukte, die uns heute im Alltag umgeben, werden zunehmend komplexer. Das liegt neben dem wachsenden Softwareanteil vor allem auch am Fertigungsprozess. Dank der additiven Fertigung können ganz neue Strukturen entstehen, wo das Produktdesign sich zuvor den physischen Grenzen des Drehens, Fräsens oder Stanzens unterwerfen musste. In der additiven Fertigung werden Produkte mit Hilfe von erstellten Gitterstrukturen gedruckt. Diese Strukturen können äußerst komplex ausfallen, und genau hier eignet sich KI hervorragend, diese Komplexität zu beherrschen. Die CAD-Software Creo setzt bei der Topologieoptimierung auf die Anwendung von KI, die künftig bestimmen kann wie die ideale Gitterstruktur aussehen muss, um bestimmte Produkteigenschaften wie Gewicht oder Belastungspunkte zu erfüllen. Man spricht hierbei von Generative Design, das den klassischen Produktionsprozess revolutionieren wird.

Wie kommt momentan KI in der Fertigung, Herstellung und Produktion zum Einsatz?

Ein großes Anwendungsfeld ist das industrielle Produktdesign. Anhand von Rahmenbedingungen, regelmäßig gesammeltem Erfahrungswissen aus Betrieb und Service und konkreten Versuchen können KI-gesteuerte Algorithmen stark optimierte Bauteile entwerfen. Diese sind bei geringerem Gewicht und geringeren Kosten belastbarer und können mit individueller Softwaresteuerung versehen werden, um ihr Verhalten aktiv anzupassen.

Wie kommt momentan KI in der Fertigung, Herstellung und Produktion zum Einsatz?
Ein großes Anwendungsfeld ist das industrielle Produktdesign. Anhand von Rahmenbedingungen, regelmäßig gesammeltem Erfahrungswissen aus Betrieb und Service und konkreten Versuchen können KI-gesteuerte Algorithmen stark optimierte Bauteile entwerfen. Diese sind bei geringerem Gewicht und geringeren Kosten belastbarer und können mit individueller Softwaresteuerung versehen werden, um ihr Verhalten aktiv anzupassen.
Ebenso attraktiv ist der Einsatz im Kontext von Augmented Reality (AR). Angesiedelt an der Grenze zwischen digitaler und realer Welt wandelt sie Objekte oder Areale der Wirklichkeit in konkrete, berechenbare Fakten um. Mit dem sogenannten Deep Learning-Verfahren können digitale Objekte mit all ihren Details analysiert und erlernt werden, um sie später in der Wirklichkeit von jedem Winkel aus wiederzuerkennen.

Wie wird KI den Industriesektor in Zukunft transformieren?
Wer künstliche Intelligenz sagt, sollte sich bewusst sein, dass sie künstlich ist. Es ist keine echte Intelligenz, denn sie ist immer nur für ein konkretes Ziel oder einen festgelegten Anwendungsbereich mit klar definierten Aufgaben bestimmt. Künstliche Intelligenz ist ein Werkzeug wie andere auch, und genau so gilt für sie: man muss wissen, wie man sie einsetzt und wozu. Künstliche Intelligenz ist bereits heute ein fester und wertschöpfender Bestandteil von industriellen Lösungen, und Kunden von PTC arbeiten täglich damit. Mit ein wenig Übung wird der Umgang mit künstlicher Intelligenz zu einer sehr eleganten und wertvollen Fähigkeit, die Unternehmen im Wettbewerb stärkt und voranbringt.

Wie sollten Industrie- und Produktionsunternehmen vorgehen um KI-Technologien zu implementieren?
Der Fokus sollte statt auf die Vision auf das konkret Machbare gelegt und das konsequent zu Ende gedacht werden: vom Prototypen bis hin zu industrietauglichen Lösungen, die einen konkreten Mehrwert liefern und Widerstände überwinden.
Bei der angewandten KI kann man zwischen den Algorithmen unterscheiden, die für den Anwender unsichtbar in der Software verbaut sind und einen ganz gezielten Entscheidungsprozess unterstützen, und denjenigen Algorithmen, die darauf warten mit den Daten unserer Kunden gefüttert zu werden, um individuelle Fragen zu beantworten.
Das wesentliche Kriterium für erfolgreiche KI-Anwendungen liegt dabei in der Menge und Qualität der Daten, mit denen die Algorithmen trainiert wurden und arbeiten. Die Aufgabenstellung muss dafür klar definiert und konstant sein. Hält man diese beiden limitierenden Faktoren unter Kontrolle, kommen die Vorteile von KI zur besten Entfaltung, und sie kann ihre größte Stärke ausspielen: aus sehr großen und unüberschaubaren Datenmengen die richtigen Schlüsse ziehen.

Weitere Informationen unter:
https://www.ptc.com/de/industry-insights/artificial-intelligence

Der Wert der Daten

Ein gutes Stammdatenmanagement und die dadurch geschaffene Datentransparenz sind die Voraussetzungen für den Aufbruch hin zum digitalisierten Unternehmen. Für viele Unternehmen ist jedoch die Datenqualität die zentrale Herausforderung.

Digitalisierung ist ein Muss für Unternehmen. Doch der Aufbruch in die Zukunft beginnt bei den Daten. Vielerorts kann man erkennen: Unternehmen investieren zwar in transformative Technologien, die Reife der Daten kommt aber nicht hinterher. Es gibt große Schwierigkeiten, die Menge und Komplexität der vorhandenen Daten zu bewältigen.

Die Harvard Business Review schreibt, dass nur drei Prozent der Daten von Unternehmen grundlegende Qualitätsstandards erfüllen. 69 Prozent der im Jahr 2019 befragten Führungskräfte berichten, dass sie keine datengesteuerte Organisation schaffen können. 75 Prozent der befragten CEOs bekommen einer Studie von McKinsey aus dem Jahr 2020 zufolge auf halbem Weg ihrer digitalen Transformationsinitiativen Probleme mit der Dateninfrastruktur.

Die mangelnde Qualität von Daten ist ein kostspieliges Problem, wenn man weiß, dass Experten im MIT Sloan Management Review die geschätzten Auswirkungen von schlechten Daten auf 15 bis 25 Prozent des Umsatzes der meisten Unternehmen beziffern.

Vielfältige Herausforderungen

„Branchen werden zu Ökosystemen, in denen voneinander abhängige Lieferanten, Händler, Kunden, Wettbewerber und Behörden nahtlos zusammenarbeiten, um Daten auszutauschen.“

Dazu kommt eine häufige dezentrale Datennutzung und -freigabe: Dadurch nutzen oder bearbeiten immer mehr Personen Daten im gesamten Unternehmen. Mit der voranschreitenden Ausbreitung von Technologien und Plattformen gibt es immer mehr Quellen, Systeme und Anwendungen, in denen Daten gesammelt, gespeichert und verwendet werden.

Durch heterogene Datenquellen, große Datenmengen und eine Vielzahl unstrukturierter Datentypen nimmt generell die Komplexität von Daten zu. Erfolgreiche Unternehmen kennen kein Innen und Außen mehr: Branchen werden zu Ökosystemen, in denen voneinander abhängige Lieferanten, Händler, Kunden, Wettbewerber und Behörden nahtlos zusammenarbeiten, um Daten auszutauschen. Das alles verschärft die Probleme im Datenmanagement.

Hochwertige Daten

Ein gutes Stammdatenmanagement (Multidomain Master Data Management, MDM) sollte der Ausgangspukt für jedes Unternehmen sein, das seine Datenreife verbessern will. Stammdaten sind wichtige Geschäftsinformationen, die die Transaktionen unterstützen. Sie beschreiben die an den Transaktionen beteiligten Kunden, Produkte, Teile, Mitarbeiter, Materialien, Lieferanten, Standorte. Transaktionsdaten, Big Data und Berichtsdaten, alle sind auf Stammdaten angewiesen, um nützlich zu sein. Schlechte Daten führen zu unzuverlässigen Berichten, fehlerhaften Analysen und betrieblicher Ineffizienz.

Eine Stammdatenmanagement-Plattform, wie STEP von Stibo Systems, hilft dabei, Daten-Duplikate zu entfernen, Stammdaten zu standardisieren und Regeln einzubauen, die verhindern, dass falsche Daten in das System gelangen. MDM schafft einen Digital Business Hub, eine skalierbare Plattform, die Stammdaten über ALLE Datendomänen hinweg verbindet und syndiziert. Der Hub bietet eine umfassende On-Demand-Ansicht des Unternehmens und seiner Einheiten, indem er den Zugriff auf einen Single Point of Truth mit relevanten, miteinander verknüpften Informationen ermöglicht.

Datenstruktur für die Transformation

Qualitativ hochwertige Daten werden überall benötigt. E-Commerce-, Inventar-, ERP- und POS-Plattformen sind auf genaue Produktdaten angewiesen, um Produktverfügbarkeit und -attribute über alle Berührungspunkte hinweg korrekt und konsistent darzustellen.

Anwendungen, die durch Machine Learning und künstliche Intelligenz angetrieben werden, nutzen hochwertige Daten, um ihre Algorithmen zu trainieren. Advanced Analytics Engines kombinieren Stammdaten mit anderen Datenquellen. Das erfordert die Verknüpfung von Stammdaten mit Verkäufen, Beständen, Klickströmen, Webanalysen und dem Internet der Dinge.

Business-Intelligence-Plattformen sind auf Stammdaten angewiesen, um einen genauen Überblick über den Zustand des Unternehmens zu erhalten und realistischen Input für die strategische Entscheidungsfindung zu liefern. Marketing-Plattformen und CRM benötigen 360-Grad-Kundenprofile sowie umfangreiche und konsistente Produktdaten, um Kunden mit relevanten und personalisierten Inhalten zu versorgen.

Personalisierung im Handel

Beispiel Handel: Hier erwarten die Kunden personalisierte Einkaufserlebnisse, egal ob online oder im Geschäft. Um ihnen die gewünschte Personalisierung zu bieten, benötigen Unternehmen verlässliche Daten und eine einzige, einheitliche Sicht auf den Kunden. Dazu müssen Tausende von Produkten auf globale Websites und ins digitale Ökosystem migriert werden.

Eine digitale Multidomain-Master-Data-Management-Lösung hilft, strategische Ergebnisse zu erzielen, indem sie einen zentralen Aufbewahrungsort mit sauberen, genauen und konsistenten operativen Daten über Produkte, Kunden, Lieferanten schafft. Durch automatisierte Workflows und Genehmigungsprozesse gelingt ein schnelles Onboarding neuer Lieferanten und Artikel und eine Anreicherung von CRM- und ERP-Daten durch die Zusammenführung von Kundendaten. So wird die digitale Transformation zu einer Erfolgsgeschichte.

Virtuelle Assistenten für bessere Kundenbindung

Morna Florack sieht Unternehmen im Vorteil, wenn sie im Kundenservice auf virtuelle Assistenten setzen. Dazu müssen diese aber technologisch State-of-the-Art sein, um wirklich einen Mehrwert bieten zu können. Wie das gelingt, beschreibt sie im Gastbeitrag.

Unternehmen stehen heute mehr denn je im Wettbewerb: Ob im Einzelhandel, der Finanzbranche, oder dem Gesundheitswesen – überall drängen neue, zumeist digitale Anbieter auf den Markt und versuchen Anteile zu übernehmen. Hinzu kommt, dass viele Produkte und Services sich im Kern zunehmend ähneln und als Differenzierungsfaktor langsam ausgedient haben. Selbst an der Preisschraube zu drehen, hilft vielerorts nicht mehr weiter. Wer sich stattdessen von der Konkurrenz abheben möchte, sollte die Customer Experience in den Blick nehmen und sie noch gezielter an die Bedürfnisse der Kundinnen und Kunden anpassen. Wie Technologien, beispielsweise virtuelle Assistenten oder Sprachbiometrie, zu einem positiven Erlebnis beitragen können, führt Morna Florack, Account Executive bei Nuance aus.

Einerseits vor Ort, andererseits stärker digital präsent: diesen Spagat können Unternehmen im Kundenservice nur gewinnen, wenn sie intelligente, virtuelle Assistenten einsetzen, schildert Morna Florack.

In den letzten Jahren haben sich die Vorstellungen von Konsumentinnen und Konsumenten, wie sie mit Unternehmen interagieren möchten, erheblich gewandelt. Einen Anteil hat daran auch die COVID-19-Pandemie und die aus ihr folgenden Einschränkungen. Das zeigt eine aktuelle Studie von Nuance: So plant knapp die Hälfte der Befragten in Deutschland (49 Prozent) auch nach Ende der Pandemie vermehrt über Online-Kanäle mit Unternehmen zu kommunizieren. Da außerdem mehr Produkte und Dienstleistungen digital angeboten wurden, fühlt sich inzwischen ein Drittel (34 Prozent) wohler dabei, über ihr Smartphone auf Konten zuzugreifen, als es vor der Pandemie noch der Fall war.

Gleichzeitig bevorzugen viele Menschen immer noch die persönliche Betreuung, um Anliegen zu klären. Unternehmen stehen damit vor der Herausforderung, dass sie einerseits vor Ort weiterhin präsent sein, andererseits aber ihre digitalen Angebote stärker ausbauen müssen, um ihre Konsumentinnen und Konsumenten auf allen relevanten Kanälen zu erreichen und ihnen dabei die bestmögliche Erfahrung zu bieten.

Die Customer Experience gewinnt an Bedeutung – vor Ort und online

Das Vor-Ort-Erlebnis lebt zum einen von den Produkten oder Dienstleistungen und deren Präsentation, und zum anderen von den Angestellten, die kompetent beraten und bei Problemen Hilfestellung geben. Darüber hinaus sind aber auch weitere Faktoren entscheidend. Beispielsweise zeigt eine Umfrage des ITK-Branchenverbandes Bitkom aus Dezember 2020, dass Kundinnen und Kunden sich WLAN in Geschäften wünschen. Außerdem möchten sie gern per App in Echtzeit erfahren, wie viel Produkte vor Ort kosten und ob sie vorrätig sind. Auch einige Entwicklungen, die stark der Pandemie geschuldet sind, haben die Einkaufserfahrung verbessert, sei es die mittlerweile auch in kleineren Geschäften verbreitete Möglichkeit, bargeldlos zu zahlen, oder Click-and-Collect.

Das gleiche gilt insbesondere aber auch für digitale Angebote von Unternehmen: Zu oft sind die Homepage, App oder der Online-Shop noch unübersichtlich gestaltet, wichtige Informationen auf mehreren Unterseiten versteckt oder Kundinnen und Kunden müssen ihre Daten immer wieder eintippen. Das kann schnell dazu führen, dass sie den Kaufprozess abbrechen und sich einem anderen Anbieter zuwenden, bei dem eine positive Customer Experience stärker im Fokus steht. Nur wer auf allen Kanälen immer die Endnutzerinnen und Endnutzer und ihre Bedürfnisse im Blick hat, kann eine nahtlose und hochwertige Erfahrung bieten. Neue, intelligente Technologien können dabei unterstützen.

Chatbots werden immer intelligenter und damit nützlicher

So lässt sich der Kundenservice auf einer Website oder in einer App leicht durch die Integration eines virtuellen Assistenten verbessern. In der Nuance-Studie gaben 16 Prozent der Teilnehmenden an, bereits täglich, wöchentlich oder monatlich Unternehmen, bei denen sie über ein Konto verfügen, über einen KI-Chatbot zu kontaktieren. Vor allem solche, die auf Natural Language Understanding (NLU)-Modellen basieren, sind in der Lage, nicht nur die zuletzt eingetippte Frage zu verstehen, sondern mithilfe von weiterem Kontext oder vergangenen Aktivitäten auch die eigentliche Intention hinter der Frage. Nuance trainiert die tiefen neuronalen Netzwerke, die seinem virtuellen Assistenten zugrunde liegen, mit großen Datensätzen, damit sie Wörter, Absichten und Gesprächseinheiten besser erkennen und sinnvoll darauf reagieren können. Dadurch können sie einen Großteil der Anfragen selbstständig übernehmen und schnell weiterhelfen.

Aber auch wenn bestimmte Anliegen ihre Fähigkeiten übersteigen, können virtuelle Assistenten dazu beitragen, den Kundenservice reibungslos zu gestalten, indem sie entweder bei einer Mitarbeiterin oder einem Mitarbeiter im Kundenservice Unterstützung bei der Bearbeitung anfordern oder das Gespräch komplett weitergeben. Dadurch müssen die Kundinnen oder Kunden ihre Fragen und Daten nicht erneut eingeben. Gleichzeitig lernt der Chatbot durch die Interaktion zwischen Menschen dazu, um ähnliche Anfragen in Zukunft selbst beantworten zu können.

Unternehmen, die über den Einsatz eines virtuellen Chatbots auf ihren digitalen Kanälen nachdenken, sollten dafür allerdings genau überlegen, wie sie ihn einsetzen wollen. So kann ein Chatbot über ein sehr breites Wissensspektrum verfügen, muss dann aber gegebenenfalls bei Detailfragen an eine Mitarbeiterin oder einen Mitarbeiter weiterleiten. Soll er dagegen spezifische Probleme lösen, muss er an der richtigen Stelle eingesetzt werden, um Kundinnen und Kunden nicht unnötig zu frustrieren, wenn er ihnen bei anderen Fragen nicht weiterhelfen kann.

Den Identifikationsprozess nahtlos integrieren

Mithilfe von Sprachbiometrie-Lösungen können Unternehmen ihren Kundenservice und dadurch die Customer Experience ebenfalls aufwerten. Bislang setzen viele Unternehmen bei der Authentifizierung oder dem Log-in noch immer auf eine Kombination aus Kundennummer oder E-Mail-Adresse und Passwort oder PIN. Entsprechend vertraut auch ein Drittel (32 Prozent) der Befragten in der Nuance-Studie dieser Methode am meisten. Allerdings ist sie nicht nur unsicher – Zugangsdaten lassen sich heute problemlos im Dark Web erwerben – sondern auch oftmals umständlich. Zehn-, zwölf- oder sogar sechzehnstellige Kundennummer sind den Wenigsten immer präsent und wahrscheinlich hat jede Verbraucherin und jeder Verbraucher schon einmal auf „Passwort vergessen“ klicken müssen.

Die Identifizierung anhand sprachlicher Merkmale bietet dagegen zwei große Vorteile: Das Sicherheitsniveau ist sehr hoch, da die Stimme einer Person ähnlich einzigartig ist wie ihr Fingerabdruck. Außerdem vereinfacht sie den Prozess für alle Beteiligten erheblich – Kundinnen und Kunden müssen sich keine Zugangsdaten mehr merken und die Mitarbeiterinnen und Mitarbeiter im Kundenservice können darauf verzichten, lästige Wissensfragen zu stellen, bevor sie mit ihrer eigentlichen Beratung anfangen können. So können Authentifizierungslösungen auf Basis von Sprachbiometrie verschiedene Identifizierungsprozesse ersetzen, etwa beim Log-in in das Kunden- oder Bankkonto oder beim Anruf des Kundenservice, um auf allen Kanälen ein nahtloses Erlebnis zu schaffen.

Fazit: Ein durchgehend hervorragender Service baut Loyalität auf

Die meisten Unternehmen können sich heute nicht mehr nur über ihre Produkte oder den Preis von ihren Wettbewerbern differenzieren. Dementsprechend spielt die Customer Experience heute eine größere Rolle, um Kundinnen und Kunden durch positive Erfahrungen langfristig an die eigene Marke zu binden. Dabei darf der Fokus durch die Wiedereröffnung der Geschäfte allerdings nicht alleine auf dem Vor-Ort-Erlebnis liegen – insbesondere durch neue Technologien lässt sich die Customer Experience auch auf digitalen Kommunikationswegen verbessern. Intelligente Chatbots können dabei helfen, Anliegen schnell und unkompliziert zu klären, während sich die Identifikation von Kundinnen und Kunden durch den Einsatz von Sprachbiometrie-Lösungen für alle Beteiligten so bequem wie nie zuvor gestalten lässt.

Weitere Informationen unter:
www.nuance.com

KI ermöglicht starkes Wachstum

Investionen mit Weitblick zahlen sich aus – das beweist die Region rund um Trentino, wie Monica Carotta – Head of FDI Unit at Trentino Sviluppo und Massimo Zorzi – Experienced Project Manager – FDI Unit at Trentino Sviluppo im Interview darstellen. Die Region verbindet Zukunftstechnologien mit nachhaltigen Investitionen.

Monica Carotta wirbt im Interview für den Standort in der Region Trient.

Welche Unternehmens- und Innovationsprojekte unterstützen Sie im Trentino?
Monica Carotta: Wir unterstützen im Trentino innovative Projekte in bestimmten Sektoren. Vor allem im Bereich der Biowissenschaft und der grünen Technologie, einschließlich des Smart Buildings und der Smart Mobility. Durch die Bereitstellung von Fachwissen und konkreter Unterstützung bemühen wir uns, wertvolle Partnerschaften zwischen Unternehmen zu schaffen. Wir sind auf der Suche nach Unternehmen, die in Forschung und Entwicklung investieren sowie neue Lösungen in unseren Gebieten entwickeln möchten.
Wir haben starke Kompetenzen in der Datenanalyse, der Anwendung von künstlicher Intelligenz und maschinellem Lernen entwickelt. Diese können in den verschiedenen Sektoren, aber auch für die Bereitstellung von Dienstleistungen in der öffentlichen Verwaltung angewendet werden. Das macht uns zur der am stärksten digitalisierten Provinz Italiens.

Welche Infrastrukturen, Communities und qualifizierte Arbeitskräfte finden Start-ups und Unternehmen im Trentino vor?
Monica Carotta: In den Technologiezentren von Trient und Rovereto finden Unternehmen jeder Größe einen Platz. Es gibt zwei Parks, welche Büro- und Produktionsräume sowie Forschungslabore beherbergen: Den Polo della Meccatronica und Progetto Manifattura. Die Basisflächen verfügen über bis zu 1.000 m² Platz und liefern einfache bis voll ausgestattete und sofort nutzbare Coworking Spaces in einem dynamischen und modernen Umfeld. Unser Team bietet maßgeschneiderte Standortlösungen, innovative Beschleunigungsprogramme, Managementberatung, Unterstützung bei der Kapital- und Finanzbeschaffung und Mentoring-Dienste an.
Eine wichtige Rolle spielt auch die Universität Trient. Sie ist in Italien der Spitzenreiter in der Kategorie der mittelgroßen Forschungsuniversitäten. Mit elf Fachbereichen, drei Universitätsstandorten, 68 Studiengängen und über 16.000 Studierenden ist sie für die Bildung auf nationaler und internationaler Ebene von großer Bedeutung. Auch in den Bereichen Humanressourcen und Kompetenzen spielt die Universität Trient eine grundlegende Rolle beim Wissenstransfer in die Produktionswelt.
Darüber hinaus stellt Trient den Unternehmen und Bürgern die spezialisierten Dienstleistungen der provinzeigenen Arbeitsagentur zur Verfügung. Dadurch soll die Auswahl des passenden und qualifizierten Personals erleichtert und beschleunigt werden.

Im Video zeigt sich die Hightech-Region
Massimo Zorzi sieht in künstlicher Intelligenz einen großen Wachstumsmotor für die gesamte Region.

Wie unterstützen Sie Unternehmen beim Aufbau internationaler Kontakte und bei der Durchführung ihrer Internationalisierungsprojekte?
Massimo Zorzi: Zunächst verfügen wir innerhalb von Trentino Sviluppo wir über ein Expertenteam, das Unternehmen auf ihrem Weg zum Wachstum auf internationaler Ebene unterstützt.
Wir organisieren maßgeschneiderte Unternehmensprogramme mit Experten des Sektors und des Zielmarktes des Unternehmens, um sie bei der Vermarktung ihrer Produkte bestmöglich zu unterstützen. Außerdem pflegen wir institutionelle Beziehungen zu potenziellen Handelspartnern und organisieren Incoming-Aktionen für die Zielländer.
Trentino Sviluppo koordiniert daneben die Teilnahme von Trentiner Unternehmen an internationalen Veranstaltungen und Messen, um das lokale System mit seinen Besonderheiten und Kompetenzen zu fördern.
Dabei handelt es sich um eine Mischung von Maßnahmen, die Trentino Sviluppo vorschlägt, um Unternehmen zu unterstützen und aufzuwerten. Das beinhaltet sowohl spezifische Pläne zur Unternehmensentwicklung, als auch kollektive Maßnahmen auf internationaler Ebene mit dem Ziel, die institutionelle Zusammenarbeit mit den Regierungen verschiedener Länder für Handelsbeziehungen zu verbessern.
In dieser Zeit des Wandels hat Trentino Sviluppo neue Projekte zur Organisation von Messen und digitalen Veranstaltungen durch die Anpassung spezieller Plattformen gestartet. Auf diesen Plattformen werden Schulungen zur Vorbereitung digitaler B2B-Veranstaltungen angeboten.

Inwieweit fördern Sie Start-ups im Bereich der künstlichen Intelligenz und ist es Ihnen bereits gelungen, Unternehmen aus diesem Hightech-Sektor ins Trentino zu holen?
Massimo Zorzi: Künstliche Intelligenz ist heute die Technologie, die die Entwicklung verschiedener Sektoren ermöglicht. Dank des Engagements und des Weitblicks der Regierung der Provinz, ist das Trentino international für seine exzellente Förderung der künstlichen Intelligenz bekannt. Ein Grund dafür ist, dass das Trentino einen großen Teil seiner Mittel in die öffentliche Forschung investiert – doppelt so viel wie der italienische Durchschnitt.
Seit mehr als 20 Jahren wird in unseren Forschungszentren KI erforscht, was den Aufbau von Beziehungen zu zahlreichen Unternehmen begünstigt hat. Diese reichen von multinationalen Transportunternehmen bis hin zu Start-ups, die Algorithmen der künstlichen Intelligenz für die Erforschung neuer Medikamente entwickeln. Das Trentino ist führend in der Forschung und Ausbildung auf dem Gebiet des maschinellen Lernens. Die Früchte dieser Forschung sind zahlreiche universitäre Spin-offs, die Trentino Sviluppo mit Management unterstützt hat.
Wir arbeiten auch mit bedeutenden Industriekonzernen zusammen, um offene Innovationswege zu unterstützen und technologische Lösungen auf internationaler Ebene zu erforschen. Dadurch wollen wir weitere Unternehmen von unserer Region überzeugen.
Zusätzlich zu den Dienstleistungen, die das lokale System für die Gründung, Entwicklung und Ansiedlung von Unternehmen anbietet, fördert Trentino spezifische Ausschreibungen für die Finanzierung von Start-ups im Technologiesektor.

Weitere Informationen unter:
https://www.investintrentino.it/de/ueber-uns

So gelingt Mittelständlern der KI-Einstieg

Xavier Gonzalez, Vice President Corporate Communication bei Cyxtera, beschreibt, wie Mittelständler hohe Anfangsinvestitionen bei KI-Projekten umgehen können.

Künstliche Intelligenz benötigt leistungsfähige Hardware – das erfordert eine hohe Anfangsinvestition, die vor allem mittelständische Unternehmen scheuen. Wir zeigen, wie ihnen mit Bare Metal on-demand ein KI-Einstieg gelingt, der deutlich kostengünstiger und flexibler ist.

Eine repräsentative Befragung* von über 600 Unternehmen im Auftrag des Digitalverbands Bitkom aus dem April 2021 gibt einen Überblick über den Einsatz von Künstlicher Intelligenz sowie getätigte und geplante Investitionen in KI-Projekte: Während vor allem Großunternehmen mit mehr als 2.000 Mitarbeitenden schon in der Vergangenheit in KI-Projekte investiert haben (41 Prozent) und diese mit spezialisierten KI-Teams oder KI-Abteilungen aktiv vorantreiben (65 Prozent), stehen mittelständische Unternehmen eher an der Schwelle zum KI-Einstieg. Die größte Gruppe der Investitionswilligen ist nämlich laut Bitkom-Befragung bei den Unternehmen mit 500-1.999 Mitarbeitenden zu finden: 49 Prozent von ihnen wollen noch 2021, 2022 oder später in KI-Projekte investieren. Das Fehlen der notwendigen finanziellen Mittel ist für die Befragten – neben Mangel an Personal und Zeit – ein wesentliches Hemmnis für den KI-Einstieg.

Herausforderung Hardware-Kosten

Wie lässt sich nun gerade für mittelständische Unternehmen der Einstieg in KI-Projekte erleichtern? Und warum ist der oft so teuer? Ganz egal, in welchem Unternehmensbereich KI eingesetzt werden soll, für die Bearbeitung großer Datenmengen mit smarten Algorithmen braucht es so viel Rechenkapazität, dass die Performance klassischer Server meist nicht ausreicht. Selbst wenn man den Einstieg in ein KI-Projekt zu Beginn noch mit eigenen Hardware-Ressourcen ermöglichen kann, sobald es ernst wird, braucht es spezialisierte KI-optimierte Hardware. Entscheider in KI-Projekten stehen vor der Aufgabe, ihre Rechenkapazitäten so zu erweitern, dass sie einerseits möglichst kostengünstig und andererseits möglichst flexibel nutzbar sind, um die volle Handlungsfreiheit im Projekt zu behalten und jederzeit nach oben oder unten skalieren zu können.

Warum Hardware-Kauf und Public Cloud zu kurz greifen

Viele Unternehmen müssen bestimmten gesetzlichen Anforderungen genügen oder haben es zur eigenen Policy gemacht, genutzte IT-Infrastruktur komplett selbst zu managen. Ihnen verspricht der Kauf KI-optimierter Hardware umfassende Kontrolle und Sicherheit über die eingesetzten IT-Kapazitäten. Der Kauf aber kostet: Je nach Ausstattung kann KI-optimierte Hardware im Einkauf fünf- bis zehnmal teurer sein als klassische Server. Es braucht also eine hohe Anfangsinvestition sowie passendes Personal, Know-how und die Zeit diese IT-Ressourcen zu integrieren und nutzbar zu machen. Wächst das KI-Projekt, sind weitere Investitionen fällig, wird es reduziert oder gar eingestellt, steht leistungsfähige IT-Infrastruktur möglicherweise ungenutzt herum. In jedem Fall handelt es sich um schnell alternde Technologie, die meist nach wenigen Jahren überholt ist und daher aufgerüstet oder ausgetauscht werden muss. So erlaubt der Kauf eigener KI-fähiger Hardware zwar volle Kontrolle, erweist sich aber als recht teuer und wenig flexibel.

Viele KI-Verantwortliche suchen ihr Heil deshalb in klassischen Public-Cloud-Angeboten. Hier lässt sich mit virtualisierten Rechenkapazitäten leicht und flexibel starten. Doch auch hier entstehen bei näherem Hinsehen für KI-bedingt hohe Computing-Anforderungen oft unerwartet hohe Kosten, denn für virtualisierte GPU-Instanzen ist meist ein enormer Aufpreis zu zahlen. Und sollten die Computing-Kapazitäten aus der Public Cloud nicht mehr gebraucht werden, werden auch hier nicht selten gewaltige Ausstiegsgebühren fällig. So erweisen sich beide Wege häufig als teuer und unflexibel, um gerade mittelständische Unternehmen mit ihren ersten KI-Projekten gut auf den Weg zu bringen.

Das Beste aus beiden Welten

Es gibt jedoch Rechenzentrumsdienstleister, die die Vorteile von Hardware-Kauf und Public-Cloud zu einem neuen Angebot verbinden, das Unternehmen das beste aus beiden Welten bietet und damit gerade Mittelständlern den KI-Einstieg erleichtert. Sie stellen Hardware im Rahmen eines sogenannten Bare-Metal-Service, also ohne Software und Betriebssystem, exklusiv zur Nutzung zur Verfügung. Unternehmen profitieren so von dedizierter Server-Hardware, die sie leicht in unternehmenseigene IT-Infrastruktur aufnehmen können. Wer diese Hardware für KI-Projekte nutzen will, sollte vorher checken, ob die angebotenen Server auch für Künstliche Intelligenz und Machine Learning ausgelegt und konzipiert sind – dann lässt sich nicht nur das eigene KI-Projekt, sondern auch das Preis-Leistungs-Verhältnis am besten optimieren.

KI-optimierte Hardware on-demand

Gerade für KI-Einstiegsprojekte braucht es große Flexibilität: Wenn der Auftakt gelingt, müssen Rechenkapazitäten möglicherweise schnell und umfangreich aufgestockt werden. Wenn nicht, dann sollten sie – vielleicht bis zum nächsten Anlauf – kündbar sein und die eigenen finanziellen Ressourcen nicht weiter belasten. Das gelingt nur, wenn der Rechenzentrumsdienstleister erlaubt, die bereitgestellten KI-optimierten Server nach zeitlichem Bedarf ohne langfristige Verträge nutzen können. Es gilt also, den passenden Anbieter zu finden und langfristige und teure Vertragsverpflichtungen strikt zu vermeiden. Nur dann erlangen Unternehmen mit ersten KI-Projekten die nötige Handlungs- und Entscheidungsfreiheit, ein Projekt weiterzuentwickeln und damit zu wachsen oder es auch schlicht einzustampfen und nach einiger Zeit einen erfolgversprechenderen Ansatz zu wählen.

Was RZ-Dienstleister bieten sollten

Gerade mittelständische Unternehmen mit knappen Ressourcen profitieren davon, wenn der RZ-Dienstleister ihnen bei der Hardware-Bereitstellung, dem Provisioning durch eine leistungsfähige Rechenzentrumsumgebung entgegenkommt. Folgende Aspekte sind hier wichtig: Die KI-optimierte Hardware muss in einem abgetrennten und zugangskontrollierten Bereich des Rechenzentrums vorinstalliert und über redundante Netzwerkschnittstellen miteinander verbunden sein. Ihre Bereitstellung und Implementierung sollte vollständig automatisiert und software-definiert erfolgen. Manche Dienstleister bieten ihren Kunden dazu eine komfortable und leistungsfähige Management-Plattform an, die in das eigene IT-Management integrierbar ist. Das software-basierte Management der KI-optimierten Hardware vereinfacht die Administration deutlich, reduziert Komplexität und Risiken und verringert signifikant den eigenen Zeitaufwand.

Über den Autor: Xavier Gonzalez ist Vice President Corporate Communications bei Cyxtera in Miami, Florida, USA. Cyxtera ist weltweiter Anbieter von Datacenter Services mit europäischen Rechenzentren in den Internet-Metropolen Frankfurt, London und Amsterdam. Gonzalez verantwortet bei Cyxtera neben der Unternehmenskommunikation auch das Community Management des Unternehmens. Er ist seit über 20 Jahren in den Bereichen Informationstechnologie, Marketing und Non-Profit tätig.

Quelle / Source BITKOM

https://www.bitkom.org/Presse/Presseinformation/Kuenstliche-Intelligenz-kommt-in-Unternehmen-allmaehlich-voran

https://www.bitkom.org/sites/default/files/2021-04/bitkom-charts-kunstliche-intelligenz-21-04-2021_final.pdf

Das „Post-Corona-Office“: Raumqualität zählt

Timo Brehme, Gründer und einer von vier geschäftsführenden Gesellschaftern von CSMM – architecture matters, schreibt über das „Post-Corona-Office“.

Im Post-Corona-Office zählt die Flächenqualität. Es darf nicht nur um die reine Fläche an sich gehen, sondern die Nutzung muss den Ausschlag geben. Dieser Gedanke scheint längst noch nicht genügend Einzug gehalten zu haben, wie Timo Brehme erläutert. (Bildquelle: CSMM architecture matters; Eva Jünger)

Wird durch die Pandemie mehr oder weniger Fläche gebraucht? Meiner Meinung nach ist diese Frage zu eindimensional. Es ist ein Fehler, überwiegend über Quantität zu diskutieren. Es braucht stattdessen eine Diskussion um Qualität. Weg vom zahlengetriebenen Blick auf die Quadratmeter, hin zum Blick auf den erwünschten Output. Auch wenn wir kurzfristig die Kosten senken können, indem wir Flächen reduzieren: Die Mitarbeiter*innen als wichtigste Ressource im Unternehmen müssen vielschichtiger betrachtet werden. Die Büroräume müssen ihren Arbeitsbedarfen entsprechen und so konzipiert sein, dass sie sich wohlfühlen um bestmögliche Leistungen erbringen zu können.


Jetzt ist der richtige Zeitpunkt in New Work zu investieren und traditionelle Bürostrukturen zu überdenken. Wir glauben bei CSMM an den Möglichkeitsraum als mitarbeiter*innenfreundliche Lösung. Dieses Büro der Zukunft bietet nicht nur mehr Raum für Mitarbeiter*innen, sondern Flexibilität in räumlicher wie personeller Hinsicht. Während Kolleg*innen beispielsweise konzentrierte Schreibarbeiten an mehreren Tagen in der Woche im Homeoffice erledigen können oder in spezifisch dafür konzipierten Rückzugsräumen im Büro, spielen sich Besprechungen und Kreativmeetings in großzügig gestalteten Teamräumen ab. Ausreichend Raum für diesen persönlichen Austausch einzuplanen, halten wir für extrem wichtig. Grundsätzlich steigt der Bedarf an gemeinschaftlich genutzten Flächen im Büro. Das ist ein Trend den wir schon seit Jahren beobachten. Nur wurde diesem Bedarf nicht in dem Umfang entsprochen wie es nötig gewesen wäre. Die Erfahrung der Pandemie unterstreicht jetzt noch mal die Dringlichkeit.

Trend zur Hybridisierung

In der hybriden Arbeitsweise zwischen Büro, der mobilen Arbeit an dritten Orten und von zu Hause wird es in Arbeitsräumen vieler Unternehmen künftig überwiegend keine feste Zuordnung von Arbeitsplätzen und Mitarbeitenden mehr geben. Desk Sharing mit flexibler Arbeitsplatzwahl gilt als Modell der Zukunft. Aus diesem Grund müssen die Nutzer*innen von Büroimmobilien mit ihren Bedürfnissen im Fokus stehen. Hybride Bauten, die sich sowohl durch Nutzungsvielfalt und Erlebnisqualität auszeichnen als auch flexibel und dadurch langfristig angelegt sind bieten hierfür die architektonische Lösung.

Nachhaltigkeits-Potenzial findet sich auch in sogenannten »hybriden Gebäuden«, die eine Mehrfachnutzung ermöglichen. Ein Raum der tagsüber als Büro genutzt wird, kann durch die Umpositionierung von mobilen Trennwänden mit relativ wenig Aufwand zum Beispiel in eine Bar umgewandelt werden. Oder in ein Yogastudio. Bisher haben Architekten Räume zu sehr auf eine einzige Nutzungsform beschränkt und gedacht. Diese mentalen Barrieren gilt es zu überwinden und dadurch mehr Nutzen aus vorhandenen Raumressourcen zu ziehen. Zudem können Eigentümer und Projektentwickler auf diese Weise dem Bedürfnis der Menschen nach neuen Arbeitsformen entgegenkommen – was ihre Objekte für den Markt attraktiver macht.

Veränderte Rahmenbedingungen

Die Gesellschaft kann sich nicht dauerhaft einsperren, langfristig müssen wir unsere Umgebung so gestalten, dass sie sich flexibel auch an Pandemie Situationen anpassen lässt. Das gilt für alle Büroflächen, auch für Co-Working Spaces mit unterschiedlichen Gründern. Voraussetzung bleibt immer ausreichend Raum um Abstandsregeln einhalten zu können und ein ausgeklügeltes Hygienekonzept. Dazu gehören beispielsweise auch eine Ausstattung mit leicht zu reinigenden Oberflächen und die erforderliche technische Ausrüstung um digital arbeiten zu können. Für Mitarbeiter*innen, die in den nächsten Monaten allmählich an ihre Arbeitsplätze in den Büros zurückkehren, gelten jetzt veränderte Rahmenbedingungen. Viele Unternehmen gehen schrittweise vor und holen die Menschen gruppenweise zurück. Dabei stellen sich viele organisatorische Fragen. Was lässt sich aus der Homeoffice-Phase übernehmen? Was muss sich im Büro mittel- und langfristig ändern, um auch neuerlichen Pandemien oder einer weiteren Welle zu begegnen? Dabei steckt die größte räumliche Herausforderung in den Gemeinschaftsflächen wie Toiletten und Teeküchen, den Team- und Konferenzräumen. Diese sind tendenziell eher zu klein, um Abstandsregeln einzuhalten. Ein Open Space Büro mit großzügigem Raumkonzept bietet hier flexible Lösungen zur Anpassung und ermöglicht es die Regeln entsprechend umzusetzen.

Teamarbeit und Kommunikation im Vordergrund

Ich glaube, dass sich die Rolle und Bedeutung des Büros grundsätzlich ändern wird, dass das Büro nicht länger der Ort sein wird, wo Mitarbeiter*innen tägliche Routineprozesse abarbeiten. Diese Tätigkeiten sind längst ausgelagert, sei es durch die IT oder durch Outsourcing an Dienstleister. Stattdessen wird sich das gemeinsame Büro zu einem „Hub & Home“ entwickeln, wie wir es bei CSMM nennen. Als „Home“ bietet es der Belegschaft eine Unternehmensheimat und vermittelt Zugehörigkeit. Zudem dient es als „Hub“, als Dreh- und Angelpunkt, an dem Kollegen zusammenkommen, um kreativ zu sein und gemeinsam Ideen zu entwickeln. Wir sind außerdem überzeugt, dass das Multi-Space als Möglichkeitsraum das Raumkonzept der Zukunft darstellt. Hier stehen die Teamarbeit und die Kommunikation im Vordergrund. Unsere Möglichkeitsräume schaffen einen flexibel auf die Bedarfe anpassbaren Rahmen für verschieden gestaltete Begegnungs- und Rückzugszonen, wobei der Fokus auf der Begegnung liegt. Letztlich geht es um internes Co-Working. Die Komplexität der Arbeitswelt nimmt ja stetig zu. Längst sind es nicht mehr einzelne Personen, die an einem Projekt oder einer Aufgabe arbeiten, sondern Teams. Das erfordert agile Strukturen, in denen man unkompliziert zusammenkommen, sich aber auch wieder zurückziehen kann. So entsteht ein Wechselspiel aus kommunikativer Team- und konzentrierter Einzelarbeit, das räumlich abgebildet werden muss.

Wie das konkret aussehen kann, wird man unternehmens-, abteilungs- oder sogar teamspezifisch lösen. Genauso wie man für jedes Team, jedes Unternehmen spezifisch klären muss, in welchem Umfang man den Mitarbeitern*innen Homeoffice anbietet. Manche Unternehmen arbeiten in Wechselteams, die in einem regelmäßigen Turnus entweder geschlossen zuhause oder geschlossen vor Ort arbeiten, dabei aber keine räumliche Überschneidung mit anderen Teams haben. Dadurch werden Einzelarbeitsplätze frei, die man umnutzen kann, zum Beispiel für Teamräume. Wechselarbeitsplätze werden auch deshalb eine immer größere Rolle spielen.


CSMM versteht sich als Architektur- und Beratungsunternehmen, das sich auf zukunftsweisende Arbeitswelten und Büroimmobilien spezialisiert hat. Damit ist CSMM seit 18 Jahren national wie international sehr erfolgreich und heute eine der führenden Adressen in diesem Segment. CSMM begleitet sowohl Vermieter*innen und Eigentümer*innen als auch Mieter*innen und Nutzer*innen von Gewerbeimmobilien bei allen kreativen sowie ökonomischen Entscheidungen rund um die Immobilie und das maßgeschneiderte Bürokonzept. 

„Wir sind sehr an der Vision des energieautarken Hauses interessiert“

Die TREND REPORT-Redaktion sprach mit Piotr Hojda, Head of Design bei Green Cell, wie wichtig heute Forschung und Entwicklung für den Unternehmenserfolg sind. Insbesondere um Megatrends wie Nachhaltigkeit in der Technologie zu vollenden.

Ihr Unternehmen hat sich innerhalb weniger Jahre in der Branche etabliert. Wie groß war der Anteil von Forschung und Entwicklung an dieser Leistung?
Ich bin sehr froh, dass wir als Marke mit einer etablierten Position wahrgenommen werden, weil wir hart daran gearbeitet haben – der Anteil der F&E-Projekte am Angebot von Green Cell nimmt zu und wird letztendlich die treibende Kraft der Marke sein.
Unser Gespräch findet zu einem entscheidenden Zeitpunkt statt. Wir befinden uns in einer Übergangsphase, denn zu Beginn der Tätigkeit des Unternehmens waren die dominierenden Produktkategorien Batterien und Netzteile für Laptops. Dank dieser Produkte konnten ältere Geräte ein zweites Leben erhalten und Green Cell erreichte über 60 Länder. Das ist nach wie vor ein wichtiger Teil unseres Geschäfts und hat jetzt im Zuge des Trends zur Kreislaufwirtschaft, bei dem die Verlängerung der Lebensdauer elektronischer Geräte eine sehr wichtige Rolle spielt, zusätzlich an Bedeutung gewonnen. Andererseits bieten Batterien für Laptops und Smartphones nicht allzu viele Designmöglichkeiten. Deshalb hat Green Cell beschlossen, einen Schritt weiter zu gehen.
Das Jahr 2018 war ein wichtiger Meilenstein. Damals wurde die Produktstrategie geändert und die F&E-Abteilung eingerichtet. Die Entwicklung eigener Produkte und Technologien ist Teil der Entwicklungsstrategie des Unternehmens, und jedes Jahr stellt der Vorstand mehr und mehr Mittel für die Entwicklung des „R&D Lab“ zur Verfügung. Die aufregendsten und fortschrittlichsten Produkte befinden sich in der Entwicklungs- und Umsetzungsphase, und wir werden eine Weile warten müssen, bis sie sich auf das Geschäft auswirken. Wir sind jedoch zuversichtlich, dass die Auswirkungen signifikant sein werden.

Piotr Hojda, Head of Design bei Green Cell: „Wir wollen mit unseren Produkten aktiv den Megatrend der Nachhaltigkeit mitgestalten.“

Sie haben ein unabhängiges Entwicklungsteam auf der Designseite. Wie wichtig ist dies für Ihren Erfolg?
Wir glauben fest an die Entwicklung von Geräten in interdisziplinären Teams. Mit einem unabhängigen Designteam haben wir Einfluss auf jedes Teil unserer Produkte und können so deren Eigenschaften besser auf die Bedürfnisse und Erwartungen unserer Kunden abstimmen. Wir können dadurch viel bessere Produkte und ein noch besseres Benutzererlebnis kreieren. Durch immer ehrgeizigere Projekte können wir unser Team erweitern, Erfahrungen und Wissen sammeln und unser Know-how systematisch ausbauen.
Es sind unsere Kunden, die uns den Beweis liefern, dass es sich lohnt, Geräte selbst zu entwickeln. Wir sind froh, dass sie unsere Liebe zum Detail bemerken. Da unsere Produkte Dutzende von Märkten erreichen, erhalten wir eine Menge Feedback von den Nutzern und ihren Erfahrungen. Das ist eine Herausforderung, die aber auch viel Spaß macht.

Welche Rolle spielt die Forschung und Entwicklung heute und in Zukunft? Warum setzen Sie hier so stark auf Ihre eigenen Innovationen?
Gegenwärtig besteht die Aufgabe von F&E darin, neue Produktkonzepte zu entwickeln, verschiedene Lösungen zu testen und sie mit technischer Exzellenz zur Marktreife zu bringen.
Das Team ist bereits erfahren und erledigt diese Aufgaben sehr effizient. In Kürze werden wir viele Elemente des Projekts zu einem geschlossenen Gesamtkonzept zusammenfügen. Wir versuchen, viel breiter zu denken und uns nicht auf Einzelprodukte zu beschränken. Wir entwickeln unsere Softwarelösungen und planen ihre Integration mit Produkten in ein gut durchdachtes Ökosystem, das es den Benutzern ermöglicht, Energie einfach und sinnvoll zu speichern und zu verwalten. Das Entwickeln von eigenen innovativen Lösungen ist der beste Weg, um sich auf dem Markt abzuheben und Produkte anzubieten, die den Menschen einen wirklichen Unterschied bieten.
Darüber hinaus ist das Produkt-Ökosystem von großer Bedeutung für den Aufbau langfristiger Kundenbeziehungen mit Green Cell. Auch das ist ein sehr wichtiges Ziel für uns.

Welche Rolle spielen für Sie innerhalb von F&E der Austausch und Wissenstransfer mit z.B. universitären Einrichtungen oder Forschungsgesellschaften?
Bis vor kurzem haben wir unsere Produkte völlig unabhängig entwickelt und nur unsere eigenen Ressourcen genutzt. Derzeit bauen wir eine Zusammenarbeit mit einer der besten technischen Universitäten in Polen auf und planen gemeinsame F&E-Projekte. Es ist noch zu früh, um Einzelheiten zu verraten, aber wir sind überzeugt, dass beide Seiten durch die Zusammenarbeit einzigartige Erfahrungen sammeln werden.

Welche Trends in Ihrem Marktsegment sollten besondere Beachtung finden?
Wir konzentrieren uns derzeit auf zwei Bereiche: Elektromobilität und das Speichern von Strom aus erneuerbaren Enegiequellen. Beide sind Teil des Trends zur nachhaltigen Entwicklung und haben viele Gemeinsamkeiten. Diese beiden Kategorien steigern ihren Marktanteil in einem unglaublichen Tempo, aber vor allem sind sie gut für den Planeten und entsprechen unseren Überzeugungen. Deshalb sind wir für beide Bereiche sehr zuversichtlich und wollen aktiv dazu beitragen, sie durch gut gestaltete Produkte und Erfahrungen populär zu machen.

Wie wollen Sie diese Trends mitgestalten?
Natürlich durch unsere Produkte. In ein paar Monaten werden wir die Arbeit an dem EV-Ladegerät abschließen, das sich am Markt deutlich abheben wird. Wir sind sehr an der Vision des energieautarken Hauses interessiert und bewegen uns in diese Richtung. Wir wollen, dass E-Autofahrer tragbare Ladegeräte zur Hand haben und nicht nur auf kommerzielle Ladenetze angewiesen sind. Wir sind der Meinung, dass Elektromobilität Freude und Freiheit vermitteln sollte, deshalb streben wir im Designprozess diese Richtung an. Sie sollte auch für die Öffentlichkeit zugänglich sein, deshalb wollen wir die Kunden davon überzeugen, dass es sich nicht um eine exklusive Kategorie handelt. E-Autos werden sicherlich die Verkehrsmittel der Zukunft sein. Wir wollen mit unserem Produkt alle auf den Moment vorbereiten, in dem Elektrofahrzeuge zur Normalität werden.

Inwieweit gibt es Berührungspunkte zwischen Ihrem Unternehmen und Technologien wie KI oder IoT?
Wir entwickeln intensiv IoT-Lösungen, die unsere zukünftigen Produkte integrieren. So wollen wir unseren Nutzern mehr Kontrolle über ihre Geräte und Energie geben, um ihnen ein nahtloses Erlebnis zu bieten. Darüber hinaus planen wir, den Betrieb unserer Geräte auf der Grundlage von Cloud-Lösungen durch maschinelles Lernen zu optimieren. Dies ist ein interessanter Entwicklungsbereich, den wir nutzen wollen. Und womöglich werden wir erleben, dass die Energiespeicherung zu Hause durch KI verwaltet wird, um noch größere Energieeinsparungen zu erzielen und den Planeten zu schonen. Wir hoffen, dass die nächsten Innovationen im Bereich des Energiemanagements und der Energieversorgung genau das zum Ziel haben werden: das Leben noch grüner zu machen.

Weitere Informationen unter:
https://greencell.global/de/

Bildquelle / Lizenz Aufmacher: Green Cell

„Digitale Transformation und Nachhaltigkeit sind Megatrends“

Wir sprachen mit Dominic Kurtaz, Managing Director EuroCentral bei Dassault Systèmes über notwendige Strukturveränderungen bei den Unternehmen und ihren Prozessen sowie den beiden Megatrends Digitalisierung und Nachhaltigkeit.

Herr Kurtaz, in der Pandemie haben viele Unternehmen „nur noch reagieren“ können. Wie kann insbesondere Forschung und Entwicklung wieder „agieren“ und welche Trends sollten darüber hinaus branchenübergreifend fortan im Auge behalten werden?
Das letzte Jahr hat die Art und Weise des Arbeitens für die meisten Unternehmen komplett auf den Kopf gestellt. Es wurde deutlich, dass die Flexibilität von Prozessen und Menschen enorm wichtig ist, um auch in unerwarteten und herausfordernden Momenten die Geschäftskontinuität aufrecht zu erhalten, weiterhin neue Ideen und Innovationen zu schaffen sowie sicherzustellen, dass geistiges Eigentum bestmöglich geschützt wird. Die digitale Transformation nimmt hier eine entscheidende Rolle ein: Durch den strategischen Einsatz digitaler Lösungen lassen sich alle benötigten Informationen zentral verwalten und sind so für alle Beteiligten in Echtzeit verfügbar. Von der Forschung und Entwicklung über die Produktion bis hin zum Marketing können alle Projektbeteiligten ortsunabhängig zusammenarbeiten und so nachhaltig die Innovationskraft steigern. Insbesondere Cloud-Lösungen spielen eine Schlüsselrolle. Sie ermöglichen es Unternehmen, weitaus flexibler zu sein und sich mit Wertschöpfungsnetzwerken von Organisationen und Menschen zu verbinden – und das innerhalb weniger Stunden statt wie bisher in Wochen oder gar Monaten. Dieser Wandel dient als Katalysator für neue IT-Strategien und sogar ganzen Geschäftsmodellen – vom kontaktlosen Verkauf bis hin zur vollständig virtuellen Inbetriebnahme und zum Betrieb unter Verwendung des virtuellen Zwillings in der Cloud. Diesen Effekt haben wir sehr deutlich während des Ausbaus unseres 3DEXPERIENCE Cloud-Geschäfts innerhalb der letzten 12 Monate gesehen.
Ein weiterer wichtiger Trend, der sich in den letzten Jahren immer stärker manifestiert hat, ist das Thema Nachhaltigkeit. Sowohl von Seiten der Verbraucher als auch der Politik wächst die Forderung an Unternehmen, nachhaltiger und umweltgerechter zu wirtschaften. Um diesen Weg zu gehen, setzen viele Firmen auf den Bereich Industrie 4.0. Diesen Trend bestätigt unter anderem eine aktuelle Umfrage der Bitkom unter Industrieunternehmen: Die Mehrheit der Befragten ist überzeugt, dass die Industrie 4.0 den CO2-Ausstoß verringert und bezeichnet deren Technologien als essentielle Tools für die Kreislaufwirtschaft. Digitale Transformation in Bezug auf neue Produkt- oder Dienstleistungsangebote, unternehmerische Nachhaltigkeit sowie die Arbeitskräfte der Zukunft mit den erforderlichen Qualifikationen sind dementsprechend drei Trends, die Unternehmen gleichermaßen fest im Blick haben sollten. Die gute Nachricht ist: Diese Themen gehen Hand in Hand und sind demnach gut miteinander vereinbar. 

Wie könnte F&E neu organisiert sein, um diese Trends aktiv zu gestalten?
Der Schlüssel, um Fertigungs- und Entwicklungsprozesse digitaler und nachhaltiger zu gestalten, liegt in der ganzheitlichen Digitalisierung von Customer Journeys und Unternehmensprozessen – über die Grenzen einzelner Abteilungen sowie externer Akteure hinweg. Umfassende Datenmodelle bilden Innovationsprozesse von der ersten Ideenskizze bis zum fertigen Produkt, im Einsatz und darüber hinaus, digital ab – inklusive Design, Engineering, Fertigung, Logistik und Vertrieb. So eröffnen sie die Möglichkeit, stets flexibel auf veränderte Markt- und Kundenanforderungen zu reagieren und Umweltaspekte, Vorgaben und Kundenerwartungen frühzeitig einzubeziehen. Bereits in der Forschung und Entwicklung lassen sich unter anderem Faktoren wie der CO2-Verbrauch oder erzeugte Abfälle virtuell abbilden und können in die Entscheidungsfindung einfließen. Gleichzeitig erlauben Erfahrungswerte – beispielsweise aus der Produktion – wertvolle Rückschlüsse für die Arbeit der F&E-Abteilung.

Wie helfen Sie Ihren Kunden dabei?
Unser Ansatz ist ganzheitlich und bezieht von der Forschung und Entwicklung bis hin zur Interaktion mit Kunden und deren Erfolge viele Parameter mit ein. Im ersten Schritt ist es daher unser Ziel, Wissen aufzubauen, Knowhow zu stärken sowie Einblicke und Mehrwerte zu bieten. Damit bieten wir branchenweit ein einzigartiges Konzept, dass unseren Kunden einen entscheidenden Wettbewerbsvorteil ermöglicht.
Außerdem liefert unsere cloudbasierte 3DEXPERIENCE Plattform Unternehmen jeder Größe – vom Start-up bis zum Großkonzern – eine ganzheitliche Plattform für Daten sowie Nutzer. Sie ermöglicht Mitarbeitern aus verschiedenen Abteilungen und über verschiedene Standorte hinweg in Echtzeit an einem Produkt mitzuarbeiten und Ideen einfließen zu lassen. Die Bereitstellungszeiten verkürzen sich damit von Monaten hin zu Tagen oder sogar Stunden. Mit Hilfe einer solchen Plattform sind Unternehmen in der Lage, die komplette Entwicklung – vom ersten Konzept bis zum Verbraucher– virtuell zu simulieren und so ressourcen- und emissionsschonendes Produzieren, ganz im Sinne einer „Circular Economy“, zu berücksichtigen. Mit Modellierung und Simulation lassen sich neue Materialien, der Einfluss von Umweltfaktoren und die Verhaltensweisen eines Produkts in der virtuellen Welt erproben – und das bevor die Herstellung beginnt. Somit lassen sich die Kundenakzeptanz und der Produkterfolg bereits vor dem Start der Produktion ermitteln und Produktionsausfälle ausschließen.

Stichwort „Künstliche Intelligenz“: Welche Berührungspunkte haben Ihre Lösungen zu diesen Themen und wie kann das Ihren Kunden im Wettbewerb helfen?
Produkte werden immer vernetzter, dementsprechend komplexer, müssen auch widrigsten Umwelteinflüssen standhalten und natürlich auch Gesetzesvorschriften entsprechen. In der Produktentwicklung bedeutet das:  Eine große Menge an Daten wird benötigt, um die Produkte durch Simulation in der virtuellen Welt zu analysieren und zu prüfen. Unsere Lösungen auf Basis der 3DEXPERIENCE Plattform unterstützen Kunden mit Hilfe künstlicher Intelligenz (KI) dabei, Leistungsvoraussetzungen zu schaffen, zu nutzen und anschließend intelligent die notwendigen Daten zu erzeugen. Auch besonders herausfordernde Konstruktionsaufgaben können in Rekordzeit durchgeführt werden, da die Berechnungen nur anhand wirklich erfolgskritischer Parameter erfolgen. Dies spart Zeit, fördert die Innovation und erleichtert gleichzeitig die Planung und Durchführung neuartiger KI-basierter Prozesse im gesamten Unternehmen.

F&E ist auch immer nahe an Innovationsförderung und Förderung für Forschung („Forschungsprogramme“). Hat Dassault Systèmes hier auch Berührungspunkte?
Innovationsförderung ist ein gutes Stichwort: Unsere Gesellschaft befindet sich an einem Punkt, an dem es unumgänglich ist, sich den drängendsten Herausforderungen unserer Zeit zu stellen – sei es der Schutz unserer Umwelt oder neue Lösungen und Wege in der personalisierten Medizin. Innovationen spielen hierfür eine essenzielle Rolle und bilden die Basis für den Fortschritt unserer Gesellschaft. Genau aus diesem Grund fördern wir im Rahmen unseres 3DEXPERIENCE Labs neuartige Lösungen und wegweisende Innovationen mit gesellschaftlicher Relevanz. Beispielsweise haben wir im letzten Jahr gemeinsam mit Start-ups und Herstellern mehrere Initiativen gestartet, die auf eine schnelle Beantwortung drängender Fragen rund um die COVID-19 Pandemie abzielen. Das indische Start-up Inali hat es so zum Beispiel geschafft, innerhalb von weniger als acht Tagen ein sicheres und erschwingliches „intelligentes Beatmungsgerät“ zu entwickeln, das schnell hergestellt und in Notfällen eingesetzt werden kann. Solche Erfolgsgeschichten zeigen, wie es durch Zusammenarbeit und gemeinsame Ideen möglich ist, die Welt positiv zu verändern. Zudem haben wir in Deutschland ein „Battery Innovation Center“ eingerichtet, das einen durchgängigen Ansatz von der Materialgewinnung über die wissenschaftlich fundierte Entwicklung und Herstellung bis hin zum Recycling und zur Entsorgung verfolgt. Diese fortschrittliche Kompetenz hat sich bereits in einer Reihe von Forschungsprojekten bewährt und ist nun für Start-ups sowie industrielle Akteure verfügbar.

Weitere Informationen unter:
https://www.3ds.com/

Mit einer Kultur des Unternehmertums auf Erfolgskurs

Im Gastbeitrag erläutert Ray Martinelli, Chief People Officer bei Coupa, wie er sich eine „Arbeitswelt auf Augenhöhe“ vorstellt.

Nachdem viele Mitarbeiter seit mehr als einem Jahr aus der Ferne arbeiten, haben sie sich neue Gewohnheiten zugelegt und ihr Leben angepasst. Manche holen ihre Kinder selbst von der Schule ab, andere nehmen sich Zeit für ein Workout am Mittag und die Dritten haben vielleicht Art, Ort und Zeit der Arbeit völlig umgestellt. Die Menschen verfügen jetzt über mehr Flexibilität und Autonomie bei ihrer Arbeit.

Dieser Wandel darf nicht unterschätzt werden. Manchen Unternehmen war dieses Maß an Flexibilität vor der Pandemie völlig fremd. Bei Coupa haben wir von Anfang an ein Umfeld geschaffen, das von Vertrauen und Respekt auf allen Ebenen geprägt ist. Das versetzt die Mitarbeiter nicht nur in die Lage, bessere Ergebnisse zu liefern, sondern auch, ihren Unternehmergeist zu entfalten. Dafür müssen Führungskräfte in Unternehmen Werte festlegen, an die sich jeder hält, sowie ihre eigene Rolle und die der Mitarbeiter neu definieren. Als Erfolgskriterien für unsere Art der Unternehmenskultur haben sich folgende Faktoren herauskristallisiert.

Das Organigramm auf den Kopf gestellt

Ein klassisches Organigramm ist so aufgebaut, dass ein/eine CEO die oberste Entscheidungsinstanz darstellt. Die vermeintlichen Vorteile sind unter anderem volle Kontrolle und hohe Konsistenz. Dieses Modell wurde in der Pandemie einem enormen Stresstest unterzogen. Unternehmen, die bereits von Anfang an ihren Mitarbeitern ein hohes Maß an Selbstständigkeit und Flexibilität zugetraut haben, kamen daher mit den Remote- und Hybridmodellen besser zurecht. Abgesehen davon funktioniert das traditionelle Top-Down-Modell für die Wissensarbeiter von heute einfach nicht mehr. Coupa hat dieses Organigramm auf den Kopf gestellt. Die Führungskräfte von Coupa befinden sich am unteren Ende dieses Diagramms, da sie die ihnen übergeordneten Teams unterstützen, während die Mitarbeiter befähigt werden in ihrer eigenen Rolle „CEO“ zu sein. In Bezug auf die Ergebnisse hat sich dieser Ansatz als fruchtbar erwiesen – im letzten Jahr haben wir 17 Prozent der Mitarbeiter befördert, was fast doppelt so viel ist wie der Branchendurchschnitt.

Ray Martinelli erläutert, wie eine Unternehmenskultur aufgebaut sein kann, die den Unternehmergeist entfaltet.

Wir haben festgestellt, dass dieses Modell Mitarbeiter dazu ermutigt, selbstständig Entscheidungen zu treffen – sowohl im Home-Office als auch im Büro. Den Mitarbeitern die Freiheit zu geben, Entscheidungen selbst zu treffen, kann sich viel stärker auf deren Zufriedenheit und Erfüllung auswirken als viele andere gut gemeinte Initiativen zur Vereinbarkeit von Beruf und Privatleben und gleichzeitig bessere Ergebnisse liefern.

Ergebnisorientiertes Handeln

Wir legen sehr großen Wert darauf, jedem das richtige Maß an Verantwortung mitzugeben. Auf allen Ebenen der Organisation geht jeder davon aus, dass hinter jeder Handlung eine positive Absicht steckt. Für uns kommt es auf die Ergebnisse an, nicht darauf, wie man dorthin gelangt ist, solange man mit unserem Wertesystem im Einklang ist.

Einer unserer wichtigsten Werte ist zum Beispiel, dass jeder für den Erfolg der Kunden verantwortlich ist, aber das bedeutet nicht, dass jede neue Idee sofort erfolgreich sein muss. Wenn Ideen nicht funktionieren, sind die Mitarbeiter dafür verantwortlich und lernen daraus, so dass auch andere aus dieser Erfahrung ihre Lehre ziehen können. Auf diese Weise fördern wir zudem den Unternehmergeist der Mitarbeiter und betrachten ihn nicht nur als „nice to have“, sondern als Priorität. Er ist eine wesentliche Quelle für die Wettbewerbsfähigkeit und sollte in allen Bereichen des Unternehmens aufgebaut werden.

Unser auf den Kopf gestelltes Organigramm fördert die Zusammenarbeit wie kein anderes. Es erlaubt den Mitarbeitern, verschiedene Rollen innerhalb des Unternehmens zu übernehmen und sogar Projekte außerhalb ihres Arbeitsbereichs zu entwickeln. Dieses Modell wurde von Coupa bereits entwickelt, als das Unternehmen noch viel kleiner war, und es hat sich auch im Zuge unseres Wachstums auf mittlerweile fast 3.000 Mitarbeiter bewährt.  

Unternehmertum durch technologische Innovation

Um eine Kultur der Innovation zu fördern, haben wir bei Coupa außerdem ein Patentprogramm entwickelt. Alle Mitarbeiter aus allen Abteilungen können ihre Ideen bei diesem Programm einreichen und erhalten Unterstützung durch die Rechtsabteilung von Coupa. So stellen wir sicher, dass die Idee den Regeln entsprechend bewertet werden kann. Dann wird sie in den Patentverwertungsprozess aufgenommen, damit sie zum Leben erweckt werden kann.

Im Rahmen des Programms prüfen wir mindestens vierteljährlich neue Patentmöglichkeiten durch ein funktionsübergreifendes Team mit Vertretern aus den Bereichen Technik, Produktmarketing und Recht. Mithilfe von Analysetools und Patentdaten kann Coupa überprüfen, ob seine Produkte im Portfolio gut vertreten sind, und dazu beitragen, Lücken zu schließen.

Dieses Patentprogramm sorgt für ein Gefühl der Zusammengehörigkeit und des freundschaftlichen Wettbewerbs. Die Erfinder von Patenten werden mit Anerkennung im gesamten Unternehmen belohnt. Die Mitarbeiter sprechen sehr positiv über das Programm, und die Zahl der eingegangenen Vorschläge ist in den letzten fünf Jahren erheblich gestiegen.  

Fazit

Eine solide Wertestruktur, die Mitarbeiter dazu befähigt, selbstständig zu arbeiten, ist Grundlage für eine erfolgreiche Unternehmenskultur. Dazu gehört, dass man den Mitarbeitern eigenständiges Handeln zugesteht und Raum für unternehmerisches Denken schafft. Die Kreativität der Mitarbeiter kann angeregt werden, indem man die richtigen Anreize schafft und durch formelle Prozesse untermauert. Je nach den Zielen, der Kultur und den Werten eines Unternehmens kann dies unterschiedliche Formen annehmen. Eine Konstante, die das Unternehmertum der Mitarbeiter fördert, ist die Tatsache, dass sich Probleme besser durch Zusammenarbeit lösen lassen. Die Einsicht, dass keiner von uns klüger ist als der andere, und die Fähigkeit, sich auf unterschiedliche Perspektiven einzulassen und diese zu fördern, sind entscheidend für Innovation und unternehmerisches Denken. Uns hat diese Kultur durch die Pandemie geholfen und wird uns auch in der neuen Normalität begleiten und zum Erfolg führen.

Weitere Informationen unter:
https://www.coupa.com/

Dividenden erholen sich

Eine neue Analyse von Branchendaten der MBH Corporation plc, einer an der Frankfurter und Düsseldorfer Börse notierten diversifizierten Investment-Holdinggesellschaft, die erfolgreiche, gut etablierte kleine und mittelständische Unternehmen in verschiedenen Regionen und Sektoren akquiriert, zeigt eine Erholung von Dividenden von in Deutschland notierten Unternehmen.

Die Analyse zeigt, dass von den 30 DAX-Unternehmen 15 ihre Dividende in diesem Jahr im Vergleich zu 2019 erhöht haben, vier haben sie gekürzt und weitere vier haben keine gezahlt. Die entsprechenden Zahlen bei den MDAX-Unternehmen lauten 22, sechs und 14.

Beim SDAX (in Deutschland notierte Small Caps) haben 28 ihre Dividende in diesem Jahr im Vergleich zu 2019 erhöht, sieben haben sie gekürzt und 22 haben keine gezahlt.

Die Analyse zeigt jedoch auch, dass, obwohl mehr deutsche börsennotierte Unternehmen in diesem Jahr Dividenden zahlen, die Gesamtdividendenausschüttung nicht unbedingt viel höher ausfallen wird. Die Gesamtsumme für 2021 wird bei 32,16 Mrd. € liegen, verglichen mit 32 Mrd. € im Jahr 2020. Im Jahr 2019 waren es 36,4 Mrd. €.  

Am 30. April 2021 gab die MBH Corporation plc im Rahmen des Jahresabschlusses 2020 ihre Absicht bekannt, zum zweiten Mal in Folge eine jährliche Dividende in Höhe von 0,005 €-Cent pro Aktie an die Aktionäre auszuschütten, was einer Dividendenrendite von ca. 2 % entspricht.

Callum Laing, CEO der MBH Corporation plc: „Dividenden machen einen großen Teil der Rendite für Investoren aus, und obwohl 2020 ein herausforderndes Jahr für Unternehmen war, freuten wir uns, anzukündigen, dass wir auch in diesem Jahr eine Dividende zahlen würden.

Während sich die Unternehmen von den schlimmsten wirtschaftlichen Auswirkungen der Coronakrise erholen, können Anleger mit einem Anstieg der Zahl der Unternehmen rechnen, die Dividenden zahlen, sowie mit einem Anstieg ihrer Renditen. Es kann jedoch einige Zeit dauern, bis wir eine Rückkehr zu den Werten sehen, die 2019 und davor gezahlt wurden.“    

MBH hat derzeit 25 sehr erfolgreiche und profitable Kleinunternehmen in seinem Portfolio und strebt im Rahmen eines kontinuierlichen Wachstumskurses den Erwerb weiterer Unternehmen ähnlicher Art an.

MBH konzentriert sich auf gut etablierte Unternehmen, die überwiegend schuldenfrei sind, ein EBITDA von rund 0,5 Millionen EURO bis 10 Millionen EURO erwirtschaften und im Allgemeinen noch von ihren Gründern geführt werden. Als Teil einer kontinuierlichen Wachstumsoffensive im Jahr 2021 strebt MBH nun die erste Akquisition in Deutschland an, in Anerkennung der robusten Verfassung und des Tempos der Erholung des KMU-Marktes in diesem Land sowie seiner Position als einer der liquidesten regulierten Märkte der Welt.

Durch die Nutzung ihrer einzigartigen Agglomeration™-Strategie kann MBH durch den konsequenten und wertschöpfenden Erwerb exzellenter Unternehmen erheblichen Shareholder Value schaffen. Mit Agglomeration™ wandeln profitable Unternehmen ihre privaten Aktien in öffentliche Aktien oder Anleihen der MBH Corporation plc in einem unbefristeten Earn-in-Modell um. Die Unternehmenseigentümer werden dann dazu angespornt, ihren Wachstumskurs zu beschleunigen, indem sie die Ressourcen der Gesellschaft nutzen, einschließlich Know-how, Transfer von bewährten Vorgehensweisen, Cross-Selling an andere Unternehmen der Gruppe und ggf. kostenfreie Finanzierung neuer Wachstumsprojekte.

Jedes Konzernunternehmen behält seine Autonomie und folgt einer angemessenen Unternehmens- und Finanzführung. Unternehmenseigentümer erhalten außerdem finanzielle Anreize zur Steigerung des Shareholder Value durch ein Aktienbonusprogramm, das ihre Interessen mit denen der öffentlichen Aktionäre in Einklang bringt.

Weitere Informationen unter:
https://www.mbhcorporation.com/de/home

„Über den Tellerrand hinausblicken“

Wir sprachen mit Arjan van Staveren, Country Manager Germany bei Snowflake, wie Unternehmen mit übergreifenden Datenplattformen Wettbewerbspotenziale erschließen können. Dazu gehört in jedem Fall seiner Meinung nach die unternehmensübergreifende Kooperation bei Datenpools.

Unternehmen brauchen einen Chief Data Officer und Cloud-Datenplattformen für die Herausforderungen der Zukunft, fasst Arjen van Staveren zusammen.

KI und lernende Algorithmen brauchen vor allem eins: Trainingsdaten. Inwiefern hilft eine Datenplattform in der Cloud, dieses Ziel schneller zu erreichen?
Moderne Technologien wie Künstliche Intelligenz und Machine Learning brauchen nicht nur sehr große Datenmengen, um effektiv zu trainieren. Sie brauchen vor allem auch verschiedene Dimensionen von Informationen, um beispielsweise die Zahlen des Vertriebs mit denen des Marketingteams in Zusammenhang bringen und etwaige Schwachstellen oder Optimierungspotenziale erkennen zu können. Mit traditionellen, statischen Altsystemen ist es jedoch kaum möglich, diese Fülle und Vielfältigkeit bereitzustellen. Sie halten die Daten der einzelnen Standorte und Abteilungen innerhalb eines Unternehmens in Silos gefangen und können deshalb nicht ohne Weiteres von KI und Co. genutzt werden.
Eine Cloud-Datenplattform kann dieses Problem nachhaltig lösen. Aufgrund der barrierefreien Infrastruktur können alle verfügbaren Informationen abteilungs- und standortübergreifend genutzt werden – und das auch noch nahezu in Echtzeit. Doch eine Cloud-Datenplattform bringt noch weitere Vorteile mit sich, die für das Training moderner Technologien mindestens ebenso unverzichtbar sind: Einerseits kann die Aufbereitung direkt in der Plattform stattfinden, sodass stets das Format bereitsteht, das benötigt wird. Andererseits lässt sich die Rechenleistung hier flexibel hoch- und runterskalieren, sodass KI-Technologien und lernende Algorithmen auf quasi unendliche Ressourcen zurückgreifen können. Gerade im Trainingsprozess ist das äußerst wichtig, da es immer wieder zu einem hohen Leistungsbedarf kommen kann. Ein Unternehmen, das darauf nicht vorbereitet ist, wird sich schnell über Verzögerungen und fehlende Rechenkapazitäten ärgern müssen.

Könnten Sie sich vorstellen, dass Unternehmen künftig Ihre Daten „zusammenlegen“ in gemeinsamen Datenräumen, um Trainingsdaten schneller bereit stellen zu können und Verzerrungen zu minimieren?
Interne Daten mit anderen – auch der Konkurrenz – zu teilen, gehört bei vielen Unternehmen bereits zum Standard. Gründe dafür gibt es viele: Zum einen können sie auf diese Weise darauf verzichten, selbst einen entsprechenden Datenpool aufbauen zu müssen. Das wäre extrem zeit- und kostenintensiv, weshalb es vor allem für Startups, aber auch für etablierte Firmen, die vielleicht in neue Geschäftszweige investieren möchten, eine praktische Option darstellt, auf die bereits bestehenden Daten anderer zurückzugreifen. Zum anderen bietet dies die Chance, über den eigenen Tellerrand hinauszublicken – und das ist es, was es braucht, um wirklich effektiv und fortschrittlich sein zu können. Wer immer nur in seinem eigenen Dunstkreis agiert und die immer selben Daten nutzt, wird auch mithilfe der schlausten Technologien zu keinen neuen Erkenntnissen gelangen.
Damit das Teilen von Unternehmensinformationen in der Praxis funktionieren kann, führt kein Weg an der Nutzung einer Cloud-Datenplattform vorbei. Sie erlaubt es zwar, dass auch Dritte sicher auf die Daten zugreifen und diese für ihre eigenen Zwecke einsetzen können, verhindert aber gleichzeitig, dass diese kopiert, gelöscht oder verschoben werden. Nur so lässt sich sicherstellen, dass alle Daten stets am Ursprungsort verbleiben und nicht verschiedene Versionen im Umlauf sind. Das gewährleistet, dass es nur eine Single Source of Truth gibt.
Wie wichtig diese ist, zeigt der Datensatz zum globalen Covid-19-Impffortschritt von Starschema. Der Datensatz, der über den Data Marketplace von Snowflake bereitgestellt wird, soll mehr Transparenz im Kontext der Pandemie schaffen und gibt beispielsweise Auskunft, welche Impfstoffe derzeit eingesetzt werden. Um besser planen und Engpässe vermeiden zu können, ist es unbedingt notwendig, dass die bereitgestellten Informationen stets in qualitativ hochwertiger und aktueller Form vorliegen. Das kann nur sichergestellt werden, wenn keine veralteten Versionen im Umlauf sind. Nur dann können andere Akteure wie beispielsweise Behörden und Impfzentren, aber auch Unternehmen einen tatsächlichen Mehrwert aus den Daten generieren.

Daten werden in Ökosystemen „zusammengelegt“ und ausgetauscht. So wird z.B. das Auto künftig ein rollendes Datenökosystem, Immobilien und Industrieanlagen sowieso. Was müssen Unternehmen nun in die Wege leiten, um effektiv daran zu partizipieren?
Wie eingangs bereits erwähnt, braucht es immer verschiedene Datendimensionen, um den Ansprüchen unserer modernen und vernetzten Umwelt gerecht zu werden. Im Falle des Autos wird es somit in Zukunft nicht mehr nur wichtig sein, auf unmittelbare Informationen wie die Fahrtgeschwindigkeit zugreifen zu können. Um dem Fahrer und anderen Verkehrsteilnehmern die größtmögliche Sicherheit bieten und Risiken bereits im Vorfeld abschätzen zu können, spielen auch andere Parameter wie zum Beispiel das Wetter, Außentemperatur und Luftdruck eine wichtige Rolle. Hat das Auto die Möglichkeit, auf externe, meteorologische Informationen wie diese zuzugreifen, kann es beispielsweise auch den verlängerten Bremsweg auf nasser Fahrbahn einkalkulieren und auf diese Weise einen Unfall verhindern. Selbstverständlich ist das nur einer von vielen Wegen, wie Daten innerhalb der neuen Ökosysteme zum Einsatz kommen können. Die Möglichkeiten sind schier grenzenlos.
Doch mithilfe einer Cloud-Datenplattform können Unternehmen nicht nur die Daten Dritter abrufen. Sie bietet ihnen auch die Chance, ihre eigenen Daten zu monetarisieren und sich dadurch eine neue Einnahmequelle zu eröffnen. Bevor die Daten zum Verkauf angeboten werden können, gibt es aber einige Dinge zu beachten. Die intern gesammelten Rohdaten sind nämlich in der Regel zu ungepflegt. Aus diesem Grund ist es zunächst notwendig, sie zu entschlüsseln, zusammenzuführen und zu bereinigen. Dank einer Cloud-Datenplattform sind hierfür keine zusätzlichen Tools nötig. Stattdessen kann die Aufbereitung der Daten direkt vor Ort stattfinden, was eine Bereitstellung und damit auch die Monetarisierung schnell und unkompliziert macht.

Braucht es in Zukunft in den Unternehmen einen Chief Data Officer?
Die Antwort auf diese Frage ist so kurz wie simpel und lautet: Ja, definitiv! Vor einigen Jahren war es noch eher der Chief Digital Officer, der als unerlässlich galt, doch die Entwicklung schreitet immer schneller voran – und das über alle Branchen hinweg. Inzwischen besteht die Herausforderung nicht mehr darin, digitale Prozesse zu etablieren und die notwendige Infrastruktur zu schaffen, um selbst große Datenmengen zu sammeln. Viel wichtiger ist es stattdessen geworden, sich selbst in die Lage zu versetzen, diese gewinnbringend nutzen zu können. Und deshalb führt für Unternehmen kein Weg daran vorbei, sich um einen eigenen Chief Data Officer zu bemühen.
Branchen wie die der Versicherungen oder auch das Bankwesen basieren schon seit jeher auf Daten. Um etwaige Risiken oder aufkommende Trends noch besser prognostizieren zu können, ist es jedoch wichtig, dass Daten gut zugänglich sind. Das bedeutet nicht, dass jedem Mitarbeiter der Zugriff gewährt werden muss, in jedem Fall jedoch jenen, die diese für ihre tägliche Arbeit benötigen. Und vielmehr noch als das: Schon heute ist das der entscheidende Faktor, der Unternehmen dabei hilft, sich von der Konkurrenz abzusetzen. Die wichtigste Aufgabe des Chief Data Officers ist es deshalb, sich für die Demokratisierung der Daten einzusetzen. Auch die Fortbildung der einzelnen Abteilungen sollte für ihn ein mindestens ebenso großes Anliegen sein. Hier ist es wichtig, das Training der Datenkompetenz als festen Bestandteil zu etablieren, dem im Arbeitsalltag genügend Zeit eingeräumt wird. Denn Unternehmen können nicht davon ausgehen, dass ihre Mitarbeiter sich in ihrer Freizeit darum bemühen. Je mehr Menschen sicher mit Daten umgehen und diese auf die richtige Art und Weise analysieren und kommunizieren können, desto größer ist jedoch der Spielraum für Innovationen und kreative Ideen. Der Chief Data Officer hat bei diesem essentiellen Wandel den Hut auf und spielt deshalb die Schlüsselrolle bei der Digitalisierung eines jeden Unternehmens.

Weitere Informationen unter:
https://www.snowflake.com/?lang=de

Warum nachhaltige Wirtschaft nicht ohne Geodaten möglich ist

Wir sprachen mit Jürgen Schomakers, dem Managing Partner Esri DECH, darüber, wie Geodaten eine nachhaltige Wirtschaft und vor allem eine profitable Wirtschaft unterstützen können.

Jürgen Schomakers zeigt im Interview das Potenzial von Geodaten für nachhaltiges Wirtschaften.

Welche Auswirkungen könnte der voranschreitende Klimawandel aus Ihrer Sicht für die Wirtschaft haben?
Vielen fällt es noch immer schwer, die tatsächlichen Folgen des Klimawandels abzuschätzen – und da bildet auch die Wirtschaft keine Ausnahme. Doch die Auswirkungen, die diese Veränderungen nach sich ziehen, sind von Jahr zu Jahr deutlicher spürbar. Erst neulich haben wir in Deutschland zahlreiche Starkregenereignisse erlebt, die die Infrastruktur ganzer Landstriche zusammenbrechen ließen. Gleichzeitig herrschte auf der anderen Seite des Globus, nämlich an der Westküste der USA und Kanada, eine noch nie dagewesene Hitzewelle von 50°C und mehr. Der Klimawandel ist schon heute allgegenwärtig und es ist unbestreitbar, dass dieser auch immer größere Auswirkungen auf die globale Wirtschaft haben wird.
Betrachten wir beispielsweise die aktuelle Holzknappheit: Der Bedarf ist weltweit enorm gestiegen und vor allem Nadelholz wird derzeit massenhaft von Deutschland ins Ausland exportiert. Das hat zur Folge, dass deutschen Handwerksbetriebe, denen der nötige Rohstoff fehlt, kaum mehr bei ihren Aufträgen hinterherkommen. Doch dieses Problem liegt nicht nur in der Tatsache begründet, dass China und die USA einfach mehr für unser Holz zahlen. Auch der Klimawandel spielt eine entscheidende Rolle. Analysen von Wissenschaftlern der Forstlichen Versuchs- und Forschungsanstalt (FVA) Baden-Württemberg in Freiburg zeigen, dass besonders Nadelhölzer, allen voran die Fichte, von der Erderwärmung bedroht sind. Dürreperioden und Hitze begünstigen zudem die Ausbreitung des Borkenkäfers: Schon jetzt hat dieser große Teile unseres Fichtenbestands befallen und zerstört. Der begehrte Rohstoff wird demzufolge mittelfristig immer knapper und die Preise schießen in die Höhe. Diese Entwicklung wird auch nicht vor anderen Rohstoffen halt machen.
Auf lange Sicht kann dieser Wandel fatale Folgen für die Wirtschaft haben. Wenn Extremwetterereignisse weiterhin zunehmen, könnte außerdem ein Zusammenbruch der bisherigen Lieferketten erschwerend hinzukommen. Nicht zuletzt die Corona-Pandemie hat eindrucksvoll bewiesen, als wie fragil sich diese in Krisenzeiten herausstellen können.

Wieso macht es gerade für Unternehmen Sinn, sich für eine nachhaltigere Zukunft einzusetzen? Was sind die wichtigsten Schritte, die Unternehmen tätigen sollten, wenn sie die Auswirkungen ihres Handelns auf den Klimawandel abschätzen und einschränken möchten?
Schreiten die Entwicklungen weiterhin im selben Maße voran, wie wir es derzeit weltweit erleben, könnten einigen Branchen innerhalb von wenigen Jahren vor massiven Problemen stehen. Aber das ist nicht der einzige Grund, weshalb es für Unternehmen sinnvoll ist, jetzt zu handeln und vermehrt in nachhaltigere Prozesse zu investieren. Auch seitens der Konsumenten hat sich das Bewusstsein diesbezüglich enorm geschärft und ist innerhalb der vergangenen Jahre von einem Nischenthema zu einem wichtigen Kaufargument geworden. So belegen unter anderem die Ergebnisse einer Umfrage der Unternehmensberatung Capgemini, dass knapp 80 Prozent der Verbraucher damit begonnen haben, ihr Kaufverhalten zu überdenken. Weitere 64 Prozent gaben in diesem Rahmen sogar an, dass das Kaufen nachhaltiger Produkte sie glücklich mache. Für Unternehmen ist Nachhaltigkeit also längst nicht mehr die Kür. Es ist zum Pflichtprogramm geworden. Und wer diesem Anspruch nicht gerecht werden kann, wird auf lange Sicht hinter der besser aufgestellten Konkurrenz zurückbleiben oder vielleicht sogar ganz von der Bildfläche verschwinden.
Um das zu verhindern und sich stattdessen nachhaltiger aufzustellen, gibt es drei wesentliche Punkte, die Unternehmen beachten müssen:

  1. Die richtige Technologie
    Völlig unabhängig davon, wie groß die Bestrebungen eines Unternehmens auch sein mögen – ohne die notwendige technologische Grundlage werden diese nicht zum Erfolg führen. Um zu umfassenden Erkenntnissen zu gelangen, die Potenziale für umweltfreundlichere Prozesse offenlegen, werden riesige Datenmengen aus den unterschiedlichsten Quellen benötigt. Diese manuell oder mit notdürftig kombinierten Tools zu analysieren, ist kaum möglich. Deshalb macht es Sinn, in eine Lösung zu investieren, die sich flexibel anpassen lässt, sollten sich die Bedürfnisse des Unternehmens mit der Zeit wandeln.
  2. Alle Daten einbeziehen
    Um sich einen dauerhaften Rundumblick zu ermöglichen, spielen nicht nur die unternehmensinternen Daten eine wichtige Rolle. Auch die Informationen anderer Akteure wie beispielsweise die von Produzenten, Lieferanten oder einzelner Verkaufsstellen müssen miteinbezogen werden. Darüber hinaus kann auch ein Blick über den eigenen Tellerrand hinaus ratsam sein. Das bedeutet, dass es sich lohnt, auch auf Daten, die von anderen Unternehmen und Organisationen bereitgestellt werden, zurückzugreifen. Insbesondere Geo- und Umweltdaten erweitern die Geschäftsdaten um eine weitere Dimension. So lassen sich bereits frühzeitig neue Trends erkennen, die ein Risiko für die gesetzten Ziele darstellen könnten.
  3. Erkenntnisse gewinnen
    Sind die notwendigen Grundsteine gelegt, können alle Daten in Zusammenhang gebracht werden. An dieser Stelle haben Unternehmen endlich die Möglichkeit, Potenziale zu erkennen, an denen sie nachhaltiger handeln können. Wichtig hierbei ist, dass das nicht unbedingt die Prozesse sein müssen, die sie vermuten, wie beispielsweise eine umweltfreundlichere Transportalternative oder eine andere Verpackung. Oft können schon kleine Dinge einen großen Unterschied machen und mithilfe modernen Technologien haben sie die Chance, genau diese aufzudecken.

Esri ist Spezialist im Bereich Location Intelligence. Welche Rolle spielen Geodaten im Allgemeinen und Location Intelligence im Speziellen für ein nachhaltiges und umweltbewusstes Handeln von Unternehmen?
Unternehmen haben längst verstanden, welch unglaublich großer Wert in Daten verborgen liegt und investieren dementsprechend viel, um diese zu analysieren und datenbasierte Entscheidungen treffen zu können. Geodaten sind jedoch eine Informationsebene, die noch immer von vielen vernachlässigt wird – auch im kommunalen Bereich. In Städten und Gemeinden spielen sie allerdings nicht nur eine wichtige Rolle, um nachhaltiger zu wirtschaften. Sie sind ebenso essenziell, damit die Lebensqualität dauerhaft aufrechterhalten werden kann. Teilweise fehlt es beispielsweise an begrünten Flächen, die Temperaturen ausgleichen können, oder aber die Luftzirkulation zwischen den Gebäuden wird bei der Planung nicht angemessen berücksichtigt. Das kann dazu führen, dass die aufgeheizte Luft im Sommer nicht richtig abfließen kann – ein echtes Problem angesichts des stetig voranschreitenden Klimawandels. Deshalb ist es für Städte und Gemeinden jetzt höchste Zeit, eine passende Strategie zur Verbesserung des Klimas vor Ort zu erarbeiten, auch mit Blick auf die Wasserversorgung. Andernfalls könnten sie an Lebensqualität verlieren.
Räumliche Analysen, die das Kernstück von GIS-Software sind, stellen die Basis für nachhaltiges Wirtschaften und Handeln dar. Ein Unternehmen aus unserer Partnerlandschaft, das Kommunen bei ihrer Nachhaltigkeitsstrategie unterstützt, ist der GIS-Lösungsspezialist IP SYSCON. Zusammen mit Städten, Landkreisen oder Energieversorgern analysiert er unter anderem, welche Dächer für die Photovoltaik- oder Solarthermienutzung geeignet sind und kann mithilfe externer Daten den genauen Ertrag für den jeweiligen Standort berechnen. Auch die Frage, welche Effekte energetische Sanierungen haben könnten oder welcher Straßenzug wann den größten Wärmebedarf hat, kann miteinbezogen werden.
Laut IP SYSCON ist derzeit erst ein knappes Zehntel des tatsächlichen Dachflächenpotenzials ausgenutzt. Doch gerade mit Blick in die Zukunft, in der wir aufgrund der Abkehr von fossilen Energiequellen immer mehr auf erneuerbare Energien setzen, ist es sinnvoll, genau jetzt mit der Implementierung neuer Strategien zu beginnen. Dies zu verstehen und alle relevanten Daten in einen größeren Kontext zu setzen, ist das, was wir Location Intelligence nennen. Denn nur so haben Unternehmen, ebenso wie Kommunen und Regierungen die Chance, Zusammenhänge zu erkennen, die ohne die Visualisierung durch Karten und Dashboards unsichtbar sind. Mit dem gewonnen Wissen können sie nachhaltige Entscheidungen treffen, die auch in Zukunft noch mit den Bedürfnissen der Umwelt und des Menschen übereinstimmen.

Gibt es Organisationen, die Geodaten schon heute erfolgreich einsetzen, um nachhaltiger wirtschaften zu können? Welche Lösungen bietet in diesem Zusammenhang Ihr Haus und wie können Unternehmen diese nutzen?
Um beim aktuellen Beispiel zu bleiben: Gerade in der Forstwirtschaft ist vorausschauendes und nachhaltiges Handeln essenziell. Der Forst Baden-Württemberg (ForstBW) beispielweise setzt bei seiner Arbeit bereits seit Längerem auf unsere Location Intelligence-Technologie. Die ForstBW verantwortet etwa 300.000 Hektar Staatswald und beschäftigt 1.800 Mitarbeitende. Das Ziel des ForstBW ist es, ökologisch vorbildlich, sozial ausgewogen und ökonomisch erfolgreich zu arbeiten – und das bringt uns direkt zurück zum bereits erwähnten Schädling, dem Borkenkäfer. Da er eine starke Bedrohung für die Waldbestände darstellt, hat der Landesbetrieb seine Arbeitsabläufe neu konzipiert und setzt seither auf nahtlose, digitale Workflows, die auf dem Prinzip von Location Intelligence basieren. Mithilfe mobiler Geräte können die Mitarbeitenden vor Ort in Echtzeit melden, wenn ein Baum vom Borkenkäfer befallen ist und den Standort entsprechend auf der Karte markieren. Das ermöglicht nicht nur ein schnelleres Erfassen und Beseitigen der Schäden, sondern hilft auch dabei, Muster zu erkennen und dadurch eine weitere Ausbreitung zu verhindern. Gerade mit Blick auf die Prognosen der Wissenschaftler aus der Forstwirtschaft wird deutlich, warum es so wichtig ist, Geodaten zu nutzen und zu analysieren, um unseren Wald vor dem Klimawandel und seinen Folgen zu schützen.
Wir bei Esri ermöglichen es sowohl Unternehmen als auch Behörden und Non-Profit-Organisationen, Location Intelligence als festen Bestandteil in ihre Digitalstrategie zu integrieren. Unser ArcGIS System ist je nach Bedarf skalierbar und die Anwendungen sind für Desktops, mobile Geräte als SaaS- und als PaaS-Lösung lizenzierbar. Zudem sind unzählige Apps verfügbar, denn mehr als 2.000 Partner weltweit entwickeln Apps für das ArcGIS System. Ein zusätzliches herausragendes Feature ist der „Living Atlas of the World“ – die weltweit wohl größte Sammlung geografischer Informationen mit Entwicklerservices, Datenservices und location services. Ständig kommen neue Daten hinzu, von amtlichen Daten bis hin zu User Generated Content aus unserer weltweiten Community.
Um noch mehr Unternehmen, Organisationen und Privatpersonen die Möglichkeit zu geben, die Umgebung, in der sie sich befinden, besser zu verstehen, hat Esri erst kürzlich eine neue, digitale Karte zur freien Nutzung veröffentlicht. Die „Global Land Cover Map“ basiert auf Satellitenbildern der ESA und wurde zusammen mit Microsoft und dem Startup Impact Observatory entwickelt. Sie gibt Auskunft darüber, in welchem Zustand sich unsere Welt derzeit befindet und gibt auch einen Ausblick in das Jahr 2050. Unser Ziel ist es, mit dieser neuen Karte eine aktuelle, konsistente und umfassende Datengrundlage für Umwelt- und Klimaschutzinitiativen jeglicher Art zu schaffen. 2021 ist ein entscheidendes Jahr, wenn es darum geht, endlich mehr Nachhaltigkeit zu etablieren, und wir freuen uns, mit unserer Location Intelligence-Technologie mehr Unternehmen und Organisationen dabei zu unterstützen.

Weitere Informationen unter:
https://www.esri.de/de-de/home

CFOs nehmen führende Rolle ein, um die nächste Stufe der Digitalisierung zu zünden

Ansgar Eickeler, General Manager Central & Eastern Europe bei Board International, sieht eine stärker strategisch geprägte Rolle für Finance-Führungskräfte im Kontext der digitalen Transformation. Im Rahmen einer Beitragsserie leitet er diesen Wandel her und zeigt auf, wie Financial Officers sich und ihr Unternehmen in die Lage versetzen können, damit Wettbewerbsvorteile zu generieren.

In den zahlreichen Gesprächen, die wir bei Board mit Führungskräften aus dem Finanzbereich führen, gibt es ein immer wiederkehrendes Thema. Sie berichten, dass sie sich im letzten Jahr darauf konzentriert haben, die Kosten zu senken und den Cash Flow sicherzustellen, damit ihr Unternehmen die größte geschäftliche Herausforderung einer Generation überlebt: Die Folgen der globalen Pandemie! Jetzt erwarten sie allerdings, dass die Umsätze wieder das Niveau vor der Pandemie erreichen oder übertreffen. Die Unternehmen setzen u. a. darauf, dass die nächste Stufe der digitalen Transformation zündet. Wachstum und neue, wirklich transformative Geschäftsmodelle haben oberste strategische Priorität und erhöhen den Veränderungsdruck auf die Führungskräfte in allen Unternehmensbereichen. Auch die Finanzabteilung muss sich dieser Herausforderung stellen und die eigene Transformation beschleunigen.

Ansgar Eickeler zeigt auf, dass sich die Rolle des CFOs zum Digitalisierungs-Enabler hin verändert.

Agilität in Planung und Budgetierung

Das vergangene Jahr hat gezeigt, wie wichtig es ist, agil zu sein und die Unternehmen so aufzustellen, dass sie jederzeit in der Lage sind, Produkte und Dienstleistungen auf neue Geschäftsmöglichkeiten, Kunden und Nachfragequellen auszurichten. In diesem Zusammenhang sind eine jährliche Planung und Budgetierung einfach nicht mehr zeitgemäß. Starre Planungen und Budgets hindern Unternehmen daran, neue Chancen dann wahrzunehmen, wenn sie entstehen.

Trotz alledem arbeiten viele Unternehmen weiterhin mit veralteter Technologie und halten an ihren traditionellen Finanzprozessen fest. Strategische, unternehmenskritische Pläne werden häufig immer noch mit einfachen Tabellenkalkulationen erstellt. Führungskräfte in modernen Finanzabteilungen sind sich bewusst, dass eine Veränderung notwendig ist. Sie brauchen kurzfristig differenzierte Einblicke in die aktuelle Lage und erweiterte Möglichkeiten im Planungsbereich, um auf Veränderungen schnell reagieren zu können. Das geht über die traditionellen Planungs- und Budgetierungsprozesse hinaus. Die Finanzabteilungen müssen bei unerwarteten Ereignissen schnell neu planen können. Dazu müssen sie zunächst aussagekräftige Analysen erstellen, um damit Erkenntnisse und Einsichten zu gewinnen, wie sich der Markt verändert. Nur so sind sie vorbereitet, wenn sich neue Chancen auftun.

Herausforderungen der Finanzbereiche

Aus den Gesprächen mit Führungskräften im Finanzbereich wissen wir auch, dass die meisten bereit sind, die Chancen zu nutzen, die sich durch die neuen Finanztechnologien ergeben. Dafür müssen sie das größte Asset im digitalen Zeitalter nutzen: Daten. Der höchste transformative Wert der Daten entsteht durch die Befähigung der Finanzabteilung, aus Daten Erkenntnisse zu gewinnen, auf deren Basis die Unternehmensleitung wegweisende Entscheidungen treffen kann.

Häufig fehlt der Finanzabteilung allerdings das Methodenwissen, um den Daten auf den Grund zu gehen und die tiefgreifenden Analysen durchzuführen, die erforderlich sind, um das Geschäft voranzutreiben. In der Praxis bedeutet dies, dass die Finanzabteilung nicht immer über die professionellen Datenwissenschaftler oder das technische Know-how verfügt, um die Erkenntnisse zu generieren, die die Geschäftsleitung zur Entscheidungsfindung nutzen kann.

Unterstützung durch innovative Software

Das muss nicht so sein. Moderne Software bietet die Möglichkeit, allen Stakeholdern den Zugang zu Informationen, Analysen und Planungen zu ermöglichen und dies auf einer einzigen, zentralen Plattform abzubilden. Diese kann z. B. über die Cloud unternehmensweit bereitgestellt werden. Den Finanzteams eröffnen sich dadurch ganz neue und bereichernde Möglichkeiten. Sie können sich frei machen von sich wiederholenden und routinemäßigen Finanzaufgaben, die sich automatisieren lassen. Die gewonnene Zeit können sie nutzen, um sich auf aussagekräftige Analysen und die Generierung von Erkenntnissen zu konzentrieren. Damit beschleunigen sie die Entwicklung zum digitalisierten Unternehmen.

Grundlegende neue Funktionen im Finanzbereich, wie innovative Analytics-Funktionen, die es ermöglichen, detaillierte Einblicke zu nehmen und Erkenntnisse zu gewinnen, müssen so eingeführt werden, dass sie alle Sicherheitsanforderungen erfüllen – auch für geschäftskritische Daten – und dass sie sich skalieren lassen. Dazu eignen sich bewährte Entscheidungsfindungsplattformen wie Board, die Planung, Business Intelligence (BI) und Predictive Analytics integrieren. Sie sind in der Lage, auch sehr große Datenmengen schnell zu verarbeiten und gewährleisten dabei eine hohe Zuverlässigkeit bei der Analyse, indem sie alle Plan- und Ist-Daten auf einer Plattform zusammenführen. Das schafft Transparenz über Herkunft und Aktualität der Daten und bildet eine stabile Grundlage für das Vertrauen in die gewonnenen Erkenntnisse. Damit ist der Finanzbereich so aufgestellt, dass er die strategischen Geschäftsprozesse bestmöglich unterstützen kann.

Studie untersucht Bereitschaft, Führungsrolle zu übernehmen

Für Führungskräfte im Finanzbereich bietet sich die riesige Chance, eine führende Rolle bei der Gestaltung der Zukunft des digitalisierten Unternehmens zu spielen. Sie können die Finanzabteilung zur natürlichen Heimat der Daten machen. In einigen Organisationen sind jedoch große Veränderungen erforderlich, um dies zu erreichen. Dazu gehört auch der Mut, den Fokus auf zukunftsgerichtete Analyse, Planung und Reporting zu richten, anstatt sich mit der Berichterstattung über die Vergangenheit zufrieden zu geben. Aber auch damit ist es nicht getan, es müssen sich Kompetenzen, Qualifikationen und Denkweisen verändern, um ein echter digitaler Champion zu werden und das Finanzwesen in die digitale Zukunft zu transformieren.

Das sind große Themen, mit weitreichenden Auswirkungen auf die Entwicklung des digitalisierten Unternehmens und auf die Zukunft der Finanzabteilung, wie wir sie heute kennen. Eine der wichtigsten Fragen ist, ob die Führungskräfte im Finanzbereich bereit sind, sich dieser Herausforderung zu stellen. Genau diese Frage haben wir in den letzten Wochen in einer groß angelegten Studie über 500 Führungskräften aus dem Finanzbereich in allen wichtigen Branchen weltweit gestellt. Wir freuen uns darauf, die Ergebnisse mit Ihnen zu teilen, sobald wir sie final ausgewertet haben.

Sie können sich heute schon registrieren, um die Ergebnisse direkt zugeschickt zu bekommen.

Weitere Informationen unter:
www.board.com/de

Künstliche Intelligenz in der Verbrechensbekämpfung

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 3. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

In dieser Folge über die Verbrechensbekämpfung mit Hilfe von künstlicher Intelligenz wird erörtert, ob Science Fiction schon Teil der Gegenwart geworden ist.

Die Zukunft ist vorhersehbar und Morde können durch Künstliche Intelligenz verhindert werden: Polizeibeamte stürmen an einen Tatort, noch bevor der Täter eintrifft und ziehen ihn aus dem Verkehr: Das ist der Stoff für den Science-Fiction-Thriller „Minority Report“ mit Tom Cruise. Doch Pre-Policing ist längst nicht mehr reine Zukunftsvision aus Hollywood: Die auf Künstlicher Intelligenz basierenden Ermittlungsmethoden sind Teil alltäglicher Polizeiarbeit.

Als Vorreiter gilt die Polizei von Chicago. Zusammen mit einer Gruppe von Datenanalyst/innen wurde 2013 eine sogenannte „Heatlist“ erstellt. 400 Menschen, von denen wahrscheinlich eine Gefahr ausgeht oder die selbst in Gefahr geraten könnten, rückten in den Fokus. Die Datenanalyst/innen programmieren einen mathematischen Algorithmus der mit den Rohdaten polizeibekannter Personen arbeitet: Varoon Bashyakarla studiert damals Statistik und Ökonomie an der Yale-Universität und gehört zum Team.

 

Varoon Bashyakarla: Unser Job war es  dem Department dabei zu helfen seine Modelle zu verbessern um Gewaltverbrechen vorherzusagen. Das Chicago Police Department weiß, dass manche Nachbarschaften eine höhere Kriminalitätsrate haben als andere. Und das Department weiß auch, dass Kriminalität vom Faktor Zeit abhängt: Die Kriminalität in Chicago ist im Sommer viel schlimmer als im Winter. Wir entschieden uns auf das Phänomen der Schnittmenge von Ort und Zeit zu schauen. Wir haben folgendes herausgefunden: wenn wegen Gewalt Verurteilte aus dem Gefängnis wieder entlassen wurden und an ihre alte Meldeadresse zurückkehrten, dann stieg in manchen Nachbarschaften nach einer Zeit die Gewaltrate wieder an.“

In welcher Nachbarschaft wohnt eine Person? Mit wem wurde sie verhaftet? wurden diese Personen später selbst Opfer von Gewaltverbrechen? Mit diesen Rohdaten füttern Informatiker/innen und Statistiker/innen wie Varoon Bashyakarla die Datenbanken. Heute kann die Polizei in Chicago in wenigen Sekunden eine Linkanalyse ihrer potentiellen Gefährder/innen erstellen. Inklusive Adresse, Soziolversicherungsnummer, Vorstrafenregister, Telefon- Kontakten, Facebook-Freunden, Familienangehörigen. Waren es 2013 noch 400, so sind es 2017 bereits 1600 Namen auf der Heatlist des Chicago Police Departments. Pre Policing-Methoden gibt es heute in mehreren Städten der USA und Großbritanniens. Auch in Deutschland werden Verfahren der Künstlichen Intelligenz bei der Polizeiarbeit erprobt. Die Programme tragen Namen wie HanchLab, Matrix oder Pred Pol.

 

Varoon Bashyakarla: „Pred Pol basiert auf der Routine-Activity-Theorie: Es wird angenommen, das unser Alltag von Routine geleitet ist. Wenn ich mit meinem Fahrrad von der Arbeit nach Hause fahre, dann nehme ich stets den selben Weg. Die Annahme ist, dass dies für alle zutrifft: Für Kriminelle und Nicht-Kriminelle. Und wir können dieses Verhaltensmuster benutzen um vorherzusagen wo Menschen hingehen werden.“  

Ein Algorithmus ist ein Modell, das Rohdaten interpretiert und weiterverarbeitet. Die Routine-Activity-Theorie entstammt ursprünglich einem Algorithmus aus der Seismographie um Erdbeben vorherzusagen. Heute benutzen Sicherheitsbehörden diesen Algorithmus auf ganz unterschiedlichen Feldern: Grenzsicherung, Gewalt-Kriminalität oder im Kampf gegen moderne Sklaverei.

 

Varoon Bashyakarla: „Die Idee basiert auf geographischen Eigenschaften eines Ortes. Es wird angenommen, dass manche Gegenden einer Stadt aus bestimmten Gründen mehr zu Kriminalität neigen als andere. Wenn es einen Anstieg von Kriminalität in einer Gegend gibt, dann könnte das zu mehr Kriminalität führen. So wie ein Erdbeben auch Nachbeben auslösen kann. Das ist kontrovers und darum ist die Heatlist in Chicago kontrovers. Denn die identifizierten Menschen scheinen manchmal einfach nicht auf diese Liste zu gehören. Menschen die scheinbar völlig unschuldig sind, aber möglicherweise Opfer von Gewalt werden könnten. Soziale Netzwerke spielen bei diesem vorausschauenden System auch eine Rolle.“

Die Juristin und Essayistin Yvonne Hofstetter ist Geschäftsführerin der Teramark Technologies GmbH. Das Unternehmen entwickelt Systeme der künstlichen Intelligenz sowohl für staatliche Einrichtungen als auch für Wirtschaft und Industrie; Sie ist seit Jahren auf die Auswertung großer Datenmengen mit lernenden Maschinen spezialisiert.

Ihr Bestseller „Sie wissen alles“ beschäftigt sich mit der Überwachung durch Big Data im Zeitalter der Digitalisierung. Künstliche Intelligenz – kurz KI – nennt Yvonne Hofstetter eine Risikotechnologie:

 

Yvonne Hofstetter:​ „Weil sie – wenn sie in Bezug auf den Menschen eingesetzt wird – massiv gegen Grundrechte verstößt. Standard-Aufgabe der KI ist die Klassifizierung. Klassifizierer nimmt sich eine Gruppe von Objekten – in diesem Fall vielleicht Menschen, und segmentiert die. Also diese KIs die haben sogenannte Diskriminierungsfähigkeit. Diese KIs müssen diese Gruppe beispielsweise aufteilen in kriminelle, nicht Kriminelle, Terroristen, nicht Terroristen, guter Bürger, schlechter Bürger. Das heißt: Wir kommen hier über diese KIs, über diese Mechanismen zu einem Selektionsmechanismus, zu einer Selektionsmethode. Und dadurch, dass diese selektionsmethodisch statistisch arbeitet, sind hier inherent auch Fehler die passieren. Also kann es sein, dass Sie der Gruppe schlechter Bürger zugeordnet werden, aber eigentlich sind Sie guter Bürger.

So können heute Systemimanente Fehler, die in der Statistik normal sind, über menschliche Schicksale entscheiden. Wenn ich als Mann auf Facebook die Sängerin Britney Spears like, bin ich für den Algorithmus des Sozialen Netzwerks zu 67% homosexuell. Aber was ist wenn ich mich über Donald Trums Muslim Ban, oder gegen den geplanten Mauerbau an der Grenze zu Mexiko bin, und mich auf Sozialen Netzwerken darüber auslasse?

 

Yvonne Hofstetter: „Es kann sein dass sie einfach auf eine Liste kommen. No Fly-List, Terroristen- Liste, was auch immer, strategische Liste die schlimmsten Kriminellen in Chicago. Und dann kommen Sie von dieser Liste nicht mehr. Eine Maschine hat sie dort oben drauf getan, wenn Sie so wollen. Das ist schon ein Risiko für die Menschen, weil wir im Grunde genommen überhaupt keine Transparenz haben wie diese Mechanismen funktionieren, wie die Modelle ausschauen die dahinter liegen ob die Daten auch richtig, vollständig, neu, sauber sind auf denen diese Entscheidungen getroffen werden.“

Wer programmiert die Pre-Crime-Algorithmen und wie transparent sind sie? Die Antwort auf diese Fragen ist aus juristischer Perspektive erschreckend. Denn die Informatiker/innen und Daten-Analst/innen, die Pre-Crime Algorithmen mit Rohdaten füttern, kennen sich weder in Krimonologie noch Soziologie aus. Sie verstehen wenig von Verbrechensursachen und können rechtlich nicht haftbar gemacht werden. Das bemängelt auch Statistiker Varoon Bashyakarla.

 

Varoon Bashyakarla: „Pred Pol ist ein kommerzielles Produkt. Sein Algorithmus ist Eigentum und der Öffentlichkeit nicht zugänglich. Eigentlich kennt niemand seine Formel. Niemand weiß mit welchen Rohdaten es gefüttert wird, wie diese evaluiert werden und wie sie das individuelle Kriminalitätsrisiko einschätzen. Wir können nicht sehen wie die inneren Abläufe sind, wir können sie nicht kritisieren und nicht verbessern. Selbst wenn wir es wollten.“

Yvonne Hofstetter kritisiert bei Pre-Policing- Modellen nicht nur die fehlende Transparenz:

 

Yvonne Hofstetter: „Die größte Kritik die ich als gelernte Juristin habe, ist: da landen Leute auf einer Liste, die überhaupt kein Verbrechen begangen haben oder kein Vergehen begangen haben. Das ist völlig gegen das Rechtsstaatsgebot. Zumindest nach unserem europäischen Verständnis. Der Rechtsstaat setzt voraus, dass jemand ein Verbrechen, ein Vergehen begangen haben muss, und dann wird dieses entsprechend strafrechtlich verfolgt und bestraft. Und wenn sie diese Heatlists aufbauen und die Menschen die auf dieser Liste stehen bedrohen über die Polizei, und sagen: „Okay wenn du dich nicht komform (verhältst) in den nächsten drei Monaten, dann wird dich der Arm des Gesetzes mit voller Wucht treffen.“ Dann ist das überhaupt nicht mit unserem Rechtsstaatgebot zu vereinbaren.“

Doch genau das tun die Behörden in Chicago und London: Die potentiellen Gefährder/innen- erhalten Hauspost oder sogar Hausbesuche von ihrer lokalen Polizeidienststelle. Sie werden darüber unterrichtet, dass sie auf dem Radar der Behörden sind und sich lieber an Recht und Gesetz halten sollten. Andernfalls hätten sie mit harten Strafen zu rechnen. Überdurchschnittlich oft erhalten diese Vorab-Verwarnungen junge, dunkelhäutige Männer. Kritiker sagen darum, dass Pre-Policing-Modelle Racial Profiling sogar verstärken. Also die auf Stereotypen und äußerliche Merkmale, wie enthnische Zugehörigkeit, basierenden Polizeikontrollen.

 

Yvonne Hofstetter: „… ein sehr schönes Beispiel für technologischen Rassismus dieses Beispiel der Polizei in Chicago. Wir wissen in Chicago ist es so dass die weißen weniger oft verhaftet werden als Schwarze. Und natürlich schlägt sich nieder in den normalen Datenbanken der Polizeibehörden. Da steht drin 80 Prozent der Schwarzen sind kriminell. Nur 20 Prozent Weiße sind kriminell. Aber vielleicht ist es ja anders. Vielleicht ist es das nicht das Abbild der Realität. Sie haben also schon in den Roddaten dieses Vorurteil mit enthalten. Und dieses Vorurteil dass wir eigentlich durch die KI noch verschärft, weil sie diskriminiert. Wir haben keine Lösung dafür als Technologen. Wir wissen nicht wie wir diese Vorurteile aus den Rohdaten rauskriegen sollen.“

Pre-Policing verstärkt also den instritutionellen Rassismus. Der Statistiker Varoon Bashyakarla spricht in diesem Zusammenhang von sich selbst reproduzierenden Feedback-Schleifen. Damit bricht Pre Policing mit dem Grundsatz der Gleichberechtigung:

 

Varoon Bashyakarla: „Wenn es in Nachbarschaften in denen Minderheiten leben, eine erhöhte Polizeipräsenz gibt, dann werden dort auch mehr Straftaten registriert. Wenn diese Informationen ins System eingespeist werden, dann heißt es: Schau: Diese Nachbarschaft neigt zu erhöhter Kriminalität. Wir müssen dort mehr in unsere Ressourcen investieren. In diesem Kontext kann das algorithmische System sich selbst reproduzierenden Feedback-Schleifen schaffen. Aber sie basieren auf systematischer Ungleichbehandlung. Darum sagen viele Kritiker, dass Systeme wie Pred Pol gar nicht vorhersagen wo Verbrechen passieren werden. Sie sagen nur vorher wo Verbrechen gemeldet werden. Wenn algorithmische Systeme mit historischen Daten gefüttert werden, dann sagen sie eine Zukunft voraus die auf Trends aus der Vergangenheit basiert.“

Massenüberwachung. Diskriminierung. Unsaubere Rohdaten. Intransparente Algorythmen: Die Cyber-Polizei wirkt im aktuellen Zeitpunkt nicht besonders vertrauenserweckend. Auch in Deutschland wird in mehreren Großstädten mit Hilfe Künstlicher Intelligenz ermittelt. Allerdings schützen hierzulande strengere Datenschutzrichtlinien die Bürger/innen, erklärt Yvonne Hofstetter.

 

Yvonne Hofstetter: „In Deutschland wird nicht mit personenbezogenen Daten gearbeitet, dort gibt es nur einen bestimmten Einsatzbereich von Precrime. Und zwar ist es die Vorhersage oder Erstellung von Heat-Maps in Bezug auf Einbrüche. Und dann geht die Polizei auf öffentlich verfügbare Daten beispielsweise des Statistischen Bundesamts zurück und schaut sich an: Wo sind denn in München gehobene Wohngegenden wo besonders viele Rentner leben oder besonders viele verrentete Juweliere leben. Man zeigt ihm auf der Map wo diese Gebiete sind. Diese Information geht an den Analyst der hier die Einsatzplanung macht. Für die Bestreifung dieser Wohngegenden wird es hier vielleicht mehr Streifen einsetzen. Das ist alles.“

Für Konstantin von Notz, netzpolitischer Sprecher der Fraktion Bündnis 90/Die Grünen, ist die Sache klar: Der Rechtsstaat muss auch in Zukunft beim Thema Pre Crime die personenbezogenen Daten seiner Bürger schützen.

Konstantin von Notz: „…erst einmal gilt der Grundsatz, dass das Individuum die Herrschaft über die Informationen die es betrifft, ausüben können muss; zu allen Zeiten. Das heißt: Es darf keine Verselbständigung dieser Informationen geben, die dann zwangsläufig zu Diskriminierungen bzw. Privilegierung führen. Und keine Diskriminierung ohne Privilegierung und umgekehrt. Insofern muss der Anspruch da sein über seine eigenen Daten und die daraus zu generieren Informationen verfügen zu können.“

Ist Deutschland also eine Bastion von Freiheitsrechten und sicheren Daten? Werden Freiheitsrechte nur jenseits des Atlantiks verletzt? Wohl kaum. Seit den Enthüllungen von Whistleblower Edward Snowden ist bekannt, das amerikanische und britische Geheimdienste die Telekommunikation und insbesondere das Internet unter dem Vorwand der Terrorabwehr global und verdachtsunabhängig überewachen. Die gewonnenen Daten werden auf Vorrat gespeichert. Was bedeutet das für unser Demokratieverständnis?

 

Konstantin von Notz: „Ein Mensch der beobachtet wird, ist nicht frei. Insofern muss man das im Hinblick auf diese Möglichkeit dass alle Verhaltensweisen und bis hin zu unseren Gedanken und Erwägungen und Entscheidungsprozessen eben alles digitale Spuren erzeugt, muss man schon gucken wohin die Reise geht. Ich selbst bin fest davon überzeugt, dass man eigentlich nicht mehr unterscheiden kann zwischen privatem und staatlichem Datensammeln. Zumindest solange der Staat keine eisenharte Linie zieht zwischen diesen zwei Bereichen. In den letzten Jahren hat er das Gegenteil getan. Er hat diese Mauern eingerissen. Er hat durch die Vorratsdatenspeicherung von Kommunikationsdaten Unternehmen verpflichtet für ihn Daten vorzuhalten.“

Das sieht Yvonne Hofstetter ähnlich: Sie drückt sich allerdings weniger diplomatisch aus.

 

Yvonne Hofstetter: „Die Totalüberwachung ist mit dem Demokratieverständnis nicht vereinbar. Die Idee dass ein Staat ein Sicherheitsparadies herstellen will, wird zum totalen Staat. Sie sehen schon die ersten Schritte in die totale Überwachung. Ein Problem ist, dass wir eigentlich gar nicht mehr klar trennen können zwischen Privaten die uns überwachen und dem Staat der uns überwacht: die Daten konvergieren nämlich, das heißt sie kommen in einem Platz zusammen. Und ich sag mal so: Wenn Herr Trump ein Dekret unterschreibt Google und Facebook mir immer alle Daten an die NSA oder die CIA zu übertragen, dann wird das passieren.“

Die erste, auf Künstlicher Intelligenz basierenden, Totalüberwachung ist keine distopische Zukunftsvision mehr- 2020 soll ich China das Social Credit System „Citizen Score“ an den Start gehen. Ein Punktesystem für so gut wie alle Belange des gesellschaftlichen Lebens. Der Staat bewertet seine Bürger/innen auf der Grundlage ihrer Datenspuren: Wer sich Online gesundes Essen bestellt, bekommt Pluspunkte, wer hingegen Pornos schaut, muss mit Abzügen rechnen.

 

Yvonne Hofstetter: „Citizen Score in China ist durchaus auch eine globale Bedrohung. China ist wie ein Pulverfass oder wie ein Dampf-Kochtopf: da ist der Deckel feste drauf und jetzt ist es eben so dass der mächtigste Mann Chinas sagt, er möchte nicht den Deckel lüften, sondern er möchte den Deckel fester drauf halten und zwar unter Einsatz von Künstlichen Intelligenzen, die Menschen kontrollieren und kleinhalten, aussteuern. Ich halte das für eine ganz gefährliche Sache.“

Am Ende rutschen alle Bürger/innen in eine Kategorie- wie bei einer Rating-Agentur: Wer die Bewertung AAA erhält, darf mit vergünstigte Krediten oder einer guten Krankenversicherung rechnen. Wer in die Kategorie D rutscht, muss fürchten seinen Job zu verlieren. Neben Behörden sollen auch Banken, Arbeitgeber/innen, Vermieter/innen, Einkaufsplattformen oder Fluggesellschaften Einsicht in die Bewertung erhalten. Es ist die totale Kontrolle des gläsernen Bürgers.

Sky-Net ist ein fatales Beispiel das zeigt, was passieren kann wenn Künstliche Intelligenz im Bereich der Kriegführung eingesetzt wird: Es ist das gemeinsam von CIA und NSA entwickelte Programm zur Klassifizierung von Terroristen in Pakistan. In der zweiten Amtszeit von Barack Obama wurden damit die Telefongespräche und das Internetverhalten von 50 Millionen Pakistanern überwacht.

 

Yvonne Hofstetter: „Und hat dann eben über dieses Data-Analytics- Programm klassifiziert wer Terrorist ist und wer nicht und hat dann Drohnen in den Einsatz gebracht um diese Ziele zu neutralisieren. Darunter waren sehr viele unschuldige Menschen. Das heißt hier entscheiden Maschinen über Leben und Tod. Das ist eine ähnliche Frage wie bei Pre-Crime: Die Maschinen kommen hier auf eine Liste als kriminell. Oder komme ich da nicht hin. Das entscheidet eine Maschine und das ist tatsächlich schon Fakt. Da sind wir noch nicht soweit gegangen dass die Drohne selbst entscheidet ob sie schießt oder nicht. Aber dieser Schritt ist natürlich klein. Aus technologischer Sicht ist natürlich auch bereits heute möglich.“

Folge 1: Was ist Künstliche Intelligenz

Folge 2: Wie verändert Künstliche Intelligenz den Verkehr?

In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist ein Produkt des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski. 
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer. 
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger. 

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Von IT-Silos zur neuen Unternehmenskultur

Bei jeder Transformation muss die IT auf den Prüfstand gestellt werden. Digitalisierung und Automatisierung von Prozessen erfordern zwangsläufig ein Aufbrechen von IT-Silos. Damit ist es aber bei Weitem nicht getan, es geht dabei immer auch um die Adaption der Unternehmenskultur. Im Interview erläutern Jens Kassert, Subject Matter Expert Enterprise Open Source, und Christoph Steinhauer, Geschäftsfeldleiter Agile Methoden und Digitalisierung, bei der PROFI Engineering Systems AG, wie das gelingen kann.

Herr Kassert,warum darf eine IT-Modernisierung nicht nur aus technischem Blickwinkel betrachtet werden?

Treiben Unternehmen die Digitale Transformation und Prozessautomatisierung voran, rücken zunächst technologische Aspekte ins Blickfeld, etwa die Einführung neuer IT-Lösungen oder die Nutzung von Cloud-Services. Allerdings haben solche Veränderungen unweigerlich auch Auswirkungen auf die Arbeitsweisen und den Aufbau einer agilen Organisationsstruktur. Hierfür muss sich in der Regel auch die zugrundeliegende Unternehmenskultur anpassen.

Veränderungen – und seien sie technisch getrieben – betreffen immer die Aspekte Mindset, Menschen sowie Tools und Prozesse. Beim Mindset geht es sowohl um den Unternehmens- als auch das persönlichen Mindset, also um das Selbstverständnis, organisatorische Regelungen und Prozesse auf Unternehmensseite und um die Selbstorganisation und intrinsische Motivation des Einzelnen.

Christoph Steinhauer

Herr Steinhauer, welche zentralen Herausforderungen bestehen?

Will man Digitale Transformationen vorantreiben und agile Organisationsstrukturen aufbauen, sind vielfach die existierenden hierarchischen Strukturen ein Hindernis. Vorbehalte bei Führungskräften, die die Gefahr eines Verlustes von Zuständigkeit und Verantwortlichkeit sehen, sind nicht selten. Alte Hoheitsgebiete werden verteidigt. An dieser Stelle, das heißt bei den Menschen, muss man ansetzen. Auch die Führungsebene muss dabei abgeholt werden. Klar ist aber auch, dass agile Strukturen geeignete Mitarbeiter erfordern. Nicht jeder Mensch wird sich in einer solchen agilen Umgebung wohlfühlen, da sie vielleicht nicht seiner Arbeitsweise entspricht. Dieser Umstand ist zu akzeptieren.

Um einem Missverständnis vorzubeugen: Für die Nutzung hierarchischer Strukturen gibt es viele – und zwar gute – Gründe. Dem agilen und teamorientierten Ansatz stehen solche Strukturen allerdings im Weg.

Bedeutet dies, dass hierarchische Organisationsmodelle und herkömmliche IT-Strukturen obsolet geworden sind?

Keineswegs. In der Regel werden hybride Organisationsmodelle dominieren. Das heißt: Die vollständig agile Organisation wird die absolute Ausnahme bleiben. Und auch in technologischer Hinsicht wird die hybride IT das gängige Modell sein, also werden beispielsweise virtuelle Maschinen und Container weiter koexistieren.

Jens Kassert

Herr Kassert, wie begegnet man den anzutreffenden Herausforderungen?

Das A und O ist das Abholen der Menschen – von der Führungsebene über die IT und Fachbereiche bis hin zum einzelnen Mitarbeiter. Dies erfordert viel Interaktion und eine zielgerichtete Kommunikation der Vorteile einer agilen Organisation – etwa hinsichtlich der Überwindung eines Silodenkens. Schafft man es, den Open-Source-Leitgedanken „gemeinsam erreicht man mehr“ organisationsweit zu verfolgen, kann dies ein entscheidender Schritt zum gemeinsamen Unternehmens-Mindset sein.

In Workshops etwa müssen zum einen die konkreten Hürden und Herausforderungen ermittelt und zum anderen die klaren – organisatorisch-kulturellen und technologischen – Zielvorgaben definiert werden. Weitere Formate wie Roundtables oder Meetups bieten sich ebenso an. Bei der Umsetzung von strukturellen Veränderungen ist eine iterative Vorgehensweise zu empfehlen.

Welche Rolle spielt die Technologie?

Ein wesentlicher Punkt darf nie außer Acht gelassen werden: Technologie hat vor allem einen unterstützenden Charakter. Das heißt, bei der Auswahl einer Plattform sollten nicht nur die technische Ausprägung und der konkrete Funktionsumfang Berücksichtigung finden. Vielmehr sollte vor allem darauf geachtet werden, dass eine Technologieplattform im Kundenkontext optimal nutzbar ist. Die Wertschöpfung ist schließlich das Entscheidende.

Herr Steinhauer, noch ein Wort zur Technik? Was ist in ihren Augen besonders wichtig?

Von elementarer Bedeutung ist das Thema Automatisierung. Es geht dabei um Geschwindigkeit, Belastbarkeit, Sicherheit und Auditierbarkeit. Automatisierung bedeutet eine durchgängige End-to-End-Automatisierung, also auch ein Aufbrechen von organisatorischen und IT-Silos. Letzteres betrifft zum Beispiel auch das Auflösen von häufig vorhandenen Werkzeug-Silos: Wenn eine Abteilung Ansible und die andere Puppet nutzt, kann das kaum zielführend sein.

Herr Kassert, betrachtet man das Ganze eher auf der Metaebene:
Was bedeuten die Veränderungen dann?

In einen größeren Kontext eingebettet, betrifft das Kultur- und Veränderungsthema typischerweise das eigene Unternehmen, die Partner und die Kunden. Das heißt, die künftige Entwicklung wird von diesen drei Gruppen geprägt – und jede Gruppe kann letztlich ein entscheidender Treiber sein, technologische Veränderungen einschließlich eines Kulturwandels konsequent voranzutreiben. Und dieses Beziehungsgeflecht wird auch dazu beitragen, dass kaum ein Unternehmen an einem kulturellen Wertewandel vorbeikommen wird.

Die Interviewpartner

Jens Kassert ist bei der PROFI Engineering Systems AG als Subject Matter Expert Enterprise Open Source tätig und verantwortet dabei auch die strategische Partnerschaft mit Red Hat. Seine bunte IT-Karriere begann vor 25 Jahren und führte ihn aus ersten selbständigen “Fingerübungen” über Stationen bei Herstellern (SUSE/Red Hat), großen und kleineren IT-Dienstleistern bis in die Start-Up-Szene. Dabei hat er schon früh sein Herz an alles, was mit Open Source zu tun hat, verloren. Als „Netzwerker-aus-Überzeugung“ hat er stets das große Ganze im Auge und verbindet Kultur, Menschen und Technologie. #beopen!

Christoph Steinhauer verantwortet bei der PROFI Engineering Systems AG den Bereich Digitalisierung und agile Methoden. Das Ziel ist es, Kunden bei ihren Aktivitäten zur Digitalisierung im Mix aus Fachbereichen und IT, aus Methoden zur Geschäftsmodellentwicklung und anwenderfokussierten Umsetzung und in der disziplinübergreifenden Zusammenarbeit zu unterstützen. Bevor er zur PROFI AG stieß war Christoph Steinhauer bei einem der großen deutschen Energieversorger für Produktentwicklung und Innovation zuständig. Davor war er in verschiedenen IT-Unternehmen in verantwortlichen Rollen im Marketing. Er vereint in seiner Rolle sechs Jahre Erfahrung im Energiesektor als Fachanwender und über 25 Jahre an der Kundenschnittstelle im Marketing.

Weitere Informationen: https://www.profi-ag.de

Aufmacherbild / Quelle / Lizenz
Photo by Leon on Unsplash