CFOs nehmen führende Rolle ein, um die nächste Stufe der Digitalisierung zu zünden

Ansgar Eickeler, General Manager Central & Eastern Europe bei Board International, sieht eine stärker strategisch geprägte Rolle für Finance-Führungskräfte im Kontext der digitalen Transformation. Im Rahmen einer Beitragsserie leitet er diesen Wandel her und zeigt auf, wie Financial Officers sich und ihr Unternehmen in die Lage versetzen können, damit Wettbewerbsvorteile zu generieren.

In den zahlreichen Gesprächen, die wir bei Board mit Führungskräften aus dem Finanzbereich führen, gibt es ein immer wiederkehrendes Thema. Sie berichten, dass sie sich im letzten Jahr darauf konzentriert haben, die Kosten zu senken und den Cash Flow sicherzustellen, damit ihr Unternehmen die größte geschäftliche Herausforderung einer Generation überlebt: Die Folgen der globalen Pandemie! Jetzt erwarten sie allerdings, dass die Umsätze wieder das Niveau vor der Pandemie erreichen oder übertreffen. Die Unternehmen setzen u. a. darauf, dass die nächste Stufe der digitalen Transformation zündet. Wachstum und neue, wirklich transformative Geschäftsmodelle haben oberste strategische Priorität und erhöhen den Veränderungsdruck auf die Führungskräfte in allen Unternehmensbereichen. Auch die Finanzabteilung muss sich dieser Herausforderung stellen und die eigene Transformation beschleunigen.

Ansgar Eickeler zeigt auf, dass sich die Rolle des CFOs zum Digitalisierungs-Enabler hin verändert.

Agilität in Planung und Budgetierung

Das vergangene Jahr hat gezeigt, wie wichtig es ist, agil zu sein und die Unternehmen so aufzustellen, dass sie jederzeit in der Lage sind, Produkte und Dienstleistungen auf neue Geschäftsmöglichkeiten, Kunden und Nachfragequellen auszurichten. In diesem Zusammenhang sind eine jährliche Planung und Budgetierung einfach nicht mehr zeitgemäß. Starre Planungen und Budgets hindern Unternehmen daran, neue Chancen dann wahrzunehmen, wenn sie entstehen.

Trotz alledem arbeiten viele Unternehmen weiterhin mit veralteter Technologie und halten an ihren traditionellen Finanzprozessen fest. Strategische, unternehmenskritische Pläne werden häufig immer noch mit einfachen Tabellenkalkulationen erstellt. Führungskräfte in modernen Finanzabteilungen sind sich bewusst, dass eine Veränderung notwendig ist. Sie brauchen kurzfristig differenzierte Einblicke in die aktuelle Lage und erweiterte Möglichkeiten im Planungsbereich, um auf Veränderungen schnell reagieren zu können. Das geht über die traditionellen Planungs- und Budgetierungsprozesse hinaus. Die Finanzabteilungen müssen bei unerwarteten Ereignissen schnell neu planen können. Dazu müssen sie zunächst aussagekräftige Analysen erstellen, um damit Erkenntnisse und Einsichten zu gewinnen, wie sich der Markt verändert. Nur so sind sie vorbereitet, wenn sich neue Chancen auftun.

Herausforderungen der Finanzbereiche

Aus den Gesprächen mit Führungskräften im Finanzbereich wissen wir auch, dass die meisten bereit sind, die Chancen zu nutzen, die sich durch die neuen Finanztechnologien ergeben. Dafür müssen sie das größte Asset im digitalen Zeitalter nutzen: Daten. Der höchste transformative Wert der Daten entsteht durch die Befähigung der Finanzabteilung, aus Daten Erkenntnisse zu gewinnen, auf deren Basis die Unternehmensleitung wegweisende Entscheidungen treffen kann.

Häufig fehlt der Finanzabteilung allerdings das Methodenwissen, um den Daten auf den Grund zu gehen und die tiefgreifenden Analysen durchzuführen, die erforderlich sind, um das Geschäft voranzutreiben. In der Praxis bedeutet dies, dass die Finanzabteilung nicht immer über die professionellen Datenwissenschaftler oder das technische Know-how verfügt, um die Erkenntnisse zu generieren, die die Geschäftsleitung zur Entscheidungsfindung nutzen kann.

Unterstützung durch innovative Software

Das muss nicht so sein. Moderne Software bietet die Möglichkeit, allen Stakeholdern den Zugang zu Informationen, Analysen und Planungen zu ermöglichen und dies auf einer einzigen, zentralen Plattform abzubilden. Diese kann z. B. über die Cloud unternehmensweit bereitgestellt werden. Den Finanzteams eröffnen sich dadurch ganz neue und bereichernde Möglichkeiten. Sie können sich frei machen von sich wiederholenden und routinemäßigen Finanzaufgaben, die sich automatisieren lassen. Die gewonnene Zeit können sie nutzen, um sich auf aussagekräftige Analysen und die Generierung von Erkenntnissen zu konzentrieren. Damit beschleunigen sie die Entwicklung zum digitalisierten Unternehmen.

Grundlegende neue Funktionen im Finanzbereich, wie innovative Analytics-Funktionen, die es ermöglichen, detaillierte Einblicke zu nehmen und Erkenntnisse zu gewinnen, müssen so eingeführt werden, dass sie alle Sicherheitsanforderungen erfüllen – auch für geschäftskritische Daten – und dass sie sich skalieren lassen. Dazu eignen sich bewährte Entscheidungsfindungsplattformen wie Board, die Planung, Business Intelligence (BI) und Predictive Analytics integrieren. Sie sind in der Lage, auch sehr große Datenmengen schnell zu verarbeiten und gewährleisten dabei eine hohe Zuverlässigkeit bei der Analyse, indem sie alle Plan- und Ist-Daten auf einer Plattform zusammenführen. Das schafft Transparenz über Herkunft und Aktualität der Daten und bildet eine stabile Grundlage für das Vertrauen in die gewonnenen Erkenntnisse. Damit ist der Finanzbereich so aufgestellt, dass er die strategischen Geschäftsprozesse bestmöglich unterstützen kann.

Studie untersucht Bereitschaft, Führungsrolle zu übernehmen

Für Führungskräfte im Finanzbereich bietet sich die riesige Chance, eine führende Rolle bei der Gestaltung der Zukunft des digitalisierten Unternehmens zu spielen. Sie können die Finanzabteilung zur natürlichen Heimat der Daten machen. In einigen Organisationen sind jedoch große Veränderungen erforderlich, um dies zu erreichen. Dazu gehört auch der Mut, den Fokus auf zukunftsgerichtete Analyse, Planung und Reporting zu richten, anstatt sich mit der Berichterstattung über die Vergangenheit zufrieden zu geben. Aber auch damit ist es nicht getan, es müssen sich Kompetenzen, Qualifikationen und Denkweisen verändern, um ein echter digitaler Champion zu werden und das Finanzwesen in die digitale Zukunft zu transformieren.

Das sind große Themen, mit weitreichenden Auswirkungen auf die Entwicklung des digitalisierten Unternehmens und auf die Zukunft der Finanzabteilung, wie wir sie heute kennen. Eine der wichtigsten Fragen ist, ob die Führungskräfte im Finanzbereich bereit sind, sich dieser Herausforderung zu stellen. Genau diese Frage haben wir in den letzten Wochen in einer groß angelegten Studie über 500 Führungskräften aus dem Finanzbereich in allen wichtigen Branchen weltweit gestellt. Wir freuen uns darauf, die Ergebnisse mit Ihnen zu teilen, sobald wir sie final ausgewertet haben.

Sie können sich heute schon registrieren, um die Ergebnisse direkt zugeschickt zu bekommen.

Weitere Informationen unter:
www.board.com/de

Künstliche Intelligenz in der Verbrechensbekämpfung

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 3. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

In dieser Folge über die Verbrechensbekämpfung mit Hilfe von künstlicher Intelligenz wird erörtert, ob Science Fiction schon Teil der Gegenwart geworden ist.

Die Zukunft ist vorhersehbar und Morde können durch Künstliche Intelligenz verhindert werden: Polizeibeamte stürmen an einen Tatort, noch bevor der Täter eintrifft und ziehen ihn aus dem Verkehr: Das ist der Stoff für den Science-Fiction-Thriller „Minority Report“ mit Tom Cruise. Doch Pre-Policing ist längst nicht mehr reine Zukunftsvision aus Hollywood: Die auf Künstlicher Intelligenz basierenden Ermittlungsmethoden sind Teil alltäglicher Polizeiarbeit.

Als Vorreiter gilt die Polizei von Chicago. Zusammen mit einer Gruppe von Datenanalyst/innen wurde 2013 eine sogenannte „Heatlist“ erstellt. 400 Menschen, von denen wahrscheinlich eine Gefahr ausgeht oder die selbst in Gefahr geraten könnten, rückten in den Fokus. Die Datenanalyst/innen programmieren einen mathematischen Algorithmus der mit den Rohdaten polizeibekannter Personen arbeitet: Varoon Bashyakarla studiert damals Statistik und Ökonomie an der Yale-Universität und gehört zum Team.

 

Varoon Bashyakarla: Unser Job war es  dem Department dabei zu helfen seine Modelle zu verbessern um Gewaltverbrechen vorherzusagen. Das Chicago Police Department weiß, dass manche Nachbarschaften eine höhere Kriminalitätsrate haben als andere. Und das Department weiß auch, dass Kriminalität vom Faktor Zeit abhängt: Die Kriminalität in Chicago ist im Sommer viel schlimmer als im Winter. Wir entschieden uns auf das Phänomen der Schnittmenge von Ort und Zeit zu schauen. Wir haben folgendes herausgefunden: wenn wegen Gewalt Verurteilte aus dem Gefängnis wieder entlassen wurden und an ihre alte Meldeadresse zurückkehrten, dann stieg in manchen Nachbarschaften nach einer Zeit die Gewaltrate wieder an.“

In welcher Nachbarschaft wohnt eine Person? Mit wem wurde sie verhaftet? wurden diese Personen später selbst Opfer von Gewaltverbrechen? Mit diesen Rohdaten füttern Informatiker/innen und Statistiker/innen wie Varoon Bashyakarla die Datenbanken. Heute kann die Polizei in Chicago in wenigen Sekunden eine Linkanalyse ihrer potentiellen Gefährder/innen erstellen. Inklusive Adresse, Soziolversicherungsnummer, Vorstrafenregister, Telefon- Kontakten, Facebook-Freunden, Familienangehörigen. Waren es 2013 noch 400, so sind es 2017 bereits 1600 Namen auf der Heatlist des Chicago Police Departments. Pre Policing-Methoden gibt es heute in mehreren Städten der USA und Großbritanniens. Auch in Deutschland werden Verfahren der Künstlichen Intelligenz bei der Polizeiarbeit erprobt. Die Programme tragen Namen wie HanchLab, Matrix oder Pred Pol.

 

Varoon Bashyakarla: „Pred Pol basiert auf der Routine-Activity-Theorie: Es wird angenommen, das unser Alltag von Routine geleitet ist. Wenn ich mit meinem Fahrrad von der Arbeit nach Hause fahre, dann nehme ich stets den selben Weg. Die Annahme ist, dass dies für alle zutrifft: Für Kriminelle und Nicht-Kriminelle. Und wir können dieses Verhaltensmuster benutzen um vorherzusagen wo Menschen hingehen werden.“  

Ein Algorithmus ist ein Modell, das Rohdaten interpretiert und weiterverarbeitet. Die Routine-Activity-Theorie entstammt ursprünglich einem Algorithmus aus der Seismographie um Erdbeben vorherzusagen. Heute benutzen Sicherheitsbehörden diesen Algorithmus auf ganz unterschiedlichen Feldern: Grenzsicherung, Gewalt-Kriminalität oder im Kampf gegen moderne Sklaverei.

 

Varoon Bashyakarla: „Die Idee basiert auf geographischen Eigenschaften eines Ortes. Es wird angenommen, dass manche Gegenden einer Stadt aus bestimmten Gründen mehr zu Kriminalität neigen als andere. Wenn es einen Anstieg von Kriminalität in einer Gegend gibt, dann könnte das zu mehr Kriminalität führen. So wie ein Erdbeben auch Nachbeben auslösen kann. Das ist kontrovers und darum ist die Heatlist in Chicago kontrovers. Denn die identifizierten Menschen scheinen manchmal einfach nicht auf diese Liste zu gehören. Menschen die scheinbar völlig unschuldig sind, aber möglicherweise Opfer von Gewalt werden könnten. Soziale Netzwerke spielen bei diesem vorausschauenden System auch eine Rolle.“

Die Juristin und Essayistin Yvonne Hofstetter ist Geschäftsführerin der Teramark Technologies GmbH. Das Unternehmen entwickelt Systeme der künstlichen Intelligenz sowohl für staatliche Einrichtungen als auch für Wirtschaft und Industrie; Sie ist seit Jahren auf die Auswertung großer Datenmengen mit lernenden Maschinen spezialisiert.

Ihr Bestseller „Sie wissen alles“ beschäftigt sich mit der Überwachung durch Big Data im Zeitalter der Digitalisierung. Künstliche Intelligenz – kurz KI – nennt Yvonne Hofstetter eine Risikotechnologie:

 

Yvonne Hofstetter:​ „Weil sie – wenn sie in Bezug auf den Menschen eingesetzt wird – massiv gegen Grundrechte verstößt. Standard-Aufgabe der KI ist die Klassifizierung. Klassifizierer nimmt sich eine Gruppe von Objekten – in diesem Fall vielleicht Menschen, und segmentiert die. Also diese KIs die haben sogenannte Diskriminierungsfähigkeit. Diese KIs müssen diese Gruppe beispielsweise aufteilen in kriminelle, nicht Kriminelle, Terroristen, nicht Terroristen, guter Bürger, schlechter Bürger. Das heißt: Wir kommen hier über diese KIs, über diese Mechanismen zu einem Selektionsmechanismus, zu einer Selektionsmethode. Und dadurch, dass diese selektionsmethodisch statistisch arbeitet, sind hier inherent auch Fehler die passieren. Also kann es sein, dass Sie der Gruppe schlechter Bürger zugeordnet werden, aber eigentlich sind Sie guter Bürger.

So können heute Systemimanente Fehler, die in der Statistik normal sind, über menschliche Schicksale entscheiden. Wenn ich als Mann auf Facebook die Sängerin Britney Spears like, bin ich für den Algorithmus des Sozialen Netzwerks zu 67% homosexuell. Aber was ist wenn ich mich über Donald Trums Muslim Ban, oder gegen den geplanten Mauerbau an der Grenze zu Mexiko bin, und mich auf Sozialen Netzwerken darüber auslasse?

 

Yvonne Hofstetter: „Es kann sein dass sie einfach auf eine Liste kommen. No Fly-List, Terroristen- Liste, was auch immer, strategische Liste die schlimmsten Kriminellen in Chicago. Und dann kommen Sie von dieser Liste nicht mehr. Eine Maschine hat sie dort oben drauf getan, wenn Sie so wollen. Das ist schon ein Risiko für die Menschen, weil wir im Grunde genommen überhaupt keine Transparenz haben wie diese Mechanismen funktionieren, wie die Modelle ausschauen die dahinter liegen ob die Daten auch richtig, vollständig, neu, sauber sind auf denen diese Entscheidungen getroffen werden.“

Wer programmiert die Pre-Crime-Algorithmen und wie transparent sind sie? Die Antwort auf diese Fragen ist aus juristischer Perspektive erschreckend. Denn die Informatiker/innen und Daten-Analst/innen, die Pre-Crime Algorithmen mit Rohdaten füttern, kennen sich weder in Krimonologie noch Soziologie aus. Sie verstehen wenig von Verbrechensursachen und können rechtlich nicht haftbar gemacht werden. Das bemängelt auch Statistiker Varoon Bashyakarla.

 

Varoon Bashyakarla: „Pred Pol ist ein kommerzielles Produkt. Sein Algorithmus ist Eigentum und der Öffentlichkeit nicht zugänglich. Eigentlich kennt niemand seine Formel. Niemand weiß mit welchen Rohdaten es gefüttert wird, wie diese evaluiert werden und wie sie das individuelle Kriminalitätsrisiko einschätzen. Wir können nicht sehen wie die inneren Abläufe sind, wir können sie nicht kritisieren und nicht verbessern. Selbst wenn wir es wollten.“

Yvonne Hofstetter kritisiert bei Pre-Policing- Modellen nicht nur die fehlende Transparenz:

 

Yvonne Hofstetter: „Die größte Kritik die ich als gelernte Juristin habe, ist: da landen Leute auf einer Liste, die überhaupt kein Verbrechen begangen haben oder kein Vergehen begangen haben. Das ist völlig gegen das Rechtsstaatsgebot. Zumindest nach unserem europäischen Verständnis. Der Rechtsstaat setzt voraus, dass jemand ein Verbrechen, ein Vergehen begangen haben muss, und dann wird dieses entsprechend strafrechtlich verfolgt und bestraft. Und wenn sie diese Heatlists aufbauen und die Menschen die auf dieser Liste stehen bedrohen über die Polizei, und sagen: „Okay wenn du dich nicht komform (verhältst) in den nächsten drei Monaten, dann wird dich der Arm des Gesetzes mit voller Wucht treffen.“ Dann ist das überhaupt nicht mit unserem Rechtsstaatgebot zu vereinbaren.“

Doch genau das tun die Behörden in Chicago und London: Die potentiellen Gefährder/innen- erhalten Hauspost oder sogar Hausbesuche von ihrer lokalen Polizeidienststelle. Sie werden darüber unterrichtet, dass sie auf dem Radar der Behörden sind und sich lieber an Recht und Gesetz halten sollten. Andernfalls hätten sie mit harten Strafen zu rechnen. Überdurchschnittlich oft erhalten diese Vorab-Verwarnungen junge, dunkelhäutige Männer. Kritiker sagen darum, dass Pre-Policing-Modelle Racial Profiling sogar verstärken. Also die auf Stereotypen und äußerliche Merkmale, wie enthnische Zugehörigkeit, basierenden Polizeikontrollen.

 

Yvonne Hofstetter: „… ein sehr schönes Beispiel für technologischen Rassismus dieses Beispiel der Polizei in Chicago. Wir wissen in Chicago ist es so dass die weißen weniger oft verhaftet werden als Schwarze. Und natürlich schlägt sich nieder in den normalen Datenbanken der Polizeibehörden. Da steht drin 80 Prozent der Schwarzen sind kriminell. Nur 20 Prozent Weiße sind kriminell. Aber vielleicht ist es ja anders. Vielleicht ist es das nicht das Abbild der Realität. Sie haben also schon in den Roddaten dieses Vorurteil mit enthalten. Und dieses Vorurteil dass wir eigentlich durch die KI noch verschärft, weil sie diskriminiert. Wir haben keine Lösung dafür als Technologen. Wir wissen nicht wie wir diese Vorurteile aus den Rohdaten rauskriegen sollen.“

Pre-Policing verstärkt also den instritutionellen Rassismus. Der Statistiker Varoon Bashyakarla spricht in diesem Zusammenhang von sich selbst reproduzierenden Feedback-Schleifen. Damit bricht Pre Policing mit dem Grundsatz der Gleichberechtigung:

 

Varoon Bashyakarla: „Wenn es in Nachbarschaften in denen Minderheiten leben, eine erhöhte Polizeipräsenz gibt, dann werden dort auch mehr Straftaten registriert. Wenn diese Informationen ins System eingespeist werden, dann heißt es: Schau: Diese Nachbarschaft neigt zu erhöhter Kriminalität. Wir müssen dort mehr in unsere Ressourcen investieren. In diesem Kontext kann das algorithmische System sich selbst reproduzierenden Feedback-Schleifen schaffen. Aber sie basieren auf systematischer Ungleichbehandlung. Darum sagen viele Kritiker, dass Systeme wie Pred Pol gar nicht vorhersagen wo Verbrechen passieren werden. Sie sagen nur vorher wo Verbrechen gemeldet werden. Wenn algorithmische Systeme mit historischen Daten gefüttert werden, dann sagen sie eine Zukunft voraus die auf Trends aus der Vergangenheit basiert.“

Massenüberwachung. Diskriminierung. Unsaubere Rohdaten. Intransparente Algorythmen: Die Cyber-Polizei wirkt im aktuellen Zeitpunkt nicht besonders vertrauenserweckend. Auch in Deutschland wird in mehreren Großstädten mit Hilfe Künstlicher Intelligenz ermittelt. Allerdings schützen hierzulande strengere Datenschutzrichtlinien die Bürger/innen, erklärt Yvonne Hofstetter.

 

Yvonne Hofstetter: „In Deutschland wird nicht mit personenbezogenen Daten gearbeitet, dort gibt es nur einen bestimmten Einsatzbereich von Precrime. Und zwar ist es die Vorhersage oder Erstellung von Heat-Maps in Bezug auf Einbrüche. Und dann geht die Polizei auf öffentlich verfügbare Daten beispielsweise des Statistischen Bundesamts zurück und schaut sich an: Wo sind denn in München gehobene Wohngegenden wo besonders viele Rentner leben oder besonders viele verrentete Juweliere leben. Man zeigt ihm auf der Map wo diese Gebiete sind. Diese Information geht an den Analyst der hier die Einsatzplanung macht. Für die Bestreifung dieser Wohngegenden wird es hier vielleicht mehr Streifen einsetzen. Das ist alles.“

Für Konstantin von Notz, netzpolitischer Sprecher der Fraktion Bündnis 90/Die Grünen, ist die Sache klar: Der Rechtsstaat muss auch in Zukunft beim Thema Pre Crime die personenbezogenen Daten seiner Bürger schützen.

Konstantin von Notz: „…erst einmal gilt der Grundsatz, dass das Individuum die Herrschaft über die Informationen die es betrifft, ausüben können muss; zu allen Zeiten. Das heißt: Es darf keine Verselbständigung dieser Informationen geben, die dann zwangsläufig zu Diskriminierungen bzw. Privilegierung führen. Und keine Diskriminierung ohne Privilegierung und umgekehrt. Insofern muss der Anspruch da sein über seine eigenen Daten und die daraus zu generieren Informationen verfügen zu können.“

Ist Deutschland also eine Bastion von Freiheitsrechten und sicheren Daten? Werden Freiheitsrechte nur jenseits des Atlantiks verletzt? Wohl kaum. Seit den Enthüllungen von Whistleblower Edward Snowden ist bekannt, das amerikanische und britische Geheimdienste die Telekommunikation und insbesondere das Internet unter dem Vorwand der Terrorabwehr global und verdachtsunabhängig überewachen. Die gewonnenen Daten werden auf Vorrat gespeichert. Was bedeutet das für unser Demokratieverständnis?

 

Konstantin von Notz: „Ein Mensch der beobachtet wird, ist nicht frei. Insofern muss man das im Hinblick auf diese Möglichkeit dass alle Verhaltensweisen und bis hin zu unseren Gedanken und Erwägungen und Entscheidungsprozessen eben alles digitale Spuren erzeugt, muss man schon gucken wohin die Reise geht. Ich selbst bin fest davon überzeugt, dass man eigentlich nicht mehr unterscheiden kann zwischen privatem und staatlichem Datensammeln. Zumindest solange der Staat keine eisenharte Linie zieht zwischen diesen zwei Bereichen. In den letzten Jahren hat er das Gegenteil getan. Er hat diese Mauern eingerissen. Er hat durch die Vorratsdatenspeicherung von Kommunikationsdaten Unternehmen verpflichtet für ihn Daten vorzuhalten.“

Das sieht Yvonne Hofstetter ähnlich: Sie drückt sich allerdings weniger diplomatisch aus.

 

Yvonne Hofstetter: „Die Totalüberwachung ist mit dem Demokratieverständnis nicht vereinbar. Die Idee dass ein Staat ein Sicherheitsparadies herstellen will, wird zum totalen Staat. Sie sehen schon die ersten Schritte in die totale Überwachung. Ein Problem ist, dass wir eigentlich gar nicht mehr klar trennen können zwischen Privaten die uns überwachen und dem Staat der uns überwacht: die Daten konvergieren nämlich, das heißt sie kommen in einem Platz zusammen. Und ich sag mal so: Wenn Herr Trump ein Dekret unterschreibt Google und Facebook mir immer alle Daten an die NSA oder die CIA zu übertragen, dann wird das passieren.“

Die erste, auf Künstlicher Intelligenz basierenden, Totalüberwachung ist keine distopische Zukunftsvision mehr- 2020 soll ich China das Social Credit System „Citizen Score“ an den Start gehen. Ein Punktesystem für so gut wie alle Belange des gesellschaftlichen Lebens. Der Staat bewertet seine Bürger/innen auf der Grundlage ihrer Datenspuren: Wer sich Online gesundes Essen bestellt, bekommt Pluspunkte, wer hingegen Pornos schaut, muss mit Abzügen rechnen.

 

Yvonne Hofstetter: „Citizen Score in China ist durchaus auch eine globale Bedrohung. China ist wie ein Pulverfass oder wie ein Dampf-Kochtopf: da ist der Deckel feste drauf und jetzt ist es eben so dass der mächtigste Mann Chinas sagt, er möchte nicht den Deckel lüften, sondern er möchte den Deckel fester drauf halten und zwar unter Einsatz von Künstlichen Intelligenzen, die Menschen kontrollieren und kleinhalten, aussteuern. Ich halte das für eine ganz gefährliche Sache.“

Am Ende rutschen alle Bürger/innen in eine Kategorie- wie bei einer Rating-Agentur: Wer die Bewertung AAA erhält, darf mit vergünstigte Krediten oder einer guten Krankenversicherung rechnen. Wer in die Kategorie D rutscht, muss fürchten seinen Job zu verlieren. Neben Behörden sollen auch Banken, Arbeitgeber/innen, Vermieter/innen, Einkaufsplattformen oder Fluggesellschaften Einsicht in die Bewertung erhalten. Es ist die totale Kontrolle des gläsernen Bürgers.

Sky-Net ist ein fatales Beispiel das zeigt, was passieren kann wenn Künstliche Intelligenz im Bereich der Kriegführung eingesetzt wird: Es ist das gemeinsam von CIA und NSA entwickelte Programm zur Klassifizierung von Terroristen in Pakistan. In der zweiten Amtszeit von Barack Obama wurden damit die Telefongespräche und das Internetverhalten von 50 Millionen Pakistanern überwacht.

 

Yvonne Hofstetter: „Und hat dann eben über dieses Data-Analytics- Programm klassifiziert wer Terrorist ist und wer nicht und hat dann Drohnen in den Einsatz gebracht um diese Ziele zu neutralisieren. Darunter waren sehr viele unschuldige Menschen. Das heißt hier entscheiden Maschinen über Leben und Tod. Das ist eine ähnliche Frage wie bei Pre-Crime: Die Maschinen kommen hier auf eine Liste als kriminell. Oder komme ich da nicht hin. Das entscheidet eine Maschine und das ist tatsächlich schon Fakt. Da sind wir noch nicht soweit gegangen dass die Drohne selbst entscheidet ob sie schießt oder nicht. Aber dieser Schritt ist natürlich klein. Aus technologischer Sicht ist natürlich auch bereits heute möglich.“

Folge 1: Was ist Künstliche Intelligenz

Folge 2: Wie verändert Künstliche Intelligenz den Verkehr?

In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist ein Produkt des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski. 
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer. 
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger. 

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Von IT-Silos zur neuen Unternehmenskultur

Bei jeder Transformation muss die IT auf den Prüfstand gestellt werden. Digitalisierung und Automatisierung von Prozessen erfordern zwangsläufig ein Aufbrechen von IT-Silos. Damit ist es aber bei Weitem nicht getan, es geht dabei immer auch um die Adaption der Unternehmenskultur. Im Interview erläutern Jens Kassert, Subject Matter Expert Enterprise Open Source, und Christoph Steinhauer, Geschäftsfeldleiter Agile Methoden und Digitalisierung, bei der PROFI Engineering Systems AG, wie das gelingen kann.

Herr Kassert,warum darf eine IT-Modernisierung nicht nur aus technischem Blickwinkel betrachtet werden?

Treiben Unternehmen die Digitale Transformation und Prozessautomatisierung voran, rücken zunächst technologische Aspekte ins Blickfeld, etwa die Einführung neuer IT-Lösungen oder die Nutzung von Cloud-Services. Allerdings haben solche Veränderungen unweigerlich auch Auswirkungen auf die Arbeitsweisen und den Aufbau einer agilen Organisationsstruktur. Hierfür muss sich in der Regel auch die zugrundeliegende Unternehmenskultur anpassen.

Veränderungen – und seien sie technisch getrieben – betreffen immer die Aspekte Mindset, Menschen sowie Tools und Prozesse. Beim Mindset geht es sowohl um den Unternehmens- als auch das persönlichen Mindset, also um das Selbstverständnis, organisatorische Regelungen und Prozesse auf Unternehmensseite und um die Selbstorganisation und intrinsische Motivation des Einzelnen.

Christoph Steinhauer

Herr Steinhauer, welche zentralen Herausforderungen bestehen?

Will man Digitale Transformationen vorantreiben und agile Organisationsstrukturen aufbauen, sind vielfach die existierenden hierarchischen Strukturen ein Hindernis. Vorbehalte bei Führungskräften, die die Gefahr eines Verlustes von Zuständigkeit und Verantwortlichkeit sehen, sind nicht selten. Alte Hoheitsgebiete werden verteidigt. An dieser Stelle, das heißt bei den Menschen, muss man ansetzen. Auch die Führungsebene muss dabei abgeholt werden. Klar ist aber auch, dass agile Strukturen geeignete Mitarbeiter erfordern. Nicht jeder Mensch wird sich in einer solchen agilen Umgebung wohlfühlen, da sie vielleicht nicht seiner Arbeitsweise entspricht. Dieser Umstand ist zu akzeptieren.

Um einem Missverständnis vorzubeugen: Für die Nutzung hierarchischer Strukturen gibt es viele – und zwar gute – Gründe. Dem agilen und teamorientierten Ansatz stehen solche Strukturen allerdings im Weg.

Bedeutet dies, dass hierarchische Organisationsmodelle und herkömmliche IT-Strukturen obsolet geworden sind?

Keineswegs. In der Regel werden hybride Organisationsmodelle dominieren. Das heißt: Die vollständig agile Organisation wird die absolute Ausnahme bleiben. Und auch in technologischer Hinsicht wird die hybride IT das gängige Modell sein, also werden beispielsweise virtuelle Maschinen und Container weiter koexistieren.

Jens Kassert

Herr Kassert, wie begegnet man den anzutreffenden Herausforderungen?

Das A und O ist das Abholen der Menschen – von der Führungsebene über die IT und Fachbereiche bis hin zum einzelnen Mitarbeiter. Dies erfordert viel Interaktion und eine zielgerichtete Kommunikation der Vorteile einer agilen Organisation – etwa hinsichtlich der Überwindung eines Silodenkens. Schafft man es, den Open-Source-Leitgedanken „gemeinsam erreicht man mehr“ organisationsweit zu verfolgen, kann dies ein entscheidender Schritt zum gemeinsamen Unternehmens-Mindset sein.

In Workshops etwa müssen zum einen die konkreten Hürden und Herausforderungen ermittelt und zum anderen die klaren – organisatorisch-kulturellen und technologischen – Zielvorgaben definiert werden. Weitere Formate wie Roundtables oder Meetups bieten sich ebenso an. Bei der Umsetzung von strukturellen Veränderungen ist eine iterative Vorgehensweise zu empfehlen.

Welche Rolle spielt die Technologie?

Ein wesentlicher Punkt darf nie außer Acht gelassen werden: Technologie hat vor allem einen unterstützenden Charakter. Das heißt, bei der Auswahl einer Plattform sollten nicht nur die technische Ausprägung und der konkrete Funktionsumfang Berücksichtigung finden. Vielmehr sollte vor allem darauf geachtet werden, dass eine Technologieplattform im Kundenkontext optimal nutzbar ist. Die Wertschöpfung ist schließlich das Entscheidende.

Herr Steinhauer, noch ein Wort zur Technik? Was ist in ihren Augen besonders wichtig?

Von elementarer Bedeutung ist das Thema Automatisierung. Es geht dabei um Geschwindigkeit, Belastbarkeit, Sicherheit und Auditierbarkeit. Automatisierung bedeutet eine durchgängige End-to-End-Automatisierung, also auch ein Aufbrechen von organisatorischen und IT-Silos. Letzteres betrifft zum Beispiel auch das Auflösen von häufig vorhandenen Werkzeug-Silos: Wenn eine Abteilung Ansible und die andere Puppet nutzt, kann das kaum zielführend sein.

Herr Kassert, betrachtet man das Ganze eher auf der Metaebene:
Was bedeuten die Veränderungen dann?

In einen größeren Kontext eingebettet, betrifft das Kultur- und Veränderungsthema typischerweise das eigene Unternehmen, die Partner und die Kunden. Das heißt, die künftige Entwicklung wird von diesen drei Gruppen geprägt – und jede Gruppe kann letztlich ein entscheidender Treiber sein, technologische Veränderungen einschließlich eines Kulturwandels konsequent voranzutreiben. Und dieses Beziehungsgeflecht wird auch dazu beitragen, dass kaum ein Unternehmen an einem kulturellen Wertewandel vorbeikommen wird.

Die Interviewpartner

Jens Kassert ist bei der PROFI Engineering Systems AG als Subject Matter Expert Enterprise Open Source tätig und verantwortet dabei auch die strategische Partnerschaft mit Red Hat. Seine bunte IT-Karriere begann vor 25 Jahren und führte ihn aus ersten selbständigen “Fingerübungen” über Stationen bei Herstellern (SUSE/Red Hat), großen und kleineren IT-Dienstleistern bis in die Start-Up-Szene. Dabei hat er schon früh sein Herz an alles, was mit Open Source zu tun hat, verloren. Als „Netzwerker-aus-Überzeugung“ hat er stets das große Ganze im Auge und verbindet Kultur, Menschen und Technologie. #beopen!

Christoph Steinhauer verantwortet bei der PROFI Engineering Systems AG den Bereich Digitalisierung und agile Methoden. Das Ziel ist es, Kunden bei ihren Aktivitäten zur Digitalisierung im Mix aus Fachbereichen und IT, aus Methoden zur Geschäftsmodellentwicklung und anwenderfokussierten Umsetzung und in der disziplinübergreifenden Zusammenarbeit zu unterstützen. Bevor er zur PROFI AG stieß war Christoph Steinhauer bei einem der großen deutschen Energieversorger für Produktentwicklung und Innovation zuständig. Davor war er in verschiedenen IT-Unternehmen in verantwortlichen Rollen im Marketing. Er vereint in seiner Rolle sechs Jahre Erfahrung im Energiesektor als Fachanwender und über 25 Jahre an der Kundenschnittstelle im Marketing.

Weitere Informationen: https://www.profi-ag.de

Aufmacherbild / Quelle / Lizenz
Photo by Leon on Unsplash

Weltraumtoursimus – Lift off zu den Sternen

Am 10. Juli 2021 schrieb Richard Branson Geschichte. Er war der erste Mensch, der an Board eines Raumfahrzeugs seiner eigenen Firma eine Flughöhe 282.000 Fuß (rund 86 km) erreichte und damit zumindest gemäß NASA-Definition ins All vordrang. Der Flug der VSS Unity gilt als Meilenstein im Weltraumtourismus, auch wenn neben Brenson nur Angestellte von Virgin Galactic und somit keine zahlenden Passagiere an Bord waren.

IT-Sicherheit braucht Alternativen

Mit Open Source gegen Hacker


In Deutschland wurde im Juli 2021 der erste Cyber-Katastrophenfall ausgelöst. Doch das ist nur der bisherige Höhepunkt einer langen Kette von Hackerangriffen. Die letzten Monate haben gezeigt, wie ernst die Situation geworden ist: In Deutschland und der ganzen Welt nehmen die Hackerangriffe zu. Mit immer neuen Methoden schaffen es die Cyberkriminellen an den herkömmlichen Sicherheitsmaßnahmen vorbeizukommen.

Eine Abwehrmethode, die Experten vorschlagen, wird aber noch viel zu selten eingesetzt: Open Source

Gastautor:
Rico Barth, Geschäftsführer cape IT

Cybercrime 2.0


Auf die traditionellen Methoden der Hacker sind viele Menschen heute sensibilisiert. Nicht auf seltsame Mails oder verdächtige Dateianhänge zu reagieren, ist in den Köpfen der meisten Leute angekommen. Deshalb haben sich die Cyber-Kriminellen neue Vorgehensweisen ausgedacht. Dazu gehören etwa sogenannte Distributed-Denial-of-Service-Angriffe (DDoS), bei denen unzählige Anfragen die Systeme überlasten. So bekommen die Hacker Einblick in die Gegenmaßnahmen und können beim nächsten Mal gezielt zuschlagen. 2020 war bereits ein Rekordjahr mit tausenden solcher Attacken. Im ersten Halbjahr 2021 ist die Zahl um ein weiteres Drittel im Vergleich zum Vorjahr gewachsen.

Einigen Hackern geht es nur darum, den Betrieb eines Unternehmens mit solchen Angriffen zu stören. Doch viel häufiger haben sie es auf die wertvollen Daten abgesehen, um einen Erpressungsversuch zu starten. Sind diese erst einmal komplett oder teilweise verschlüsselt, müssen betroffene Unternehmen entweder auf die Forderungen eingehen oder z.B. mit Hilfe einer Sicherheitsfirma versuchen, wieder Zugriff auf ihre Daten zu bekommen.

The new normal


Wir müssen uns leider daran gewöhnen, dass Hackerangriffe inzwischen zu unserem Alltag gehören. Lange Zeit haben es nur die brisantesten Fälle in die Medien geschafft, doch der Anstieg der Attacken hat dafür gesorgt, dass es schon fast zu einem Dauerthema wurde. Regelmäßig erfahren wir von lahmgelegten Systemen und Lösegeldforderungen. Ein unvollständiger Rückblick:

Im Herbst 2020 erwischte es das Universitätsklinikum Düsseldorf. Vermutlich unabsichtlich, denn laut Polizei hatten es die Täter eigentlich auf die Heinrich-Heine-Universität abgesehen. Trotzdem wurde später ein sogenannter Loader im System der Uniklinik gefunden, mit dem die Schadsoftware aufgespielt wurde – in diesem Fall die Malware DoppelPaymer. Weil dieses Programm schon oft von russischen Hackern benutzt wurde, vermutet das nordrhein-westfälische Justizministerium eine Verbindung nach Russland.

Wie hart so ein Hackerangriff das tägliche Leben treffen kann, zeigen folgende Beispiele. Im Februar 2021 etwa wurde eine Trinkwasseranlage in Florida Opfer einer Cyberattacke. Nachdem die Täter Zugriff auf die Systeme der Anlage erlangt hatten, erhöhten sie den Anteil des Natriumhydroxids (NaOH) auf ein gefährliches Level. Mit diesem Mittel lassen sich Metalle aus dem Wasser entfernen und der Säuregehalt kontrollieren. In zu hohen Mengen ist NaOH jedoch gesundheitsschädlich. Mitarbeiter der Anlage konnten die Störung rechtzeitig erkennen und beheben.


Zwischen KRITIS und Wahlkampf


Gefährlich wird es, wenn durch Cyberangriffe Menschenleben auf dem Spiel stehen. Vermutlich sind gerade deshalb in den vergangenen Jahren auch immer öfter Krankenhäuser ins Visier von Hackern geraten – zuletzt im Juli 2021 das Wolfenbütteler Krankenhaus. Kliniken sind für Hacker ein beliebtes Angriffsziel, weil ein Ausfall von IT oder vernetzter Medizintechnik lebensbedrohlich werden kann – und dies bei einem Teil der Kritischen Infrastruktur einfach nicht passieren darf. Wie beim Beispiel der Uniklinik Düsseldorf, das eine lebensbedrohlich erkrankte Patientin abweisen musste, weil die Systeme nicht funktionierten. Die Frau musste in ein anderes Krankenhaus verlegt werden und die Behandlung konnte erst eine Stunde später beginnen. Zu spät. Die Patientin verstarb.

Aber auch Patientendaten oder Patente gehören zur beliebten Beute der Hacker. In solchen Fällen sind die betroffenen Einrichtungen oft schneller geneigt, auf eventuelle Erpressungen einzugehen und für die Freigabe der Systeme zu zahlen.

Kapitulation oder Planänderung?


Eines muss uns klar sein: Vor Cyberangriffen wird es nie eine absolute Sicherheit geben. Neue Schadprogramme und Abwehrmaßnahmen sorgen für ein ständiges „Katz und Maus-Spiel“ zwischen Tätern und Sicherheitsexperten. Antiviren-Programme und Firewalls sind Standard bei Behörden, Unternehmen oder privaten Computern. Doch IT-Profis empfehlen schon lange, verstärkt auf Open Source-Software zu setzen.

Bei solchen offenen Programmen haben alle Anwender Zugriff auf den Quellcode. Durch die Zusammenarbeit vieler Menschen und ganzer Communities können Schwachstellen schnell ausgemacht und behoben werden. Natürlich auch durch die Unterstützung großer Unternehmen, die hinter solchen Open Source-Softwares stehen. Im Gegensatz zu geschlossenen Systemen, liegt meist nicht viel Zeit zwischen Entdeckung und Korrektur. Das hätte vielleicht auch den Verantwortlichen der Uniklinik Düsseldorf geholfen. In einer Pressemitteilung schrieb das Krankenhaus: „Die Sicherheitslücke befand sich in einer marktüblichen und weltweit verbreiteten kommerziellen Zusatzsoftware. Bis zur endgültigen Schließung dieser Lücke durch die Softwarefirma war ein ausreichendes Zeitfenster gegeben, um in die Systeme einzudringen.“

https://www.kixdesk.com/

Aufmacherbild / Quelle / Lizenz
Photo by Andrew Haimerl on Unsplash

Zeitenwende für Open Source – in Städten und Kommunen unverzichtbar

Kommentar von Andrea Wörrlein

Dass immer mehr Kommunen und Länder auf den Einsatz von Open Source setzen, hat einen einfachen Grund: Die öffentliche Verwaltung ist verpflichtet, die Daten ihrer Bürger zu schützen. Dies ist nicht mit einer Closed-Source-Lösung machbar.

Die Datenschutz-Grundverordnung (DSGVO) entpuppt sich mehr und mehr zum Turbo für Open-Source-Lösungen. Closed-Source-Software verletzt die in Europa geltenden Datenschutzbestimmungen häufig, sodass immer mehr Datenschutzbeauftragte den Einsatz solcher Lösungen untersagen: An hessischen Schulen dürfen beispielsweise keine US-amerikanischen Videokonferenzsysteme mehr für den Unterricht verwendet werden

„Dortmund hat eine Zeitenwende eingeläutet – Weg von proprietären Lösungen, hin zu Open Source.“

Andrea Wörrlein, Geschäftsführerin von VNC in Berlin
und Verwaltungsrätin der VNC AG in Zug

Das dürfte kein Einzelfall bleiben. Die Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder (kurz: Datenschutzkonferenz, DSK) besteht trotz neuer Standardvertragsklauseln der EU-Kommission für eine rechtskonforme Übermittlung personenbezogener Daten in Drittländer auf eine „Prüfung der Rechtslage im Drittland und zusätzlicher ergänzender Maßnahmen“. Auslöser hierfür ist die sogenannte Schrems-II-Entscheidung des Europäischen Gerichtshofs (Rechtsfall C-311/18). 

Organisationen können diese zeitaufwendigen Maßnahmen, verbunden mit ständigen Überprüfungen sowie rechtlichen Risiken, durch den Einsatz von Open-Source-Software umgehen. Doch das alleine reicht nicht. Die zum Einsatz kommenden Lösungen sollten schon auf der technischen Ebene bei der Produktentwicklung das Prinzip Privacy by Design implementiert haben. Konsequent umgesetzt lässt es viele Zugriffs- und Manipulationsversuche ins Leere laufen, macht eine Reihe aufwendiger Schutz- und Prüfmaßnahmen überflüssig und vereinfacht die Kontrolle der eigenen Datensouveränität.

Da an der Cloud kein Weg mehr vorbeiführt, muss eigentlich jede Anwendung per se auch Cloud-enabled sein und ohne Plug-ins auf verschiedenen Endgeräten im Browser laufen. Zu diesem Software-Ökosystem gehören natürlich auch Plattformtechnologien wie Cloud-Datenbanken und Cloud-Storage.

Es ist gut, dass sich langsam, aber sicher auch die Bundesregierung in diese Richtung bewegt. Auf Basis einer vom BMI beauftragten Marktanalyse aus dem Jahr 2019, die für die öffentliche Verwaltung im Bereich Betriebssysteme und Bürokommunikation eine starke Abhängigkeit von Microsoft-Produkten attestiert, ist sie nun aktiv auf der Suche nach Open-Source-basierten Alternativen.

Andererseits betont die Regierung aber auch, dass eine komplette Ablösung von Microsoft-Produkten laut „der aktuellen strategischen Ansätze zur Stärkung der Digitalen Souveränität“ jedoch nicht vorgesehen sei.

Da ist man in Dortmund schon weiter: Der Rat der Stadt hat entschieden, dass Open-Source-Lösungen an erster Stelle bei der Beschaffung stehen. Flankiert von der Forderung, dass von der Verwaltung entwickelte oder zur Entwicklung beauftragte Software der Allgemeinheit zur Verfügung gestellt wird.

Die Tatsache, dass diese Entscheidung einstimmig gefasst wurde, zeigt: Dortmund hat eine Zeitenwende eingeläutet – Weg von proprietären Lösungen, hin zu Open Source. 

Weitere Informationen unter https://vnclagoon.com,
Twitter unter @VNCbiz sowie auf LinkedIn.

Kontakt

Andrea Wörrlein
VNC – Virtual Network Consult AG
Poststrasse 24
CH-6302 Zug
Tel.: +41 (41) 727 52 00
aw@vnc.biz 

Franzsika Fricke
PR-COM GmbH
Sendlinger-Tor-Platz 6
80336 München
Tel. +49-89-59997-707
franziska.fricke@pr-com.de

Aufmacherbild / Quelle / Lizenz
Bild von Anke Sundermeier auf Pixabay

Wandel der OEMs zu Softwareherstellern

von Dr. Stephan Blankenburg und Théo Tamisier

Was es für die Automobilindustrie bedeutet, eine Tech-Company zu werden

Über 125 Jahre hat die europäische Automobilindustrie ihre Position als weltweite technische Vorreiterin erfolgreich auf- und ausgebaut – mit optimierten Prozessen, ausbalancierten Zuliefererketten und technologischem Fortschritt. Doch jetzt gerät dieses Konstrukt ins Wanken: Neue Kundenbedürfnisse, strikte regulatorische Vorgaben, neue internationale Wettbewerber, sich rasch wandelnde technologische Schwerpunkte sowie eine Pandemie setzen die Industrie so stark unter Druck wie nie zuvor.

Software rückt in den Mittelpunkt der Produktstrategie. Die damit einhergehende Transformation zur Tech-Company vollzieht sich nicht von heute auf morgen und erfolgt an der Schnittstelle der Dimensionen Mensch, Technologie und Business. Es erfordert ein radikales Umdenken in Bezug auf Geschäftsmodelle und den Umgang mit technologischen Herausforderungen. OEMs und Zulieferer müssen sich daher die Frage stellen: Was bedeutet es, ein Softwareunternehmen zu werden?

Dr. Stephan Blankenburg, Associate Partner, Q_PERIOR

Das Geschäftsmodell neu definieren

In der heutigen Diskussion steht oft der technologische Wandel im Zentrum. Dabei wird häufig die Business-Perspektive vernachlässigt. Denn eine wesentliche Veränderung betrifft das Geschäftsmodell: Heute werden überwiegend Einmalumsätze mit dem Verkauf und Leasing sowie der Wartung des Fahrzeugs generiert. Die passenden Strukturen der OEMs und ihrer Zulieferer wurden dafür über Jahre hinweg evolutionär optimiert. Nach der Festlegung der Fahrzeuganforderungen werden Hardware und Software entwickelt, im Fahrzeug integriert und zu einer Deadline – dem Start of Production – fertiggestellt. Wesentliche Produktänderungen erfolgen primär über Modelljahre und Modellpflegen.

Durch den zunehmenden Anteil von Software im Fahrzeug wird die Wertschöpfung jedoch mehr und mehr in Richtung Services verlagert. Die Produktzentrierung weicht einer Servicezentrierung, was wesentliche Auswirkungen auf die Art der Umsatz- und Wertgenerierung hat. Dabei wird das Produkt respektive die Software kontinuierlich weiterentwickelt und es wird so ermöglicht, dem Kunden auch über den Verkaufspunkt des Fahrzeugs hinaus neue Funktionen bereitzustellen. Hierfür müssen traditionelle Controlling- und Zuliefererstrukturen aufgelöst, die Inhouse-Entwicklung gestärkt und neue Partnerschaften auf Augenhöhe etabliert werden. Zudem gibt es große Auswirkungen auf den heutigen Entwicklungsprozess. In Zukunft wird der komplette Lebenszyklus von der Entwicklung bis zum End-of-Service für die Entwicklungsteams relevant. Sie sind damit für das komplette Management und die Betriebssicherheit ihrer Software während des Lebenszyklus verantwortlich (DevOps-Prinzip).

Durch die Digitalisierung des Fahrzeugs und dessen Ökosystem verändern sich zudem die Lösungsmöglichkeiten für die Bedürfnisse der Kunden nach Mobilität. Denn vernetzte und automatisierte Fahrzeuge ermöglichen neue Arten von Geschäftsmodellen und Mobilitätslösungen. Dabei müssen sich die OEMs als auch die Zulieferer im zukünftigen und noch nicht definierten Mobilitätsmarkt strategisch positionieren. Dieses hat auch Auswirkungen auf technologische Partnerschaften. Denn die neuen Dimensionen der Software, wie beispielsweise Cloud, Car2X-Kommunikation, App Stores, Daten, Betriebssysteme (OS), erfordern ein Umdenken in der Fahrzeug- und Servicearchitektur.

Build, Partner or Buy sind dabei wesentliche Entscheidungen, um die hohe Geschwindigkeit der Transformation aufrechtzuerhalten. Die Grundlage hierfür muss die eigene strategische Positionierung sein und nicht das Ausgleichen der technologischen Schulden. Ansonsten wird die Automobilindustrie nur zu einem Baustein der großen Technologiekonzerne.

Eine technologische und organisatorische Herausforderung

Während die Entwicklung von Hardware kostenintensiv ist und nur aufwendig im Lebenszyklus ausgetauscht werden kann, ermöglicht Software neue Handlungsmöglichkeiten. Diese kann und muss kontinuierlich aktualisiert werden. Das hat wiederum starke Auswirkungen auf die Organisation der OEMs und Zulieferer. Das Mindset für kontinuierliche und automatisierte Produktauslieferung (Continuous Integration & Delivery) muss in die DNA der Unternehmen integriert werden. Dieser Wandel lässt sich an den Reorganisationen der Automobilindustrie ablesen: CARIAD beim VW-Konzern, MBOS bei Mercedes-Benz, XC bei Bosch, die Software Factory für Renault-Nissan-Mitsubishi, um nur einige zu nennen. Doch diese Transformation steht erst am Anfang und lässt sich nicht durch das pure Skalieren mit Softwareentwicklern erreichen.

Théo Tamisier, Senior Consultant, Q_PERIOR

Führende Technologiefirmen wie Apple, Google, Microsoft und auch Tesla haben das Thema Automatisierung fest in ihrer DNA verankert: sie haben die erforderliche automatisierte Umgebung, um Tests, Auslieferung und Integration in hohem Tempo zu ermöglichen – die Continuous Integration, Testing and Delivery Pipeline (CI/CT/CD). Eine erfolgreiche Transformation braucht dabei die richtigen Methoden, Tools, Prozesse und insbesondere das entsprechende Mindset für agile Organisationen und Automatisierung. Dies wird ein langer Prozess, denn die alten Denk- und Verhaltensweisen des Managements müssen sich grundlegend verändern. Nicht zuletzt bedeutet dieser Wandel das Verlassen einer Komfortzone. Von innen heraus, ohne äußere Impulse, ist das fast unmöglich.

Zudem ist Software dynamisch. Sie muss überwacht, gepatcht, geschützt, zertifiziert und Over-the-Air aktualisiert werden. Die Branche muss lernen, nicht nur mit dem Aspekt „Safety“ umzugehen, sondern auch mit dem Thema „Cyber Security“, die für das Gesamtsystem eine zentrale Rolle spielt und Ende-zu-Ende betrachtet werden muss. Die Zertifizierungsvorschriften UN R155 und R156 der Arbeitsgruppe WP.29 des Weltforums für die Harmonisierung von Fahrzeugvorschriften (UNECE), die sich mit Cyber Security und Softwareupdates beschäftigen, unterstreichen diese Notwendigkeit. Eine Herausforderung wird dabei sein, neue Stärken auf der Softwareseite aufzubauen und diese mit den vorhandenen Stärken im Bereich Fahrzeugqualität und -sicherheit zu kombinieren.

Position in der Wertschöpfungskette des Mobilitätsmarktes muss definiert werden

Die Transformation der Automobilindustrie hin zu einer Tech-Company ist tiefgreifend und der Weg noch nicht vorgezeichnet. Durch die zunehmende Digitalisierung des Fahrzeugs und die damit einhergehenden Möglichkeiten für neue Mobilitätslösungen verändern die Positionierung der OEMs und Zulieferer. Neue digitale Akteure und strategische Partnerschaften prägen dabei das Bild. Noch ist offen, wer in Zukunft welche Position einnehmen wird. Dabei müssen die etablierten Hersteller starre Strukturen durchbrechen, Softwarekompetenz aufbauen, den Kunden beziehungsweise die Kundin ins Zentrum ihrer Strategie und ihres Handels stellen und das entsprechende Mindset entwickeln.

Diese Veränderung ist für die traditionsreichen OEMs in Deutschland die bisher größte Herausforderung. Wer die Dimensionen Mensch, Technologie und Business dabei ganzheitlich betrachtet, erfolgreiche Modelle aus der Softwareindustrie integriert sowie seine strategische Positionierung klar definiert, wird auch in 125 Jahren noch erfolgreich sein.

https://www.q-perior.com/

Aufmacherbild / Quelle / Lizenz
Photo by Nikhil Mitra on Unsplash

Internationale Cybersicherheit

EU-Cybersecurity-Strategie: ein Startpunkt, mehr aber auch nicht

Mit der Cybersecurity-Strategie will die EU zum einen die Widerstandsfähigkeit Europas gegenüber Cyberangriffen stärken. Zum anderen soll damit sichergestellt werden, dass Unternehmen und Bürgerinnen wie Bürger von vertrauenswürdigen digitalen Lösungen profitieren können. Die Strategie zielt auf eine technologische Souveränität Europas und einen kollektiven Ansatz in der Abwehr größerer Cyberangriffe ab. Diese Strategie ist ein Schritt in die richtige Richtung.

Kollaboration und Koordination sind die Schlüssel für eine erfolgreiche Bekämpfung der Cyberkriminalität und vor allem auch, um Europa auf die digitale Realität und Zukunft auszurichten. Das große Aber lautet: Die Umsetzung erforderlicher Maßnahmen ist kein Selbstläufer. Sie muss operationalisiert und technologisch wie prozessual gestützt werden. Auch die Bereitstellung der erforderlichen Personalressourcen ist ein absolutes Muss.

Zum Statementgeber

Dass dringender Handlungsbedarf besteht, ist offensichtlich. Gerade die Gefahren durch die zunehmende IoT-Nutzung zeigen dies in aller Deutlichkeit. Ganz zu schweigen von den Horrorszenarien, die durch Angriffe auf kritische Infrastrukturen über unzureichend geschützte OT-Systeme drohen. Was aber nach wie vor auf breiter Front fehlt, sind die Sicherheitsstandards. Vor allem im IoT- und OT-Bereich liegt diesbezüglich noch vieles im Argen.

Um einem vermeintlichen Missverständnis zu begegnen: Bei der technologischen Souveränität Europas geht es keineswegs darum, alles neu zu erfinden. Vielmehr sollten durchaus die internationale Expertise und etablierte Best Practices genutzt werden. Gaia-X ist hier ein sehr gutes Beispiel. In das Projekt sind internationale Partner involviert, die eine adäquate Erfahrung mitbringen.

Auch NTT geht den Weg einer engen Zusammenarbeit mit internationalen Unternehmen, um zu weltweiter Cybersicherheit beizutragen. So fungieren wir als Partner in der Charter of Trust, einer Sicherheitsinitiative, die die Etablierung allgemeiner Mindeststandards für Cybersicherheit zum Ziel hat.

Insgesamt ist der von der EU eingeschlagene Cybersecurity-Weg aber auf jeden Fall richtig. Mehr als ein Startpunkt aber auch nicht. Es gilt, unmittelbar mit der Umsetzung und konkreten Maßnahmen zu beginnen. Nur so kann Europa für die Digitale Transformation und die Bekämpfung der Cyberkriminalität erfolgreich und vor allem auch sicher aufgestellt werden.

https://hello.global.ntt/de-de/

Aufmacherbild / Quelle / Lizenz
Photo by FLY:D on Unsplash

Sind nachhaltige Veränderungen unausweichlich?

Immer mehr Unternehmen kehren mittlerweile zurück zur Normalität. Im Trend Report spricht Uwe Bergmann, Vorstandsvorsitzender der COSMO CONSULT-Gruppe über die Lehren aus der Pandemie und wie der Digitalisierungsspezialist Unternehmen beim Neustart in eine digitale Welt unterstützt.

„Wir verkaufen nicht nur IT,
sondern setzen eine ganzheitliche Unternehmensdigitalisierung um – und zwar mit den Personen, die später damit arbeiten.“


Herr Bergmann, wir sind im Neustart-Modus nach der Pandemie und in vielen Branchen wird endlich wieder normal gearbeitet. Was sollten Unternehmen aus den vergangenen Monaten für die Zukunft mitnehmen?

Vor COVID-19 standen Themen wie Digitalisierung und Modernisierung nicht unbedingt bei jedem Unternehmen ganz oben auf der Agenda. Angesichts einer robusten Konjunktur dominierte das Tagesgeschäft. In der Pandemie hat sich dann gezeigt: Betriebe, die bei der Digitalisierung Ihrer Arbeitsumgebung bereits weit fortgeschritten waren, konnten sich deutlich schneller auf die neue Situation einstellen. Diese Flexibilität dürfte auch künftig von Vorteil sein. Etwa, wenn es darum geht, sich an Marktänderungen und neue Kundenanforderungen anzupassen. Schaut man sich die Firmen genauer an, die der Entwicklung hinterherhinken, dann zeigt sich, dass der Nachholbedarf nicht nur die fehlende digitale Ausstattung betrifft. Auch die Menschen sind teils weit davon entfernt, in modernen Arbeits- und Organisationsformen zu denken und zu leben.

Die Pandemie hat gezeigt, wie groß der Nachholbedarf in Sachen Digitalisierung ist – und, dass dieser Trend unumkehrbar ist. Allerdings sind die einzelnen Branchen unterschiedlich stark betroffen. Im produzierenden Gewerbe bestehen andere Möglichkeiten als etwa in der Gastronomie oder im stationären Einzelhandel, wo persönlicher Kontakt zu Menschen unverzichtbar ist. Ich würde mir wünschen, dass in der Wirtschaft verstärkt darüber nachgedacht wird, welchen Nutzen der eigene Betrieb aus der Digitalisierung ziehen könnte. Digitalisierungsprojekte sollten mit Zuversicht und Nachdruck auf die Schiene gesetzt, Mitarbeiterinnen und Mitarbeiter besser auf die digitale Arbeitswelt vorbereitet werden.

Corona hat die digitale Transformation in den Unternehmen beflügelt. Wie helfen Sie Ihren Kunden dabei, die aktuellen Herausforderungen zu meistern?

Mit unserer Philosophie „Business-Software für Menschen“ konzentrieren wir uns besonders darauf, Menschen zu unterstützen. Wie inspirieren sie, neue Wege zu gehen. Hierfür haben wir innovative Tools entwickelt, wie den DigiCheck oder den Digitalen Berater. Damit ermitteln wir den Digitalisierungsgrad eines Unternehmens und vergleichen ihn mit ähnlich strukturierten Betrieben der gleichen Branche. Dieses individuelle Profil ist eine solide Basis für das weitere Vorgehen. Hinzu kommt unser hoch spezialisiertes Team, das Kunden flankierend unterstützt, ein übergreifendes, agiles Transformationskonzept umzusetzen.

Wir betrachten die Digitalisierung dabei ganzheitlich und nutzen das volle Applikations- und Technologiespektrum, das uns die Microsoft Plattform bietet. Während ein ERP-Anbieter dazu tendiert, alles in seiner ERP-Software oder ein CRM-Anbieter alles in seiner CRM-Software umzusetzen, nehmen wir die jeweils besten Apps und stimmen deren Prozesse exakt aufeinander ab. Damit sind wir in der Lage, Lösungen aus Bereichen, wie ERP, CRM, Business Intelligence, Modern Workplace oder auch Künstlicher Intelligenz gezielt einzusetzen und optimal miteinander zu vernetzen. Man könnte sagen, wir verbinden das Beste und Sinnvollste aus allen Welten und schaffen die jeweils optimale Lösung für unsere Kunden. Hierfür haben wir in den letzten Jahren unser Portfolio kontinuierlich auf ganzheitliche Lösungen ausgerichtet.

„Hinken Unternehmen in Sachen Digitalisierung lange Zeit hinterher, betrifft das nicht allein die Technologie, sondern auch Arbeitsweisen und Menschen.“

Unternehmen, die sich schnell an veränderte Rahmenbedingungen anpassen können, sind klar im Vorteil. Wie gelingt es, die Veränderungsbereitschaft in den Unternehmen zu verbessern? Wie sind da Ihre Praxiserfahrungen?

Vielen Unternehmen sind sich darüber bewusst, dass Veränderungen unausweichlich sind. Sie zögern dennoch – oft aus Unsicherheit. Sie suchen nach einem kompetenten, erfahrenen Partner, der sie sicher durch den digitalen Transformationsprozess begleiten. Dieser sollte allerdings möglichst breit aufgestellt sein, denn die Digitalisierung ist nicht allein eine technische Herausforderung. Entscheidend für den Erfolg ist es vor allem, die Mitarbeitenden mitzunehmen, sie einzubinden und für das Thema zu begeistern. Es ist wichtig bei allen Überlegungen und Vorhaben, stets den Menschen mit seinen Bedürfnissen in den Mittelpunkt zu stellen.

Deshalb steht bei uns das Thema Changemanagement ganz oben auf der Agenda. Um den steigenden Beratungsbedarf bei Digitalisierungsprojekten zu adressieren, haben wir zudem eine neue Businessunit gegründet, die sich intensiv mit Business Design auseinandersetzen. Wir wissen aus eigener Erfahrung, dass die Herausforderungen der digitalen Transformation insbesondere im organisatorischen und kulturellen Bereich liegen. Business Design unterstützt Unternehmen dabei, den digitalen Wandel zu gestalten und die Voraussetzungen dafür zu schaffen, auch künftig erfolgreich zu sein. Das Team hilft, digitale Strategien zu entwickeln, neue Geschäftsprozesse zu gestalten und Menschen für Neues zu begeistern.

Gemeinsam mit unseren Kunden entwickeln wir so neue Strukturen, neue Prozesse und oft sogar ganz neue Geschäftsmodelle. Wir verkaufen also nicht nur IT, sondern setzen eine ganzheitliche Unternehmensdigitalisierung um – und zwar mit den Personen, die später damit arbeiten. Auf diese Weise gelingt es, Visionen zu schaffen und eine gemeinsame Zukunft zu entwickeln.

Inwiefern sind Unternehmen, die den „Geist der digitalen Transformation“ bereits für sich ausgemacht haben, im Vorteil?

In der Pandemie konnten Unternehmen, die mit dem Aufbau einer modernen Infra- und Kommunikationsstruktur bereits weit fortgeschritten waren, neue Herausforderungen – wie etwa Homeoffice – viel besser bewältigen. Andere hatten nicht einmal adäquate Hardware und standen erst mal auf dem Schlauch, denn auch die Belegschaft waren nicht auf digitales Arbeiten vorbereitet. Das ist ein überaus wichtiger Punkt: Hinken Unternehmen in Sachen Digitalisierung lange Zeit hinterher, betrifft das nicht allein die Technologie, sondern auch Arbeitsweisen und Menschen. Die individuelle Kompetenz ist jedoch entscheidend für eine erfolgreiche Digitale Transformation. Schließlich stellt die veränderte Arbeitswelt viele neue Anforderungen an alle Beteiligten.

Auch für das Recruiting neuer Mitarbeiter und Mitarbeiterinnen wird mangelnde Digitalisierung zum Problem: Das betrifft vielleicht nicht jede Branche im gleichen Maße, aber künftig wird es – allein schon aus demografischen Gründen – immer schwieriger, Menschen für sich zu gewinnen und an das Unternehmen zu binden. Wer dann nur mit einer »old-fashioned infrastructure« aufwarten kann, ist erst einmal unattraktiver. Die heutigen Nachwuchskräfte sind mit dem Handy aufgewachsen und stellen hohe Ansprüche an die digitale Ausstattung ihres neuen Arbeitsplatzes. Die kann man mit einer Infrastruktur von vorgestern nicht hinterm Ofen hervorlocken. Digitalisierte Betriebe sind also hier klar im Vorteil.

https://de.cosmoconsult.com/

Aufmacherbild / Quelle / Lizenz
Photo by Brad Starkey on Unsplash

Krisen besser meistern

Vier Strategien für mehr Agilität in der produzierenden Industrie

In turbulenten Zeiten wie der aktuellen Pandemie oder der Flutkatastrophe im Juli scheint der Begriff „betriebliche Agilität” omnipräsent. Die großen Tech-Unternehmen und Beratungsfirmen zeigen sich erwartungsgemäß agil und anpassungsfähig. Doch es ist unwahrscheinlich, dass Produktionsbetriebe mit ihren Fertigungsanlagen und über viele Standorte verstreuten Teams von den gleichen Fähigkeiten profitieren können.

Daniel Sztutwojner

Was aber bedeutet betriebliche Agilität aus Sicht eines produzierenden Unternehmens und wie erreicht man sie?

Es geht weniger darum, wie schnell oder wie umfangreich angestrebte Veränderungen umgesetzt werden. Vielmehr geht es um eine effiziente Kommunikation innerhalb großer und dezentral organisierter Unternehmen.

Egal ob Lieferketten durch eine Pandemie gestört werden, ob die Maschinen stillstehen, weil das Firmengelände und Produktionsanlangen überflutet wurden, wie im Juli beim Autozulieferer ZF und dem Kupferspezialisten Aurubis, oder ob die Nachfrage in Folge von Turbulenzen auf den Weltmärkten einbricht: Produktionsbetriebe müssen den unternehmensweiten Informationsfluss über alle Standorte hinweg sicherstellen. Denn Agilität hängt vom ungehinderten Fluss wichtiger Informationen sowie vom direkten Kontakt zu und zwischen den Mitarbeitenden ab.

Die gute Nachricht: Herstellungsbetriebe sind in der Regel an Störungen im Produktionsablauf gewöhnt und dadurch krisenerprobt. Lieferschwierigkeiten, Änderungen bei gesetzlichen Bestimmungen, schwankende Märkte und zunehmend auch Naturkatastrophen gehören zum Alltag. Aus der notwendigen Anpassung wurde praktisch eine selbstverständliche Routine. Die schlechte Nachricht: Die Pandemie belastet die Branche auf eine nicht gekannte Art und Weise. Agilität ist in dieser Situation wichtiger denn je, aber gleichzeitig auch schwieriger umzusetzen.


„Kommunikation ist das Fundament, das jedes Unternehmen festigt und alle Bereiche und Mitarbeiter zusammenschweißt.“


Agilität hilft, Krisen zu bewältigen

Seit Beginn der Pandemie mussten viele Industrieunternehmen ihren Betrieb praktisch über Nacht einstellen, um ihn später ebenso schnell wieder hochzufahren. Die Umsetzung des Social Distancing und der erforderlichen Gesundheits- und Sicherheitsmaßnahmen erschwerten die Wiederinbetriebnahme. Allein für den organisatorischen Ablauf bedeutet das einen enormen Mehraufwand, vom Produktionsbetrieb ganz zu schweigen. Herstellungsbetriebe oder Bauunternehmen, die aufgrund von Gesundheitsauflagen ihre Tätigkeit entweder einschränken oder vollständig einstellen mussten, können ihre Arbeit nicht einfach ins Homeoffice verlagern.

Die Mitarbeitenden sind voneinander und vom Unternehmen abgeschnitten und haben keinen oder nur eingeschränkten Zugang zu Ressourcen wie Gerätschaften oder Informationen. Vielen Unternehmen fehlt ein Notfallplan für eine solche Situation. Um den Anschluss nicht zu verpassen, sind Ideenreichtum, Einigkeit bei den Geschäftszielen sowie schnelles und entschlossenes Handeln gefragt. Produktionsbetriebe sind gezwungen, ihre Pläne, Strategien und grundlegenden Geschäftsziele zu überprüfen – und in vielen Fällen zu revidieren. Kurz: Produzierende Unternehmen brauchen neue Strategien für mehr betriebliche Agilität und sie müssen in kurzer Zeit innovative Konzepte entwicklen.

Pandemie beschleunigt die Digitalisierung

Zu alledem beschleunigt die Pandemie den Trend der Digitalisierung. Das bedeutet eine Verlagerung weg vom persönlichen und hin zum digitalen Austausch. Beziehungen zu Kunden, Lieferanten, Mitarbeitenden und zum gesamten Netzwerk eines Unternehmens verändern sich. Und die Krise zeigt uns, dass eine digitale Umgebung effizienter, praktischer und individualisierbarer ist als analoge Szenarien.

Das Ausmaß, in dem einige Produktionsbetriebe bereits auf die Situation reagiert haben, ist beispielhaft: Wir wissen von Spirituosenherstellern, die zur Produktion von Handdesinfektionsmittel übergingen, oder von Sportartikelherstellern, die ihre Anlagen für die Fertigung von Gesichtsmasken umrüsteten. Mit etwas Kreativität und Initiative ist Agilität auch in Krisenzeiten möglich. „Business as usual“ hat mit den ersten COVID-19-Fällen jedenfalls ausgedient und es ist fraglich, ob wir jemals zur gewohnten Normalität zurückkehren. Die konkreten Herausforderungen beim Meistern einer Krise gestalten sich für jedes Unternehmen anders. Auf eines sind sie aber alle gleichermaßen angewiesen: mehr Agilität.

Das Fundament betrieblicher Agilität

Die folgenden Strategien unterstützen Unternehmen in Krisensituationen dabei, schnelle Veränderungen und betriebliche Organisation unter einen Hut zu bringen:

  • Informieren Sie in Echtzeit. Mitarbeitende sind auf schnelle und aktuelle Informationen angewiesen, ob es sich nun um Gesundheits- und Sicherheitsmaßnahmen, neue Arbeitsabläufe, Anpassungen der Geschäftsziele oder um andere Aspekte handelt, die geklärt werden müssen. Je schwieriger der Zugang zu diesen Informationen ist, desto unübersichtlicher wird die Mitarbeiterkommunikation.

    Das Bereitstellen von Informationen in Echtzeit garantiert, dass Mitarbeitende auf alle akuten Fragen sofort eine Antwort finden. In Krisensituationen lässt sich so verhindern, dass die Kommunikation zusammenbricht. Versuchen Sie, so transparent wie möglich zu kommunizieren und den Informationszugang so einfach wie möglich zu gestalten.
  • Identifizieren Sie Informationsengpässe. Durch die Pandemie wurden bereits bestehende Informationsengpässe in Unternehmen verstärkt oder es wurden neue geschaffen. Die Analyse, wie interne Kommunikation funktioniert — also wie Informationen durch eine Organisation fließen — hilft dabei, Engpässe zu identifizieren und Lösungsansätze zu erkennen.

    Ein guter Zugang zu Informationen aller Art und auf allen Ebenen beschleunigt und verbessert die Entscheidungsfindung. Vor Corona gaben 86 Prozent der befragten Unternehmen an, dass gewerbliche Mitarbeitende mehr Einblicke ins Unternehmensgeschehen benötigten. Diese Zahl ist seither noch gestiegen.
  • Setzen Sie Inputs aus der Belegschaft um. Ihr größter Wettbewerbsvorteil sind Ihre Mitarbeitenden, die sich immer am Puls des Geschehens befinden. Führungskräfte, die Ideen und Perspektiven von Mitarbeitenden ignorieren, laufen Gefahr, Warnzeichen bei den Betriebsabläufen und innovative Ideen zu übersehen. Informationen müsse in einem Unternehmen nicht nur frei fließen können, sondern auch breit gestreut sein — vom Austausch unter vier Augen bis hin zu unternehmensweiten Kommunikationsmaßnahmen.
  • Schaffen Sie neue Touchpoints. Das Feedback von außerhalb des Unternehmens — von Kunden oder Lieferanten — ist für die betriebliche Agilität sehr wertvoll. Solche Rückmeldungen helfen Unternehmen dabei auszuloten, wie sie die betriebliche Flexibilität verbessern können, ohne die Geschäftspartner zu verstimmen.

    Nehmen Sie solche Inputs von außen also ernst und holen Sie sie aktiv ein. Digitale Touchpoints wie Bewertungsseiten oder Feedback-Portale erleichtern es Außenstehenden, Anregungen, Lob oder Beschwerden anzubringen. Unternehmen könne daraus Schlüsse für die nächsten Schritte ziehen.

Fazit

Nur wenn alle an einem Strang ziehen, ist betriebliche Agilität möglich. Jedes Unternehmen kann sich schnell und erfolgreich weiterentwickeln, solange es als Einheit funktioniert. Kommunikation ist das Fundament, das jedes Unternehmen festigt und alle Bereiche und Mitarbeitenden zusammenschweißt.

Über den Autor

Daniel Sztutwojner ist Chief Customer Officer und Mitgründer von Beekeeper, der Mitarbeiter-App für Ihre gewerblichen Teams. Die mobile Plattform von Beekeeper vereint Kommunikation und Tools und steigert damit Agilität, Produktivität und Sicherheit. Daniel Sztztwojner setzt sich dafür ein, Unternehmen zu mehr betrieblicher Effizienz zu verhelfen. Seine Karriere begann mit einem Studium der angewandten Mathematik, gefolgt von mehr als acht Jahren Erfahrung in der Verkaufs- und Kundenberatung.

Wirtschaftsfaktor Cannabis

In den Vereinigten Staaten machte Colorado 2012 per Volksentscheid den Anfang, es folgten die US-Bundesstaaten Washington, Oregon, Nevada, Kalifornien, Alaska, Maine und Massachusetts. Am 17. Oktober 2018 folgte Kanada auf Uruguay als zweites Land, welches Cannabis legalisierte.

Wie verändert Künstliche Intelligenz den Verkehr?

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 2. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

In dieser Folge über intelligente Softwarelösungen für Autos schauen wir uns an, was für Auswirkungen Künstliche Intelligenz auf diesen Bereich unseres Alltages hat und haben wird.

Computerstimme aus IAV-Video: „Welcome back, Peter. Ok, let us go to Westgate. Estimated time will be 5 minutes.“

 

Dem Auto der Zukunft werde ich wahrscheinlich noch nicht einmal sagen müssen, wohin ich möchte: Es hat Zugriff auf meinen digitalen Kalender, gleicht Daten und Uhrzeiten ab und fährt mich automatisch zu meinen Terminen – während ich am Laptop arbeite, schlafe, Filme gucke oder telefoniere.

 

Computerstimme: „I have found a meeting sheduled with Susan. Do you want to make a reservation?“

„Ich habe einen Termin mit Susan für heute Abend gefunden. Soll ich ein Restaurant reservieren?“

 

Das Computersystem organisiert das Date, während sich der Fahrer zurücklehnt, das Entertainment-Programm genießt und den Autopiloten durch den Straßenverkehr von Los Angeles navigieren lässt. Im Internet kursieren tausende solcher Werbevideos der Automobilindustrie. Sie zeigen, was technisch alles möglich sein kann.

 
 

Computerstimme aus IAV-Video: „The vehicle is slowing down because of road works ahead.“

Science-Fiction oder Zukunftsvision?

Prototypen selbstfahrender Autos, LKWs und Busse existieren bereits und werden auch schon im Straßenverkehr getestet, nicht nur in den USA, auch bei uns in Deutschland. Aber: Was bedeutet es eigentlich, wenn Maschinen statt Menschen lenken? Was hat das für Auswirkungen auf unseren Straßenverkehr? Wer haftet, wenn ein Softwarefehler einen Unfall verursacht? Wenn Computer das Steuer übernehmen: Das ist jetzt unser Thema.

Dieser Podcast ist die zweite Folge unserer Serie über Künstliche Intelligenz. In der ersten Folge ging es um die Frage: Was ist das überhaupt, Künstliche Intelligenz? Und warum ist das Thema so wichtig? In dieser Folge über intelligente Softwarelösungen für Autos schauen wir uns an, was für Auswirkungen Künstliche Intelligenz auf diesen Bereich unseres Alltages hat und haben wird.

 

Mirko Knaak: „Wenn wir von autonomem Fahren sprechen, bedeutet das, dass man wirklich wirklich nichts mehr machen muss, dass jemand, der keine Fahrerlaubnis hat, mit dem Auto fahren darf, also z.B. wenn er betrunken ist, ein Kind ist oder ein alter Mensch.“

Sagt Mirko Knaack. Der Informatiker und Spezialist für Künstliche Intelligenz leitet das Digital Lab des Berliner Automobildienstleiters „IAV“. Hier arbeitet er mit 200 Ingenieur/innen und Software-Entwickler/innen an der Zukunft unserer Mobilität; daran, dass Fahrzeuge bald von alleine fahren, aber auch an der Weiterentwicklung von Fahrerassistenzsystemen:

 

Mirko Knaak: „Am einfachsten kann man sich vorstellen Siri im Auto: Das reagiert auf menschliche Sprache, das Auto reagiert auf Gesten, auf verschiedene andere Weise. Die Art und Weise, wie wir mit dem Auto kommunizieren, wird sich dramatisch verändern: Was wäre, wenn das Auto erkennen würde, wenn wir happy, traurig, müde oder wütend sind und sich daraufhin verhält?“

Eine Kamera im Auto könnte meine Mimik beobachten; ein Sensor erkennen, wie ich auf das Gaspedal trete, und daraus schließen, wie ich gestimmt bin. Der Bordcomputer könnte dann reagieren – und entweder eine beruhigende oder belebende Beleuchtung aktivieren. Solche Assistenzsysteme werden bald auf den Markt kommen.

Aber auch komplett selbst fahrende Autos seien in wenigen Jahren marktreif, sagt Mikro Knaack. Nicht nur klassische Automobilkonzerne treiben die Entwicklung voran, auch Unternehmen wie die Google-Schwester Waymo. Die Roboterautos von „Waymo“ werden bereits seit dem Herbst 2017 unter Realbedingungen, im ganz normalen Straßenverkehr, getestet: Eine Flotte autonomer Minivans fährt Menschen durch die Straßen von Phoenix in Arizona. John Krafzik, Geschäftsführer von Waymo proklamiert:

 

Waymo-CEO: „Listen, we are seeking not to build a better car, our goal is to build a better driver.“

Ein Algorithmus ermüdet nicht, nimmt keine Drogen, lässt sich nicht ablenken, kennt keinen Geschwindigkeitsrausch, hat keinen Stress und hält sich immer an die Verkehrsregeln. Kameras und Sensoren registrieren zu jeder Zeit alles, was um das Auto herum passiert. 360 Grad-Umsicht ohne blinden Winkel garantieren, dass kein Fahrradfahrer oder keine Fahrradfahrerin beim Rechtsabbiegen übersehen wird.

 

Mirko Knaack: „Wir gehen davon aus, dass die Unfallzahlen signifikant zurückgehen. Es ist gerade die Vision, dass wir zu null Verkehrstoten kommen können. Das ist weitgehend. Ob das so weit kommt, weiß ich nicht.“ 

Noch allerdings gibt es einige technische Probleme: Die computergesteuerten Autos können zum Beispiel noch nicht hören, und auf ein Martinshorn reagieren. Um gewisse Situationen richtig einzuschätzen, fehlt ihnen außerdem etwas Entscheidendes: der gesunde Menschenverstand.

Wenn, zum Beispiel, ein Mann mit seinem Kind auf dem Bürgersteig steht, dann würde ein selbstfahrendes Auto anhalten. Ein Mensch würde sofort erkennen, dass die beiden gar nicht über die Straße wollen, sondern, dass der Vater seiner Tochter nur die Schuhe zu bindet. Die Künstliche Intelligenz hingegen stoppt. Was würde das in der Praxis bedeuten? Könnten Fußgänger den Verkehr lahm legen, in dem sie sich einfach an den Straßenrand stellen?

Für eine Vielzahl solcher Fragen suchen Mirko Knaak und sein Team Lösungen:

 

Mirko Knaak: „Die Frage ist zwar, so wie ich sie sehe: Ist das Auto nicht dann zu langsam, wenn es sich an alle Verkehrsregeln hält? Das ist eine spannende Frage. Wenn es immer defensiv fährt und immer alle Verkehrsregeln hält, würde es nicht komplett ausgebremst?“

Ein weiteres Problem: Auch bei selbstfahrenden Autos kommt es zu optischen Täuschungen: Nebel, Schnee und eine tief stehende Sonne stören auch die Sicht von Kameras und können dazu führen, dass Situationen falsch eingeordnet werden. Und was passiert, wenn ein Aufkleber auf Verkehrsschildern klebt oder Verkehrszeichen von Graffitis übersprüht sind?

Im letzten Jahr ist ein Fahrer bei einem Unfall in einem Tesla-Sportwagen gestorben: Er hatte den Autopiloten eingeschaltet und sich, entgegen der Hinweise von Tesla, ganz darauf verlassen. Das Auto ist gegen einen kreuzenden Sattelschlepper gerast: Die Kameras des Autopiloten konnten den weißen Anhänger des LKWs nicht vom Himmel unterscheiden.

Wer ist jetzt schuld? Der Automobilkonzern? Der Fahrer? Die Softwareentickler/innen? Wobei Mirko Knaak zu bedenken gibt, dass es auch bei größter Sorgfaltspflicht unmöglich sei, eine Software komplett ohne Fehler zu entwickeln.

 

Mirko Knaak: „Es wird dazu kommen, dass Maschinen Menschen töten. Vielleicht viel weniger als heute Menschen Menschen töten im Verkehr. Aber es ist nicht auszuschließen, dass Maschinen sich falsch verhalten. Die Frage ist, was passiert dann und wie geht die Gesellschaft damit um, wenn es insgesamt weniger Verkehrstote gibt?“

Konstantin von Notz: „Ich glaube, dass diese Haftungsfrage mega relevant ist, und dass man die Frage nach strafrechtlicher Verfolgung regeln muss. Und dass man am Ende nicht sagen kann: Das war eine Maschine und hier ist aber leider niemand verantwortlich.“

Sagt Konstantin von Notz. Der Jurist sitzt seit 2009 für die Grünen im Bundestag und und ist dort für die Bereiche Innen- und Netzpolitik zuständig.

 

Konstantin von Notz: „Das ist eine sehr komplexe, vielschichtige Regelungssache: Da geht es um Standards, da geht es um Haftungsfragen, da geht es um die Einschränkung von bestimmten Geschäftsmodellen und das Ermöglichen von anderen Geschäftsmodellen, da geht es um Transparenzfragen, also da ist viel zu tun.“

Mit der Frage nach Regulierung und Kontrolle dieser neuen Möglichkeiten der Künstlichen Intelligenz beschäftigen wir uns eingehend im vierten Teil unserer Podcastserie. Neben den juristischen, gibt sich auch ethische Probleme:

 
 

Konstantin von Notz: „Man wird den Eltern, deren Kind tot gefahren ist, nicht mit einer Statistik kommen und sagen, dass ja unter dem Strich sehr viel weniger Kinder sterben. Man wird auch hier für gesellschaftliche Versöhnung sprechen müssen, das ist auch wichtig für die Akzeptanz einer solchen Technik. Und über all diese Fragen ist noch nicht ausreichend gesprochen worden.“

Sagt Konstantin von Notz. Um diese juristischen und ethischen Fragen anzugehen, hat Alexander Dobrindt als Minister für Verkehr und digitale Infrastruktur 2017 ein Gesetz zur Änderung der Straßenverkehrsordnung entworfen und eine Ethikkommission einberufen. Noch bevor die Ethikkommission ihr Ergebnis vorlegen konnte, wurde allerdings das Gesetz auf den Weg gebracht und vom Bundestag verabschiedet.

Es ermöglicht, dass automatisierte Systeme im öffentlichen Verkehr genutzt werden können, aber nur, wenn „der Fahrzeugführer dem technischen System in bestimmten Situationen die Fahrzeugsteuerung übergeben kann.“

Also nichts mit Zurücklehnen und Nickerchen machen. Sprecher: Die Fahrer/Innen sind dazu verpflichtet, wachsam zu bleiben, um die Steuerung im Notfall wieder übernehmen zu können. Mit dieser Einschränkung bleibt die Frage nach der strafrechtlichen Verantwortung und Haftung weiterhin unklar, sagt Constanze Kurz auf der Konferenz „Das ist Netzpolitik“ in Berlin im September 2017.

Die Informatikerin ist Sprecherin des Chaos Computer Clubs (CCC) und Redakteurin bei netzpolitik.org. Seit Jahren beschäftigt sie sich mit autonomen Fahrzeugen.

 

Constanze Kurz, CCC: „Das heißt, die Haftung liegt in keinem Fall bei dem Hersteller. Sie wird in sehr vielen Fällen umstritten sein, weil man sich eben nicht umdrehen kann, Füße hochlegen kann, schnarchen kann, sondern man muss ja, um diese offensichtlichen Umstände zu erkennen, die Fahrsituation verfolgen. Es ist relativ wenig darüber berichtet worden, aber man kann schon sagen, dass das ein Geschenk an die Autoindustrie ist.“

Die Rechtslage ist also weiterhin schwammig. Aber was sagt die Ethikkommission? Lieber keine Roboterautos? 

Nein, ganz und gar nicht. Die eingesetzte Ethikkommission schreibt in ihrem Bericht vom Sommer 2017, dass das automatisierte Fahren sogar ethisch geboten sei, wenn die Systeme weniger Unfälle verursachen würden als menschliche Fahrer – was aller Wahrscheinlichkeit nach so sein wird. Und was ist mit dem TrolleyProblem? 

Auch darum hat sich die Ethikkommission gekümmert: Das TrolleyProblem umschreibt folgendes, moralische Dilemma: Einem autonomen Fahrzeug kommt auf einer Landstraße ein LKW entgegen. Es muss ausweichen. Allerdings spielt am linken Straßenrand ein Kind, am rechten Straßenrand wartet eine Gruppe alter Menschen auf einen Bus.

Wie soll das Auto reagieren? Die alten Leute opfern, um das Kind zu retten? Oder gar nicht ausweichen und damit die eigenen Insassen sowie die Insassen des entgegen kommenden LKWs in Lebensgefahr bringen? Während Menschen in einer solchen Situation im Affekt handeln, müssen wir dem Algorithmus eine Handlungsanweisung geben. Doch nach welchen Richtlinien soll das geschehen?

 

Bericht der Ethikkommission: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen, Alter, Geschlecht, körperliche oder geistige Konstitution unzulässig.“

…heißt es im Bericht der Ethikkommission. Damit ist das TrolleyProblem aber noch nicht gelöst. Vielleicht lässt es sich auch nicht lösen. Die Kommission zumindest räumt ein:

 

Bericht der Ethikkommission: „Ein solches Dilemma ist nicht ethisch zweifelsfrei programmierbar.“ 

Das Trolley-Problem wird zwar viel diskutiert, wenn es um selbstfahrende Autos geht, in der Praxis allerdings wird es kaum Bedeutung haben. Zu klein ist die Wahrscheinlichkeit, dass eine solche Situation entsteht. Sprecherin: Trotzdem beschäftigt uns dieses Gedankenspiel, denn es rührt an grundsätzliche Fragen: Mit dem technischen Fortschritt müssen wir immer mehr Verantwortung übernehmen für etwas, was wir bislang dem Schicksal überlassen konnten, sagt Joachim Fetzer, Professor für Wirtschaftsethik.

 

Joachim Fetzer: „Wir müssen an dieser Stelle, wie wir das in der Zivilisationsgeschichte schon oft gemacht haben, das, was bisher als Zufall galt, und damit auch als Schicksal, irgendwie in die eigene Hand nehmen. Den Prozess haben wir seit langem, das haben wir diskutiert beim Schwangerschaftsabbruch, bei künstlicher Befruchtung. Denn wir muten uns heute nicht zu, dass in so einem Dilemma, Situation mit rechts Seniorengruppe, links Kind, in der Mitte ich tot, dass jemand eine richtige Entscheidung trifft.

Sondern wir prüfen eigentlich nur, wurde die nötige Sorgfalt angewandt, ist er da sozusagen Mitschuld und überlassen den Rest dann eben emotional dem Schicksal. Für denjenigen, der am Ende bei so einem Unfall stirbt, und dessen Angehörigen ist es aber etwas anderes, ob ein Mensch in einer Dilemma-Situation eine bittere Entscheidung getroffen hat oder ob man sagen muss, der Computer hat gewürfelt, obwohl ich tatsächlich sagen würde: Lasst uns diskutieren über bestimmte Rangfolgen und Hackordnungen, immer plausibel diskutieren kann einer, da wird immer ein Rechtsbereich bleiben. Dem könnte man sogar dem Zufallsgenerator überlassen, denn ein Rest von Schicksal wird im Straßenverkehr sein.“

Wobei ein bisschen Schicksal bleibt – auch, wenn Computer fahren. Denn: Es handelt sich bei dieser Software um selbstlernende Systeme. Was und wie die Künstliche Intelligenz aber lernt, ist auch für die Programmierer/innen nicht bis ins Kleinste nachvollziehbar, so dass sie nicht alles im Vorhinein durchdenken können; und nicht alle Reaktion des Fahrcomputers voraus sagen können.

Und es gibt noch eine weitere Baustelle, an der die Entwickler/innen zurzeit arbeiten: die Datensicherheit. Selbstfahrende Autos, werden viel stärker noch als heute mit dem Internet und anderen Netzwerken verbunden sein werden.

Um alle Features nutzen zu können, werde ich dem autonomen Fahrzeug Zugriff auf meine persönlichen Daten geben müssen, wie zum Beispiel auf meinen digitalen Kalender. Außerdem sammelt das Fahrzeug selbst ja auch Unmengen von Daten über mich. Es kennt meinen Arbeitsweg, oder weiß, wo meine Kinder zur Schule gehen. Wie kann ich sichergehen, dass meine Daten bei mir bleiben – und nicht an Dritte verkauft werden, zum Beispiel an Läden, an denen ich täglich vorbei fahre…?

Aber es geht nicht nur darum zu verhindern, dass meine Daten nach außen gelangen. Umgekehrt soll sich aber auch niemand von außen in das System des Autos einloggen können. Schon heute wird über denkbare Horrorszenarien diskutiert: Was wäre, wenn jemand die Steuerung des Fahrzeugs hackt, und dann das Auto fernsteuern kann, um Insassen zu entführen? Oder das Auto als Waffe zu missbrauchen und in eine Menschenmenge zu lenken?

 

Mirko Knaak: „Natürlich ist eine Datenverbindung da und wenn eine Datenverbindung da ist, kann sie grundsätzlich gehackt werden. Genauso, wie eine Tür in einem Haus grundsätzlich aufgebrochen werden kann. Ist die Konsequenz davon, dass das Haus zumauern? Wahrscheinlich nicht. Also wir müssen uns da andere Möglichkeiten überlegen und so ähnlich ist das hier auch. Eine Datenverbindung ist essentiell, und nun müssen, dass das nicht oder so wenig wie möglich passiert.“

sagt Mirko Knaak, der an intelligenten Softwarelösungen für die Automobilindustrie arbeitet. Er selbst besitzt im Übrigen gar kein Auto und ist mit dem Fahrrad zum Interview gekommen.

 

Mirko Knaak „Ja, viele meiner Kollegen aus der klassischen Automobilbranche, die das Fahren als Freude am Fahren, als Fahrspaß empfinden, haben wahrscheinlich eher Schwierigkeiten mit der Idee des autonomen Fahrens und deswegen ist es vielleicht gar nicht so verwunderlich, wenn jemand wie ich, das das nicht so stark hat, sagt: Wir wollen gern ein System entwickeln wo man nicht mehr das Lenkrad in der Hand halten muss.“

Wird unser Leben ein besseres, wenn wir nicht mehr selbst fahren, sondern von Computern gefahren werden?

Die Antwort hängt weniger von der Technik ab als von uns. Wir müssen juristische Fragen und ethische Probleme klären. Wir müssen uns um den Datenschutz kümmern und uns bewusst werden, dass die Automobil wie auch Tech-Konzerne die Entwicklung autonomer Fahrzeuge, vorantreiben, um Profit zu machen – auch wenn es Waymo, Tesla und Co in ihren Reden um hehre Absichten geht.

Was Roboterautos für unsere Gesellschaft bedeuten, ist schwer voraus zu sagen: Vielleicht werden Unmengen von Fahrzeugen unsere Straßen verstopfen, weil auf einmal viel mehr Menschen, wie zum Beispiel auch Kinder, fahren dürfen. Vielleicht ziehen massenhaft Leute aufs Land, weil langes Pendeln keine Belastung mehr ist? Vielleicht werden wir keine eigenen Autos mehr brauchen, weil uns eine Flotte selbstfahrender Taxis durch die Stadt kutschiert. Nachts parken sie außerhalb und unsere Städte werden nicht mehr zugeparkt sein, sondern Platz haben für Grün, Straßencafés und Spielplätze.

Autonome Fahrzeuge bergen Risiken – aber auch so viele Chancen. Unser Verkehr könnte sicherer, sauberer, staufrei, effektiver werden. Hört sich doch nach Zukunft an, oder?

Folge 1: Was ist Künstliche Intelligenz

Folge 3: Künstliche Intelligenz in der Verbrechensbekämpfung

In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist ein Produkt des Audiokollektivs.
Autoren und Autorinnen:
Anna Bilger, Vanessa Loewel, Lukasz Tomaszewski.
Gesprochen haben: Lukasz Tomaszewski und Anna Bilger.

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

Aufmacherbild / Quelle / Lizenz
Photo by Randy Tarampi on Unsplash

Was ist Künstliche Intelligenz?

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 1. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction-Romane und Filme aus Hollywood. Doch was ist wirklich möglich? Was ist eigentlich Künstliche Intelligenz? Wer denkt da? Wo wird künstliche Intelligenz eingesetzt und welche Probleme gibt es?

„Hallo Siri.
Moin. Moin.
Wie ist das Wetter heute?
Hier ist die Vorhersage für heute.
Wird es regnen?
Ja, es wird vermutlich etwas regnen.“

Siri in unserem Iphone sagt uns wie das Wetter wird. Alexa, die Software von Amazon, kann unseren Backofen vorwärmen. Und Samsungs Sprachassistent Bixby kann Gegenstände, die vor die Kamera gehalten werden, erkennen und im Netz recherchieren. Schöne smarte Welt: intelligente Maschinen und smarte Assistenten können immer mehr Dinge, die bisher nur Menschen konnten: Lesen, schreiben, interagieren und – mehr oder weniger – verstehen.

Was bedeutet das für unser Leben? Und wie wird künstliche Intelligenz die Art und Weise verändern wie wir kommunizieren, arbeiten, lernen und konsumieren? Über diese Fragen wurde geredet bei der Konferenz „Netzregeln 2017“, veranstaltet von der Heinrich-Böll-Stiftung und dem Branchenverband Bitkom. Und das wollen wir jetzt vertiefen in diesem Böll-Spezial – in der 4-teiligen Podcast-Serie werden wir uns auseinandersetzen mit Visionen und Vorurteilen und eine Bestandsaufnahme machen.

Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction-Romane und -filme aus Hollywood: Terminator, Blade Runner, Her, Odysee 2001 – meist spielen sie mit der Idee einer superintelligenten Maschine, eines Roboters außer Kontrolle, einer Welt, in der Maschinen fühlen können. Doch was ist wirklich möglich? In Folge 1 dieser Podcast-Reihe geht es darum, die Grundlagen zu klären. Was ist eigentlich Künstliche Intelligenz? Wer denkt da? Wo wird Künstliche Intelligenz eingesetzt und welche Probleme gibt es?

Was ist Künstliche Intelligenz?

 

Aljoscha Burchhardt: Bei der künstlichen Intelligenz ist die Idee mal ganz platt gesprochen, dass wir Software-Systeme, die entweder auf unserem Smartphone oder Computer oder auch auf einem Roboter sind, ‚aufschlauen’, sodass sie ihre Aufgaben so erledigen, als wären sie ein Stück weit intelligent.

Aljoscha Burchhardt forscht seit 10 Jahren am Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin.

Intelligenz ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit eines Menschen. Aber was das genau meint, ist schon beim Menschen nicht so ganz leicht zu sagen: Meint es die analytischen Fähigkeiten? Gehören auch die emotionalen dazu?

 

Joachim Fetzer: Künstliche Intelligenz wie sie heute in der Praxis und in der Wirtschaft stattfindet, sind Technologien, bei denen Maschinen irgendwie so ähnlich werden, dass wir Menschen das Gefühl haben, da sei was intelligent – was wir manchmal übrigens auch bei Hunden oder bei Tieren denken.

Joachim Fetzer ist Wirtschaftsethiker und setzt sich mit philosophischen und ethischen Fragen rund um die Digitalisierung auseinander.

Wann denken wir bei Maschinen sie seien intelligent und was macht ihre Intelligenz aus?

 

Mirko Knaack: Darum ist meine Definition wahrscheinlich am ehesten: eine Maschine ist genau dann intelligent, wenn sie etwas tut, wozu ein Mensch Intelligenz bräuchte.

Mikro Knaack ist Informatiker und leitet das Digital Lab der IAV Gmbh, die selbstfahrende Autos programmiert. Er kommt auch in Folge 2 unserer Podcast-Serie zu Wort, wenn wir uns ausführlich mit der Frage beschäftigen, wie Künstliche Intelligenz unsere Mobilität verändert.

Autos sind so ein Beispiel: eine Maschine lernt, was bisher nur Menschen zu können glaubten. Und ist darin sogar nachweislich mindestens genauso gut, wenn nicht besser.

 

Jeanette Hofmann: Ich spreche zurzeit von „machine learning“ und das finde ich tatsächlich eine sehr interessante Entwicklung, weil hier Maschinen anhand von Trainingsdaten, die ihnen Beispiele vorgeben, auf klar definierte Ziele hin lernen, eigenständig Handlungen auszuführen, die bislang entweder von Menschen ausgeübt wurden oder so gar nicht möglich waren.

Jeanette Hoffman ist Professorin für Internetpolitik an der Freien Universität Berlin.

Man kann es also so sagen: Ein künstliches System lernt aus Beispielen und kann diese verallgemeinern, wenn die Lernphase beendet ist. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. Diese Erkenntnisse generiert die Maschine mit Hilfe eines Algorithmus.

Ein Algorithmus gibt eine Vorgehensweise vor, um ein Problem zu lösen. Anhand dieses Lösungsplans werden dann in kleinen Schritten Eingabedaten in Ausgabedaten umgewandelt. Ein Algorithmus gilt dann als Künstliche Intelligenz, wenn er lernt. Yvonne Hofstetter, IT-Unternehmerin und Buchautorin:

 

Yvonne Hofstetter: Wenn wir erst mal von der Informationstechnologie ausgehen, dann sind künstliche Intelligenzen Maschinen, die einen Reasoning-Mechanismus haben, also etwas beobachten, etwas wahrnehmen können. Die daraus lernen können, also lernfähig sind. Damit sind wir beim Thema neuronale Netze, Reinforcement-Learning angekommen. Und die sind in der Lage strategische oder taktische Entscheidungen unter Unsicherheit zu treffen: Das ist unsere Definition in der IT.“

Diese Technologie begegnet uns derzeit in vielen Bereichen, prominentes Beispiel ist etwa Google Translate. Was „Lernen“ in diesem Zusammenhang bedeutet, erklärt Aljoscha Burchhardt vom DFKI:

 

Aljoscha Burchhardt: Wenn ihr an ein Übersetzungssystem denkt, so wie Google-Übersetzer oder so, das wird mit Daten gefüttert. Eingabesatz Deutsch, Ausgabesatz Englisch und davon Hunderttausende. Und dann lernt dieses System auf eine mathematische Art und Weise Regularitäten. Welches Wort man in welches Wort übersetzen muss. Und dann kann es die Übersetzungsleistung erbringen.

Aber letztlich ist das System dabei komplett dumm. Das weiß nichts von Linguistik, das weiß nichts von Kulturen, das weiß nicht was rot bedeutet – aber es kann rot eben in ‚rouge’ übersetzen und es weiß auch, dass rotes Auto ‚voiture rouge’ werden muss. Dass ich also sozusagen Adjektive und Nomen verdrehen muss, aber nicht auf linguistischer Basis oder so, sondern es kann es einfach tun. Das heißt: Es ist eigentlich ein vollkommen interessanter Fachidiot, ein autistisches System.

Warum aber dieser Hype um Maschinelles Lernen und Künstliche Intelligenz jetzt? Schließlich gilt eine Konferenz im Jahr 1956 am Dartmouth College in New Hampshire als Geburtsstunde der Künstlichen Intelligenz. Sie ist also mehr als 60 Jahre alt. Doch erst in den 1980er Jahren wurden die ersten künstlichen neuronalen Netze entwickelt, wie wir sie heute kennen. Diese Netze bilden das Neuronennetz des menschliche Gehirns nach und haben die viel versprechende Eigenschaft, ihre Regeln von Grund auf selbst zu lernen.

 

Aljoscha Burchhardt: Damals fehlte es aber noch an Daten und Computpower. Und so hat man erst mal mit anderen Verfahren gearbeitet die letzten 20 Jahre und das sind dann eben diese Verfahren, die heute eigentlich den großen Hype gebracht haben. Wir haben Daten, wir haben Computpower, wir können übersetzen, wir können ein Auto steuern, wir können Menschen im Go schlagen.

Künstliche neuronale Netze bestehen aus sehr einfachen, dafür aber extrem vielen miteinander vernetzten mathematischen Funktionen. Im Laufe des Trainings, nach Ansicht von unzähligen Beispielen, lernen sie etwa, was ein Gesicht ausmacht oder was eine Katze definiert.

Mit jedem neuen Training erhält das Netz Feedback und justiert daraufhin seine Parameter neu. Mit den drastisch gefallenen Speicherkosten der vergangenen Jahre und der exponentiell gestiegenen Leistungsfähigkeit der Computer haben sich auch die Möglichkeiten künstlicher neuronalen Netze weiterentwickelt.

Und vor allem liefern wir alle die Daten, die Künstliche Intelligenz zum Lernen braucht. Wir laden Bilder ins Internet, schreiben Nachrichten in den sozialen Netzwerken, wir benutzen die Spracherkennung unserer Smartphones. Jeanette Hofmann von der Freien Universität Berlin:

 

Jeanette Hoffmann: Wir können uns etwa denken, dass im Zusammenhang mit Big Data sehr viele Möglichkeiten der Analyse entstehen, die wir so bisher gar nicht gehabt haben. Das kann beispielsweise Krankheitsbilder betreffen, aber auch natürlich Methoden des Behandelns von solchen Krankheiten, auch da gibt es sehr viele Fortschritte. Dann im Bereich Spracherkennung wird sich extrem viel tun. Das heißt, wir haben im Verhältnis zwischen Menschen und digitalen Geräten eine neue Schnittstelle, die sehr wichtig werden wird.

Das, was wir ja jetzt schon im Smart Home Bereich sehen, dass man faktisch sprachlich Anweisungen geben kann, da passiert sehr viel. Dann selbstfahrende Fahrzeuge wird ein großer Bereich. Überhaupt denke ich, dass im Anschluss an das Internet der Dinge sehr viel weiter automatisiert werden wird. Das heißt, wir erzeugen einerseits sehr viele Daten und mit Maschinen Learning entwickeln wir auch neue Analyse-Kapazitäten.

Je mehr wir smarte Anwendungen nutzen, desto besser kann das System lernen und desto besser werden auch die Anwendungen funktionieren. Der Preis ist allerdings, dass wir immer gläserner werden und unsere Daten privatwirtschaftlichen Unternehmen überantworten.

Ein aufsehenerregendes Beispiel dafür was Künstliche Intelligenz leisten kann, ist 2016 das Programm Alpha Go, vom Google Labor Deepmind entwickelt. Das Programm Alpha Go hat gegen den besten Go-Spieler der Welt gewonnen. Das Brettspiel Go galt lange als zu komplex für Computer, weil es dabei auch auf Intuition ankommt.

Deepmind fütterte das Programm erst mit mehreren Dutzend Millionen Zügen aus menschlichen Partien Meister. Dann spielt die Software Millionen Spiele gegen sich selbst – und analysiert, welche Züge sie ans Ziel bringen – nämlich jene Züge, die Menschen mit großer Wahrscheinlichkeit nicht spielen würden.

Inzwischen gibt es ein weiteres System Alpha Go Zero – das System hat das Spiel selbst gelernt und zwar nur aufgrund der Spielregeln. Ihm wurden also keine menschlichen Spielpartien als Datenbasis gegeben. Alpha Go Zero ist damit um Längen besser geworden, als die Vorgänger Version Alpha Go. Das System hat also eigenständig gelernt und sich immer weiter verbessert.

Wo wird Künstliche Intelligenz eingesetzt und welche Probleme könnten auftauchen?

Künstliche Intelligenz gilt vielen Unternehmen als die Zukunftstechnologie. Alle großen Tech-Firmen arbeiten mit Künstlicher Intelligenz: Amazon, Google, Microsoft, Facebook, IBM. In Asien sind es Samsung, Aliababa und Tencent. Deutsche Firmen wie Volkswagen und BMW experimentieren mit Künstliche Intelligenz im Bereich des autonomen Fahrens. Aber auch Bosch und Siemens arbeiten damit – Bosch hat gerade angekündigt bis 2021 300 Mio. Euro in KI-Forschung zu investieren, weil bald kein Produkt mehr ohne auskomme.

Die Verheißungen sind also groß und es gibt viele Beispiele, wo KI das Leben von Menschen verbessert. So gibt es eine Software, mit der blinde Menschen in Indien mit Hilfe der Linse ihres Smartphones die Welt vor sich aufnehmen können und das Smartphone sagt ihnen, wenn sich Menschen, Gegenstände oder Hindernisse in ihrer Nähe befinden. Oder in der Altenpflege in Japan werden bereits jetzt Roboter eingesetzt, die mittels KI gesteuert werden.

 

Jeanette Hofmann: Es wird ja schon sehr viel Maschinen Learning eingesetzt. Das ist uns vielleicht gar nicht überall bewusst. Im Bereich der Spracherkennung, im Bereich von Suchmaschinen, überhaupt in sehr vielen Empfehlungs-Algorithmen steckt bereits Machine-Learning drin aber auch ein öffentliches Überwachungssystem. Etwa an Flughäfen wird überall schon Machine-Learning eingesetzt – dass man das wieder zurückdrehen kann, glaube ich nicht. Ich glaube auch gar nicht, dass die Bilanz von Vor und Nachteilen so ausfällt, dass man das derzeit rechtfertigen könnte.

An den Versprechen beispielsweise, dass der Straßenverkehr künftig sicherer wird, wenn Autos nicht mehr von Menschen gesteuert werden sondern von Maschinen, ist langfristig womöglich sogar etwas dran. Ich wüsste jedenfalls von keiner Studie, die das Gegenteil empirisch belegen könnte. Also ich würde nicht ausschließen, dass wir als Gesellschaft auch sehr stark davon profitieren.

Doch KI stellt unsere Gesellschaft auch vor viele Herausforderungen. Etwa weil die die Daten mit denen die intelligenten Maschinen trainiert werden, nicht neutral sind. Sie stammen oft aus dem Internet und reproduzieren damit die Vorurteile und Klischees, die auch im Netz kursieren. Ebenso wie die programmierten Algorithmen keine objektiven sind, sondern widerspiegeln was ihre Programmierer/innen denken.

Wenn ich etwa in der Bildersuche im Netz nach einer Hand suche, dann spuckt der Algorithmus fast nur weiße Hände aus. Wenn ich in der Websuche das Wort „liebevoll“ eingebe, dann vervollständigt Googles Textsoftware das mit „Frau“. Bei „durchsetzungsstark“ folgt „Mann“. Warum das so ist, erklärt Aljoscha Burchhardt vom DFKI.

 

Aljoscha Burchhardt: Das ist eben so, weil in den Texten, die diese Systeme im Internet finden, eben Männer durchsetzungsstark und visionär und Frauen eben liebevoll und gutaussehend sind. Das ist eben leider das, wie unsere Welt beschrieben worden ist. Und jetzt eben so ein System, das aus Daten diese Dinge gelernt hat, so ein System normativ umzubauen und zu sagen: „Pass mal auf Freundchen, soll aber nicht so sein, dass Frauen hübsch sind und Männer willensstark und es soll aber nicht so sein, dass Farbige eine höhere Wahrscheinlichkeit haben wieder straffällig zu werden als Weiße.“ Im Moment haben wir hier eigentlich ganz große Last auf den Data Scientists – als auf den Leuten, die sich darum kümmern, die Daten aufzubereiten.

Die Systeme werden von unserem Verhalten im Netz geprägt – und da ist relativ schnell zu sehen, wo die Grenzen von KI liegen wie das Beispiel eines Twitter-Bots von Microsoft gezeigt hat. Tay hieß der Bot, mit dem Microsoft 2016 junge US-Amerikaner/innen zwischen 18 und 24 erreichen wollte. Tay lernte von den User/innen im Netz – und sonderte innerhalb eines Tages statt freundlicher Tweets rassistische, antifeministische und rechtsextreme Tweets ab.

Das Beispiel zeigt, wie eine lernende künstliche Intelligenz sehr schnell entgleisen kann. Wie problematisch die Diskriminierung durch Daten werden kann, das beleuchten wir auch in Folge 3 unserer Reihe, wenn es um Pre-Crime Software geht, die künftige Kriminelle errechnen oder gefährdete Zonen identifizieren soll.

Eine weitere Herausforderung und eine der Ängste, die immer im Zusammenhang mit KI formuliert werden: Was ist eigentlich, wenn die Maschinen so schlau werden, dass kein Mensch sie mehr versteht? Wer kontrolliert sie dann? Existiert künstliche, lernende Superintelligenz erst einmal, gibt es dann eine Möglichkeit für uns, sie zu bändigen?

Mit Hilfe von Künstlicher Intelligenz werden wir zu fantastischen Lösungen kommen – doch wir wissen eigentlich nicht, wie die Systeme das gemacht haben, weil wir es intellektuell nicht mehr verstehen. Müssen wir also darauf vertrauen, dass die Maschinen schon die richtige Lösung gefunden haben?

Die Buchautorin Yvonne Hofstetter ist skeptisch:

 

Yvonne Hofstetter: Also diese KIs, die haben sogenannte Diskriminierungsfähigkeit. Diese KIs müssen diese Gruppe beispielsweise aufteilen in Kriminelle, nicht Kriminelle, Terroristen, nicht Terroristen, guter Bürger, schlechter Bürger. Das heißt: Wir kommen hier über diese KIs, über diese Mechanismen zu einem Selektionsmechanismus, zu einer Selektionsmethode.

Und dadurch, dass diese selektionsmethodisch statistisch arbeiten, sind hier auch Fehler inhärent, die passieren. Also kann es sein, dass Sie der Gruppe schlechter Bürger zugeordnet werden aber eigentlich sind Sie guter Bürger. Aber das ist halt einfach so. Das ist systemimmanent. Wir arbeiten mit Statistik, wenn es heißt Sie sind männlich und Sie liken bei Facebook Britney Spears, sind Sie mit 67 Prozent Wahrscheinlichkeit homosexuell. Naja, dann besteht die Möglichkeit, dass Sie mit 33 Prozent nicht homosexuell sind.

Und Sie haben hier also diese Unschärfe. Das ist schon ein Risiko für die Menschen, weil wir im Grunde genommen überhaupt keine Transparenz haben, wie diese Mechanismen funktionieren, wie die Modelle ausschauen, die dahinterliegen, ob die Daten auch richtig, vollständig, neu, sauber sind, auf denen diese Entscheidungen getroffen werden.

Aljoscha Burchhardt vom DFKI meint, wir sollten Künstliche Intelligenz nicht dämonisieren.

 

Aljoscha Burghardt: Also die haben keine eigenen Antriebe, die wollen nichts erreichen, die wollen uns nicht irgendwie Intelligenz-mäßig ablösen oder irgendetwas. Woher sollten sie? Die sind genau für ihre Aufgabe von uns gemacht und die erledigen sie. Diese Hollywood-Fantasie kann ich mit den heutigen Systemen überhaupt nicht teilen. Und das sind auch alles Insel-Begabungen – das System spielt Go, das andere fährt Auto das dritte übersetzt, aber dass die drei sich jetzt plötzlich zusammentun und sagen „Hey, ich bin der autofahrende, Go-spielende, SUPER-Übersetzer“ – und morgen die ganze Welt, das sehe ich nicht kommen.

Wie intelligent und menschlich Maschinen werden können, wird aber durchaus diskutiert- wenn auch kontrovers. Was ist einzigartig am Menschen und was unterscheidet ihn von der Maschine? Diese Frage ist für den Wirtschaftsethiker Joachim Fetzer eine Leitfrage für die Zukunft, der Mensch bleibt für ihn der zentrale Bezugspunkt.

 

Joachim Fetzer: Es gibt so eine empirisch schwer zu greifende innere Welt, die auch die Hirnforschung nicht erdacht hat, die aber – egal ob es sie gibt oder nicht – für unsere Kultur so wesentlich ist, dass es eine Subjektivität mit einer Geschichte oder wie auch immer man das ausdrücken kann, gibt. Das ist die Basis für Rechtssysteme und für viele andere Punkte und dieses Element von Menschsein, das für die Freiheit wesentlich ist, ist in dieser KI einfach mal nicht enthalten.


Wie also wollen wir in unserer Gesellschaft mit den Möglichkeiten der Künstlichen Intelligenz umgehen?

Sie könnte in vielen Bereichen einen großen Fortschritt bringen: in der Medizin, in der Pflege, im Verkehr. Auf der anderen Seite birgt sie Risiken, die wir heute noch nicht absehen können.


In Folge 2 soll es jetzt um eines der wichtigsten Anwendungsgebiete gehen: um selbstfahrende Autos und wie KI unsere Mobilität verändern wird.

In Folge 3 diskutieren wir dann Pre-Crime-Software und Social-Scoring.

In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.

>>>

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist eine Produktion des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski.
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer.
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger. 

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

 

 

Datenschätze smart genutzt

Wie Retailer das Potenzial ihrer Daten heben?

Die Menge an Daten, die generiert und gesammelt werden, explodiert und wächst exponentiell. Diese Daten geben Vermarktern die Möglichkeit, Verbraucher zu verfolgen, Ergebnisse vorherzusagen und entsprechend zu reagieren: In der Theorie die richtige Botschaft an die richtige Person zur richtigen Zeit. Aber nicht in der Praxis. Trotz der Fülle an Daten ist die Fähigkeit der Marketer, sinnvolle Entscheidungen zu treffen und geschäftskritische Maßnahmen zu ergreifen, nicht verbessert. Sie verlassen sich auf Taktiken und Metriken – Retargeting, Impressionen, CTRs, Social Shares und so weiter -, die sich seit einem Jahrzehnt nicht verändert haben. Das Ergebnis: Marketer konzentrieren sich auf die einfach zu messenden Ziele, nicht auf die, die wichtig sind. Dabei lernen sie die falschen Insights aus ihrem Marketing.

Die Daten richtig einzusetzen, um seine Kunden auf eine persönliche Art und Weise anzusprechen und einen Wettbewerbsvorteil gegenüber der Konkurrenz zu erlangen, ist eine echte Herausforderung. Denn, Daten lassen sich auf ganz unterschiedliche Art und Weise interpretieren und bergen daher auch ein extrem hohes Potenzial für falsche Schlussfolgerungen. Die Gründe dafür sind vielfältig. Einer der wichtigsten, auf den wir in diesem Text näher eingehen werden, ist das Versäumnis, die Daten so miteinander zu verknüpfen, dass sie die richtigen Erkenntnisse liefern.

Was meinen wir überhaupt, wenn wir von Daten sprechen?

In der Welt des Online-Marketings oder genauer gesagt des programmatischen Marketings, sind in der Regel Konsumentendaten gemeint wenn von Daten gesprochen wird. Hier werden Informationen über das Verhalten der Verbraucher verwendet, um entscheiden zu können wie Dienstleistungen oder Produkte an bestimmte Zielgruppen am besten vermarktet werden können. Sammeln kann man diese Daten über viele verschiedene Wege.

Website-Betreiber können unter anderem ihre Nutzer zum Ausfüllen einer Umfrage oder einer Produktbewertung bewegen oder man verwendet Pixel, auch Tags genannt, um mehr über das Verhalten der eigenen Kunden zu erfahren. Man muss sich jedoch bewusst machen, dass Daten nicht gleich Daten sind. In der Branche wird zwischen First-Party, Second-Party und Third-Party-Daten unterschieden. First-Party-Daten bezeichnen Informationen, die direkt und unmittelbar von den eigenen Kunden gespeichert werden. Zum Beispiel durch eine Newsletteranmeldung oder generell das Browsingverhalten der eigenen Kunden, das auf der Website verfolgt wird. Daten sind Second-Party, wenn diese von einer anderen Firma gesammelt und direkt weiterverkauft werden. Bei Third-Party-Daten handelt es sich um Daten, die von einer dritten Partei gesammelt werden, welcher diese dann als Datenpaket bereitstellt.

Daten miteinander verbinden

Es gibt unendlich viele Daten und die Menge wächst in einer atemberaubenden Geschwindigkeit immer weiter an. Für Vermarkter besteht die größte Herausforderung darin die Daten sinnvoll zu selektieren, zu nutzen und daraus die richtigen Erkenntnisse zu gewinnen. Wie schaffen es nun Vermarkter ihrer Konkurrenz gegenüber einen Wettbewerbsvorteil zu schaffen und ihr Setup dementsprechend zu verbessern?

Um diese Frage zu beantworten, müssen wir uns genauer ansehen, welche Arten von Daten wir miteinander verbinden können. Dies sind die gängigsten Datenquellen, die im Online Marketing verwendet werden:

  • Customer Relationship Management (CRM): Unabhängig davon, ob sie in einer Software, wie zum Beispiel Salesforce, oder auf andere Weise verarbeitet werden, sammeln die meisten Unternehmen Daten über bestehende Kunden und deren Verhalten.
  • Adserver: Daten von Anzeigenservern bieten eine Zusammenfassung aller digitalen Aktivitäten und sind daher ebenfalls eine sehr wichtige Datenquelle.
  • Custom Client Integrationen: Diese Art von Daten fällt häufig unter den Tisch, ist aber nicht minder interessant: Denn sie geben Auskunft über externe Faktoren, die das Verbraucherverhalten beeinflussen. Damit kann das Wetter gemeint sein, bestimmte Aktionen von Konkurrenten oder Trends in den sozialen Medien. Grundsätzlich kann jeder Faktor, der das Verhalten Ihrer Kunden beeinflussen könnte, als wertvoller Datenpunkt dienen und herangezogen werden.
  • Pixel: Daten aus Pixeln oder Tags geben Auskunft über das Nutzerverhalten auf Deiner Website. 

„Daten, die bereits beim Kunden schlummern,
eröffnen neue und beträchtliche Potenziale
für Gewinnoptimierung.

Nils Kopnarski

Wie aber schafft man es, diese verschiedenen Datentypen erfolgreich miteinander zu verbinden?

Mit einer guten Infrastruktur, die aus drei wesentlichen Punkten besteht: Der Datenaufnahme, der Datenstrukturierung sowie der Analyse bzw. Aktivierung.

Am Besten lässt sich der Stellenwert der drei Aspekte anhand einer Analogie der Nahrungsmittelproduktion erklären. Der erste Schritt, die Datenaufnahme, bedeutet zunächst die Daten zu “ernten” und diese zu einem Verteilerzentrum zu transportieren. So wird sichergestellt, dass die Daten nicht veralten, ähnlich wie bei dem Nahrungsmitteltransport. Im zweiten Schritt, der Datenstrukturierung, werden die Daten sortiert und organisiert, ähnlich wie Lebensmittel verpackt werden müssen. Im Anschluss wählt der Data Scientists jene Daten aus, die für die Analyse am wertvollsten erscheinen und beginnt mit der Ableitung der Erkenntnisse. Dieser Vorgang ist gleichzusetzen mit dem Käufer, der im Supermarkt bestimmte Lebensmittel auswählt, um ein Gericht kochen zu können.

Diese sogenannte Analytics-Infrastruktur gliedert den Analyse- und Datenverbindungsfluss in verschiedene Stadien, die von deskriptiv (beschreibend) über prädiktiv (vorhersagend) bis hin zu präskriptiv (vorschreibend) reichen. Der Prozess beginnt beim operativen Reporting, wie zum Beispiel für ein regelmäßiges Vertriebsmeeting am Montagmorgen oder weitreichendere Business Intelligence. Dazu zählen etwa integrierte Leistungsberichte und die Erstellung von KPIs oder interaktiven Dashboards.

Die Data Scientists kommen dann in der nächsten Phase ins Spiel: Der Datenanalyse. Hier werden Beziehungen zwischen verschiedenen Datenpunkten hergestellt sowie Muster und Trends identifiziert. Die nächsten beiden Phasen des Prozesses, die Segmentierung und das Predictive Modelling, nehmen einen prädiktiven Charakter an. Kunden und Produkte werden in unterschiedliche Segmente und Gruppen unterteilt, bevor darauf aufbauend Korrelationen und Kausalzusammenhänge modelliert werden. Anschließend werden Prognosen erstellt und künftige Ergebnisse vorhergesagt. Die letzte Phase, die sich aus Simulation und Optimierung zusammensetzt, ist präskriptiver Natur. Hier werden die in früheren Phasen gesammelten Erkenntnisse in konkrete Aktionen zur Lösung einer Herausforderung überführt.

Case Study: Full Funnel Datenstrategie zur Gewinnung neuer Kunden

Lasst uns diesen Prozess an einem konkreten Fallbeispiel veranschaulichen: Vor einiger Zeit trat der britische Retailer N’Brown an uns bei MiQ heran um ein erfolgreiches Online Business aufzubauen. Angesichts der Umorientierung der Kunden vom klassischen high-street retail hin zu Onlineshopping, steht und fällt der Erfolg eines Retailers heutzutage mit dieser Transformation. Während N’Brown bereits wertvolles Kapital in die Hand nahm um online neue Kunden zu akquirieren, gelang das nicht im gewünschten Umfang. Durch den Einsatz von MiQ gelang es die Erwartungen weit zu übertreffen und die Neukundenakquise um beachtliche 260% zu steigern.

Das gelang MiQ indem wir die existierenden CRM Daten von N’Brown mit third party data von Capture Pixel verbunden haben. So konnten wir nicht nur den idealen Neukunden für N‘Brown identifizieren, sondern auch den Zeitpunkt zu dem diese Kunden am meisten geneigt waren zu shoppen. Diese wertvollen Erkenntnisse haben wir mit N’Brown in der Marketingstrategie umgesetzt, die nun bis hin zu den Social Channels genau auf die gewünschten Kundensegmente ausgerichtet ist. Der Effekt dessen war zweierlei: Kunden die N’Brown bereits treu waren, wurden weniger angesprochen da es aus Marketingsicht nicht notwendig war. Diese Einsparungen konnten dann effektiv für die Neukundenakquise eingesetzt werden, die insgesamt um 260% gestiegen ist. Ein echter Erfolg für N’Brown und MiQ, der zeigt dass ein Datenexperte wie MiQ aus Daten, die bereits beim Kunden schlummern, neue und beträchtliche Potenziale für Gewinnoptimierung eröffnen kann.

Über den Autor

Nils Kopnarski, Head of Trading & Operations, DACH bei MiQ

Aus dem Public-Policy-Bereich kommend hat Nils Kopnarski die unbegrenzten Möglichkeiten von Big Data verinnerlicht und ist daher fest von dem datengetriebenen Ansatz im Digital Marketing überzeugt. Diesen Blickwinkel hat er durch seine mehrjährige Erfahrung im operativen Kampagnenmanagement bei MiQ weiter geschärft, wo er seit 2016 tätig ist. Als Experte für Programmatic Advertising sieht Nils die Zukunft des Media Tradings voll automatisiert, die Strategien jedoch weiter vom Menschen getätigt. Seit 2019 leitet er bei MiQ den operativen Bereich im DACH Markt.

Personenfoto: Bildrechte Klaus Knuffmann

Aufmacherbild / Quelle / Lizenz
Photo by AbsolutVision on Unsplash

Keine Modernisierung ohne Containerisierung

Von Daniel Braunsdorf

Die Containerisierung von Anwendungen ebnet Unternehmen den Weg in die Cloud. Gerade in Deutschland schalten einige an diesem Punkt wahrscheinlich schon ab, weil sie bei Cloud reflexhaft an Public Cloud und Hyperscaler denken. Doch auch für sie bieten Container handfeste Vorteile, weil sie beispielsweise neue Anwendungen schneller bereitstellen und bestehende Anwendungen leichter pflegen können. Ob diese nun in der Public Cloud, einer privaten Cloud innerhalb der eigenen Infrastruktur oder einer hybriden Umgebung laufen, ist dabei unerheblich.

Steht also die Modernisierung von Anwendungen an, sollten Unternehmen die Gelegenheit nutzen, diese mithilfe von Containern Cloud-ready zu machen. In der Regel bedeutet das, die Anwendung in Microservices aufzusplitten und diese in Container zu verpacken – im Prinzip lassen sich aber auch Anwendungen via Lift & Shift nahezu unverändert in Container übernehmen.

Dieses Vorgehen eignet sich für Anwendungen, deren Migration nicht lohnt oder die für die Cloud fit gemacht und später richtig modernisiert werden sollen. Auf diese Weise können Unternehmen ihre Infrastrukturen schneller vereinheitlichen und die Infrastrukturverwaltung sowie den Anwendungsbetrieb zeitnah vereinfachen.

Um die Containerisierung im Unternehmen einzuleiten und voranzutreiben, ist die Aufteilung von Anwendungen in Microservice-Module allerdings besser geeignet als Lift & Shift. Denn nur bei einer echten Migration zu Cloud-nativen Apps lassen sich die Vorteile von Containern vollumfänglich nutzen. Der modulare Anwendungsaufbau erleichtert es Entwicklern nämlich, Anpassungen vorzunehmen, Fehler zu beheben und neue Features nachzurüsten. Gleichzeitig können sie viele Prozesse der Qualitätssicherung und der Anwendungsbereitstellung automatisieren, sehr flexibel auf sich verändernde Performance-Anforderungen reagieren und Ausfälle besser abfangen.

Weniger Konflikte zwischen IT- und Fachabteilungen

Container tragen zu einer effizienteren Anwendungsentwicklung und einer agileren IT bei – letztlich helfen sie sogar, IT-Teams und Fachabteilungen näher zusammenzubringen, denen oft das Verständnis füreinander fehlt. Während Fachabteilungen regelmäßig nach neuen Funktionen und Anwendungen verlangen, die ihr Business voranbringen, hat für IT-Abteilungen zumeist die Pflege und Verbesserung der Infrastruktur höchste Priorität. Mit den Projekten zur Anwendungsmodernisierung verknüpfen Unternehmen diese beiden Interessen geschickt: Die Modernisierung einzelner Anwendungen mithilfe von Containern führt zu einer schrittweisen Aktualisierung der Infrastruktur, ohne ein riesiges Modernisierungsprojekt anzustoßen, dass enorme Kosten verursacht und die IT-Teams lange blockiert. Über die Zeit entsteht so eine Cloud-native, Container-basierte Anwendungslandschaft, in der Wünsche von Fachabteilungen schneller als bisher umgesetzt werden können. Zudem verteilen sich die Kosten der Modernisierung gut auf viele Einzelprojekte.

Die große Kunst besteht darin, die richtigen Anwendungen für die ersten Modernisierungsprojekte auszuwählen. Nicht zu einfach, damit der Lerneffekt nicht ausbleibt, aber auch nicht zu komplex, damit man sich nicht verhebt, lautet die Devise. Natürlich fängt man nicht mit der wichtigsten Unternehmensanwendung an, aber es sollte schon eine sein, die eine gewisse Bedeutung hat, um den Mehrwert der Container-Technologien einer relevanten Nutzerschaft aufzuzeigen. Denn die Anwender in den Fachabteilungen dienen dann auch als Multiplikator, die Begeisterung für die neuen Technologien im Unternehmen wecken und andere Mitarbeiter motivieren.

Veränderungsprozesse brauchen Zeit

Überhaupt sind Mitarbeiter und die Firmenkultur der Schlüssel für eine erfolgreiche Modernisierung der Anwendungslandschaft mit Container. Die wenigsten Projekte scheitern an der Technologie – die bekommen Unternehmen dank Container-Plattformen wie Red Hat OpenShift, die eine einfache Orchestrierung verschiedenster Arten von Containern erlauben, meist gut in den Griff. Eher ist die Kultur der Stolperstein, denn die neuen Technologien sind prädestiniert für eine agile Zusammenarbeit von Entwicklern, UX-Designern, Sicherheitsspezialisten, Experten für Qualitätsmanagement, IT-Betriebsteams und Anwendern aus den Fachbereichen.

Diese Zusammenarbeit entsteht nicht über Nacht und verursacht in der Anfangszeit oft Reibungspunkte, beispielsweise bei neuen Abstimmungsprozessen oder im Umgang mit Fehlern. In kleineren Projekten lässt sich der Wandel in der Firmenkultur erfahrungsgemäß behutsamer und besser einleiten als in großen, kritischen Projekten.

Meist ist aber ein Blick von außen hilfreich, weil langjährige Mitarbeiter ein wenig betriebsblind sind und von außen vorgebrachte Veränderungsvorschläge häufig offener aufgenommen werden. Ein externer Partner, der die ersten Projekte begleitet, kann daher extrem wertvoll sein, indem er nicht nur Technologie- und Lösungskenntnisse und umfangreiche Praxiserfahrung einbringt, sondern als Coach für Veränderungsprozesse den Kulturwandel begleitet.

Über den Autor:

Daniel Braunsdorf, Gründer und geschäftsführender Gesellschafter von Viada

https://www.viada.de

Digital Mindset effizient fördern

„Digital Mindset kann man nicht lehren, aber sehr effizient fördern.“

Open-Source-Expertin Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug setzt auf das beispiel- und richtungsgebende Vorbild der Führungsebene.

Frau Wörrlein, wenn uns die letzten anderthalb Jahre eines gezeigt haben, dann, dass Veränderungsbereitschaft essenziell für den Unternehmenserfolg ist. Inwiefern ist ein „Digital Mindset“ dafür hilfreich?

Zu einer echten digitalen Mentalität gehört aus unserer Sicht mehr als nur Veränderungsbereitschaft. Sie beschreibt eine Geisteshaltung die aufgeschlossen, offen, neugierig, aktiv und agil gegenüber Neuem ist, dieses aber nicht naiv und unkritisch übernimmt, sondern konstruktiv daraufhin prüft, inwieweit es Probleme löst und Zustände verbessert.

Diese kritisch-positive Haltung gegenüber dem digitalen Fortschritt wird in dem Maße zunehmend wichtiger, in dem die Digitalisierung immer mehr Unternehmen erfasst und ihre Geschäftsmodelle und Workflows prägt.

Wie schaffe ich ein entsprechendes Bewusstsein im Unternehmen – Stichworte Flexibilität, Agilität und Offenheit?

Ein solches Bewusstsein kann man nicht erschaffen, Offenheit gegenüber technischem Fortschritt nicht antrainieren. Es ist eine Prädisposition, die vorhanden sein muss, eine Art Bringschuld der Mitarbeiter, die man aus Unternehmenssicht als Messlatte bei der Personalplanung anlegt und bestenfalls durch positives Feedback fördern und belohnen kann.

Wir sollten uns vor pseudotherapeutischen Ansätzen in der Mitarbeiterförderung hüten. Man kann Menschen nicht dauerhaft zu einer bestimmten Einstellung motivieren, die nicht ihren Neigungen entspricht.

Oft reicht es ja völlig aus, sie nicht zu demotivieren. Das ist der Unterschied. Die größten Demotivationsfaktoren sind nun einmal schlechte Führung und nervtötende Technik. Mit einer Führungsebene, die den positiven Wandel vorlebt, sowie mit flexibel adaptierbaren und intuitiv zu bedienenden Tools, die die Arbeit erleichtern, ist also schon sehr viel gewonnen. Und für Letzteres ist Open Source die beste Voraussetzung.

Die Digitale Transformation kann nur mit agilen Projektmethoden angegangen werden. Einmal gestartet, wird man sich immer weiter bewegen und ständig neue Erfahrungen machen. Wie gehen Sie selbst vor, um sich immer wieder zu justieren und die ganzen neuen Technologien zu bewerten?

Wir verfolgen einen Dualismus von Makro- und Mikromanagement. Das klingt vielleicht hochgestochen, dahinter steckt jedoch ein ganz einfaches Prinzip: Es gibt feste Vorgaben, die sich nicht über agile Projektmethoden wie Scrum steuern lassen. Das sind beispielsweise Budgets, Zeitrahmen, vertragliche Vereinbarungen, Konventionalstrafen oder Meta-Roadmaps. Diese fixen Rahmen oder Frames brauchen eine klassische mittel- und langfristige Planung. Für das Mikromanagement operativer Aktivitäten, wie etwa die Entwicklung eines neuen Kommunikations-Tools und dessen ständige Kontrolle und Optimierung, nutzen wir dagegen die Agilität von Sprints und Tickets. Makro- und Mikromanagement werden laufend abgeglichen. Damit sind wir bisher gut gefahren.


Mit einer Führungsebene, die den positiven Wandel vorlebt, sowie mit flexibel adaptierbaren und intuitiv zu bedienenden Tools, die die Arbeit erleichtern, ist schon sehr viel gewonnen.


Wer offen, frei und agil denkt, kann sein Unternehmen durch die aktuellen Zeiten führen. Damit schließt sich der Kreis zur Veränderungsbereitschaft. Wie weit ist die Führungslandschaft in Deutschland da wirklich?

Wir maßen uns nicht an, andere Chefetagen zu bewerten oder zu kritisieren. Als virtuelle, multinationale Organisation mit Mitarbeitern in der ganzen Welt können wir jedoch Vergleiche ziehen. Dabei stellen wir fest, dass die Einstellung „digital ist etwas für die Anderen“ hierzulande noch relativ weit verbreitet ist. Es passiert sehr viel „top-down“ nach dem Schema von Anweisung (oben) und Ausführung (unten). Dieser Habitus ist aber nur schwer vereinbar mit dem, was wir vorhin als eine von zwei elementaren Voraussetzungen für die Beförderung des Digital Mindset im Unternehmen beschrieben und für wichtig befunden haben: das beispiel- und richtungsgebende Vorbild der Führungsebene.

Im Umkehrschluss bedeutet das: Der vielversprechendste Ansatzpunkt für die Entwicklung der Veränderungsbereitschaft und all den anderen angesprochenen Qualitäten liegt ganz oben, also genau dort, wo die strategischen Entscheidungen getroffen werden. Hier haben wir ein grundsätzliches Problem, das schnell gelöst werden muss, um im internationalen Wettbewerb den Anschluss nicht zu verlieren.

https://www.vnclagoon.com/

Aufmacherbild / Quelle / Lizenz
Photo by Prateek Katyal on Unsplash

Geschäftsmodellen der Zukunft auf der Spur

Gastbeitrag von Dr. Ute Günther

Business Angels als Innovationsindikatoren

Geschäftsmodelle der Zukunft sind wichtige Eckpunkte einer prosperierenden Volkswirtschaft. Sie zu erkennen, ist schwierig und herausfordernd, zumal sie sich zu einem späteren Zeitpunkt durchaus als nicht erfolgreich erweisen können.

Wer spürt ihnen nach?

Dr. Ute Günther

Business Angels sind auf der ständigen Suche nach innovativen Geschäftsmodellen. Sie sind Deutschlands wichtigste Frühphasenfinanzierer, investieren Kapital und Know-how in junge, innovative Unternehmen, und zwar in einer sehr frühen Phase, wenn das Risiko am größten ist, denn dann – und nur dann – haben sie die Chance, als First Mover vom Wachstum einer disruptiven Geschäftsidee zu profitieren, ein veritables ROI einzufahren, um den Exiterlös wieder in neue innovative Unternehmen zu investieren.

Trend: Ja-aber!

Dealsourcing, die Suche nach innovativen Geschäftsideen und begeisternden Teams, die diese in den Markt bringen, ist für Angel Investorinnen und Investoren ebenso überlebenswichtig, wie der stets wachsam kritische Blick auf alles, was als Trend in den öffentlichen Diskurs Einzug hält oder bereits gehalten hat. Niemand will das Risiko eingehen, einem populistischen Hype aufzusitzen und sein Geld in das zehnte Copycat investieren, das bereits zum Zeitpunkt der Investition dem nahen Untergang geweiht ist und schnell verglüht.

Angel sein, ist Leben am Puls der Zeit, besser noch vor der Zeit – „der frühe Vogel fängt den Wurm“. Es macht also Sinn, sich anzusehen, welche Trends bei Angel Investoren gerade hoch im Kurs stehen, um den Geschäftsmodellen der Zukunft auf die Spur zu kommen.


Der Blick in die Portfolien aktiver Angel Investorinnen und Investoren ist aufschlussreich.


Verlässliches Marktbarometer für alles, was bei Privatinvestoren jeweils im Vierteljahresrhythmus angesagt ist, ist seit 2001 das von Business Angels Netzwerk Deutschland e. V. (BAND), dem Bundesverband der Angel Investoren, den VDI nachrichten, der Rheinisch Westfälischen Technischen Hochschule Aachen (RWTH) und der Universität Duisburg-Essen initiierte „Business Angels Panel“.

Im ersten Quartal 2021 sah die Rangfolge im Blick auf Branchentrends und Technologien wie folgt aus: Softwareentwicklung, Umwelttechnik und Webservice machten die Podiumsplätze unter sich aus. Auf Platz 4 folgte Industrieautomatisierung. Einen Riesensatz nach vorne machte die Biotechnologie. Sie schafften es auf Platz 5. So hoch in der Gunst der Investoren stand sie über zehn Jahre nicht. Zu den Aufsteigern zählten außerdem Logistiker, die sich auf Platz 6 vorkämpften.[1]

Angels scannen Trends, kennen die Hitlisten der veröffentlichten Trends, springen aber längst nicht auf jeden Trendzug auf. Sie wissen, dass ein Trend noch lange kein Garant für ein erfolgreiches Geschäftsmodell ist. Nicht jeder Trend mündet in tragfähige Geschäftsideen und -modelle, denen die Investoren zutrauen, im Markt erfolgreich zu wachsen. Entscheidend ist vielmehr u. a. die Frage nach dem Kundennutzen, dem (Nischen)-Marktvolumen, der Skalierbarkeit, dem Erlösmodell und insbesondere auch – häufig unterschätzt – dem richtigen Zeitpunkt.

Insofern ist der Blick in die Portfolien aktiver Angel Investorinnen und Investoren aufschlussreich.

Trend erzeugt Gegentrends

Mitnichten entsprechen die in den Angels-Portfolien versammelten Geschäftsmodelle in Gänze den angesagten Trends.

Dort zeigt sich, wo dezidiert gegen den Trend investiert wird, und zwar in Geschäftsmodelle, die Negativaspekte eines sich behauptenden Trends abfedern. Ein aktuelles Beispiel: Wenn Formen digitalen Arbeitens mit Verlagerung ins Homeoffice Fahrt aufnehmen, wenn der Bildschirm die Norm ist und das Tippen auf die Tastatur das persönliche Gespräch mit dem Gegenüber verdrängt, Technik auch den zwischenmenschlichen Alltag bestimmt, der Drang, sich immer und überall zu vernetzen – funktioniert per Mausklick in Sekundenschnelle und generiert massenhaft oberflächliche Kontakte – gepaart ist mit Dauerkommunikation über die sozialen Medien, stellt sich unweigerlich die Sehnsucht nach mehr Mensch und weniger Maschine ein, nach einem Leben in kleinen, überschaubaren Einheiten mit vertrauten Sozialkontakten, in Nachbarschaften, die wieder als lebenswerte Orte, an denen Mensch sich wohl und zu Hause fühlt, gestaltet werden.

Diese Reaktion auf Veränderung ist keine Rückbesinnung auf Tradiertes, sondern richtet den Blick in eine Zukunft jenseits digitaler Verwerfungen stabiler zwischenmenschlicher Beziehungen, bietet also reichlich Nährboden für innovative Geschäftsideen, die z. B. das Digitale mit dem Lokalen verbinden, das eigene Heim „hyggelig“ machen, den smarten, nachhaltigen Indoor-Garten für zu Hause anbieten, eine Plattform für das Management selbstbestimmter Identität entwickeln, Erlebnisnächte in der Natur anbieten, zu Resilienz anleiten oder nachbarschaftliches Miteinander organisieren.

Angels scannen auch diese Gegentrends und nehmen sie in den Blick als potentielle Investments.


Angels scannen auch diese Gegentrends und nehmen sie in den Blick als potentielle Investments.


Mutmacher

Auch das offenbaren Angels-Portfolien: Für Start-ups, die nicht im Trend und Gegentrend laufen, die Geschäftsideen vorantreiben, die so gar nicht dem Zeitgeist entsprechen, ist es mehr als ermutigend zu erkennen, dass sie durchaus die Chance haben, eine Finanzierung zu finden. Angels-Investoren setzen zu keiner Zeit auf pauschale Zuschreibungen und Einengungen, wenn es um Geschäftsideen der Zukunft geht. Sie wissen: Wer auf Innovationen setzt, betritt unbekanntes Terrain, muss bereit sein, ein Risiko einzugehen. Angels-Portfolien sind Mutmacher und liefern Indikatoren für alle, die Geschäftsmodellen der Zukunft auf der Spur sind und legen vielfach ein Vetorecht ein gegenüber reiner Trendgläubigkeit.

Zurück zur Übersicht der Beitragsreihe
Strategische Vorausschau <<

Über die Autorin:

Dr. Ute Günther ist seit 2001 Vorstand von BAND und in dieser Eigenschaft auch Vice-President von Business Angels Europe (BAE). Sie hat Philosophie, Romanistik und Erziehungswissenschaft an der Ruhr Universität Bochum und der Sorbonne in Paris studiert und in Philosophie promoviert. Sie war in Forschung und Lehre tätig an den Universitäten Bochum, Essen, Trier und Vallendar. Parallel dazu entwickelte sie Infrastrukturprojekte im Bereich Innovation und Qualifizierung, seit Mitte der Neunzigerjahre vorwiegend im Ruhrgebiet. Gegenwärtig ist sie außerdem Geschäftsführendes Vorstandsmitglied von pro Ruhrgebiet e. V. (VpR), Vorstand der Business Angels Agentur Ruhr e. V. (BAAR) und Geschäftsführerin der Startbahn Ruhr GmbH. Seit 2019 ist Dr. Ute Günther Mitglied im Zukunftskreis des Bundesministeriums für Bildung und Forschung (BMBF) und steht dem BMBF hinsichtlich Zukunftstrends beratend zur Seite.

Foto: © Business Angels Netzwerk Deutschland e. V. (BAND)


[1] https://www.business-angels.de/business-angels-panel-75/

Biotechnologie – die Technologie der Zukunft

Gastbeitrag von Prof. Dr. Martina Schraudner

Bioökonomie und Biotechnologie werden häufig im Zusammenhang mit einem nachhaltigen und zukunftsfähigen Wirtschaftssystem genannt. Wie genau hängen sie zusammen? Welche Chancen birgt die Biotechnologie und in welchen Segmenten kann sie künftig zum Einsatz kommen? Diesen und weiteren Fragestellungen widmet sich Prof. Dr. Martina Schraudner und skizziert mögliche Innovationen der Zukunft.

Die Bioökonomie umfasst die Erzeugung, Erschließung und Nutzung biologischer Ressourcen, Prozesse und Systeme, um Produkte, Verfahren und Dienstleistungen in allen wirtschaftlichen Sektoren im Rahmen eines zukunftsfähigen Wirtschaftssystems bereitzustellen. Bioökonomische Innovationen basieren also auf der nachhaltigen Nutzung von Ressourcen, der Substitution von fossilen durch biologische Rohstoffe, der Nutzung von Reststoffen oder Nebenproduktströmen und dem Einsatz von biotechnologischen Prozessen[1].

Joghurt, Kimchi und Wein zeugen davon, dass biotechnologische Prozesse weltweit schon lange genutzt werden. Ausgangsbasis sind mit Milch, Kohl oder Traubensaft natürliche Ressourcen. In einem bioökonomischen Wirtschaftssystem, in dem ein breites Spektrum nachwachsender Ressourcen verwendet werden soll, werden neue biotechnologische Prozesse zur Anwendung kommen. Biotechnologie verbindet dabei Technik mit den Lebenswissenschaften, um Güter herzustellen. Auch Dienstleistungen können auf Basis biotechnologischer Prozesse erfolgen, wie beispielsweise der Nachweis einer COVID-Infektion mit einem PCR-Test, einer polymerase-chain-reaction (PCR) oder einem Antigen-Test.      

Höchste Innovationsdynamik

Wissenschaftliche Grundlage der Biotechnologie sind die Lebenswissenschaften, die nach der DFG die Bereiche Medizin, Biologie, Agar- und Forstwirtschaft sowie Veterinärmedizin umfassen. In diesen Forschungsbereich fließen seit Jahren anteilig die größten Fördervolumen der DFG[2]. Neben den insgesamt 1,17 Milliarden. Euro, die 2019 in die lebenswissenschaftliche Forschung geflossen sind, wurden auch mit Abstand die meisten Mittel zur Förderung von wissenschaftlichen Karrieren in den Lebenswissenschaften vergeben. Im Zentrum stehen die Forschungsbereiche, die molekular- und zellbiologische Strukturen und Prozesse untersuchen. Nicht zuletzt seit der enorm schnellen Entwicklung von Impfstoffen gegen COVID ist klar, dass die Biotechnologie zu den dynamischsten Forschungsbereichen unserer Zeit gehört. Die hohe Innovationsdynamik resultiert dabei aus dem Zusammenspiel von neuen molekularbiologischen Verfahren wie Crispr/Cas mit Enabling Technologies wie Miniaturisierung, Automatisierung, Prozessintegration, hochauflösender Bildgebung, Künstlicher Intelligenz und Big Data. So entsteht ein immer detaillierteres Bild von Vorgängen – auf molekularbiologischer Ebene bis hin zur biologischen Variabilität, die auf dem Niveau von Zellen, Zellstadien und ihren Verschaltungen und Regulationen erfasst werden kann[3]. Mit diesem Wissen können bioökonomische Lösungen in kurzer Zeit bereitgestellt werden und deren Qualität und Ausbeute kontinuierlich überprüft und sichergestellt werden.

Neben der Pharmabranche entwickeln sich gerade weitere Anwendungsgebiete der Biotechnologie im Bereich der Ernährung, des Klima- und Umweltschutzes sowie der Gewinnung nachhaltiger Materialien und Rohstoffe. Nachhaltig sind sie deshalb, weil fossilbasierte Prozesse durch biobasierte Ausgangstoffe und biotechnologische Verarbeitungsprozesse ersetzt werden, also vollkommen neue Produkte, Produktionsverfahren und Geschäftsmodelle entwickelt werden. Beispielsweise hat Biotechnologie das Potential, sehr viel ressourcenschonender Lebensmittelinhaltsstoffe zu produzieren als mit konventionellen Techniken. Der Bogen reicht dabei von einzelnen Inhaltsstoffen bis zur Herstellung von kultiviertem Fleisch, womit aktuell rund einhundert Start-ups tätig sind. [4] Aber auch in der Medizintechnik, der Textilindustrie, der Chemie bis hin zum Fahrzeugbau werden schon jetzt biotechnologisch hergestellte Produkte eingesetzt.  In Analogie zu den Anfängen der Digitalisierung steht die Biotechnologie vor einem sehr breiten Einsatz in diversen Branchen und vor der Durchdringung vieler Produktionsbereiche.


Über die Autorin:

Prof. Dr. Martina Schraudner leitet das Fraunhofer Center for Responsible Research and Innovation und hat eine W3-Professur „Gender und Diversity in der Technik und Produktentwicklung“ an der Technischen Universität Berlin. Sie befasst sich mit Methoden, Instrumenten und Prozessen, die Diversity, verstanden als unterschiedliche Perspektiven, in Forschung und Entwicklung zugänglich und nutzbar machen.

Seit Januar 2018 ist die Biologin im Vorstand der acatech – Deutsche Akademie der Technikwissenschaften e. V. und u. a. im Vorstand der Technologiestiftung Berlin. Sie ist in nationalen und internationalen Auswahlgremien für anwendungsnahe Forschungs- und Innovationsprojekte tätig und ist Mitglied in der Dialogplattform Industrielle Bioökonomie des Bundesministeriums für Wirtschaft und Energie (BMWi). Seit 2019 ist sie Mitglied im Zukunftskreis des Bundesministeriums für Bildung und Forschung (BMBF) und steht dem BMBF hinsichtlich Zukunftstrends beratend zur Seite.

Foto: © Prof. Dr. Martina Schraudner


Biotechnologie birgt branchenübergreifende Marktchancen

Biotechnologie selbst kann in allen Dimensionen betrieben werden: im kleinen Fermenter ebenso wie im großindustriellen Maßstab, sie ist lokal einsetzbar, schnell adaptierbar und auf andere Geschäftsfelder übertragbar. Sie könnte sie auch in Deutschland regional eine große Bedeutung gewinnen, zum Beispiel in Form von Fermentern zur Verwertung von lokal anfallenden Stoffen, um die Produkte in neue Stoffkreisläufe einzuspeisen. Darüber hinaus kann mit Biotechnologie in Stoffkreisläufe eingegriffen werden, etwa um übernutzte Böden zu sanieren, ähnlich wie es aktuell schon mit Wasser in Kläranlagen betrieben wird. Gerade im Bereich der landwirtschaftlichen Erzeugung eröffnen sich bei einem Schulterschluss von Biotechnologie und Landwirtschaft neue Marktchancen in zukunftsträchtigen Geschäftsmodellen.

In der Pharmaindustrie wird unter besonderen Schutzbedingungen in sog. GMP-Anlagen (Good Manufacturing Practices) biotechnologisch im industriellen Maßstab produziert. Wie die Industrieanlagen zur Herstellung und Aufarbeitung von biobasierten Produkten und Verfahren für andere Güter aussehen werden, welche Zuliefererketten sich entwickeln werden und wo in welchem Maßstab produziert wird, ist derzeit noch offen. 

Der Beitrag biobasierter Verfahren und Produkte zur Erreichung von Klima- und Nachhaltigkeitszielen ist unbestritten, schon allein, weil fossil basierte Produkte und Prozesse ersetzt werden können. Die Möglichkeiten der Biotechnologie gehen jedoch einher mit völlig neuen Produkten und Produktionsverfahren und setzen voraus, dass die besonderen Eigenschaften biogener Rohstoffe genutzt werden. Gemeint ist hier sowohl deren Nachwachsen als auch deren Kreislauffähigkeit. Wichtig ist dabei der Aufbau von Reststromnutzungen und der Umgang mit Nebenproduktströmen. Es werden sich zukünftig Innovationsökosysteme und neue Wertschöpfungsnetze entwickeln. Diese könnten neben den Systemen im industriellen Maßstab auch um regional spezifische Ausgangprodukte entstehen. So könnten beispielsweise Sonnenblumenschalen oder Algen zu Gebrauchsgegenständen mit regionaler Herkunft veredelt werden. 

>> Aus der

Zurück zur Übersicht der Beitragsreihe
Strategische Vorausschau <<


[1] vgl. Leitbild 2.0 der Plattform Industrielle Bioökonomie, Juni 2021
[2] vgl. DFG in Zahlen 2019
[3] vgl. acatech IMPULS Biotechnologie, 2017
[4] vgl. „Cultivated meat: out of the lab, into the frying pan“, T. Brennan, J. Katz, Y Quint, B. Spencer, July 2021, Mc Kinsey

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Empathie verbessert die Kommunikation

Empathie als Universalkompetenz für bessere Kommunikation am dezentralen Arbeitsplatz                                                             

Agile Teamarbeit, Führen auf Augenhöhe, Generation Y und Z, postheroische Führung, empathische Führung, Digital Leadership, dezentrales Arbeiten, New Work – diese und weitere Begriffe bestimmen die neuen Rahmenbedingungen und Bedürfnisse in der sich im Wandel befindlichen Arbeitswelt, die von immer höherer VUKA (Volatilität, Unvorhersehbarkeit, Komplexität, Ambivalenz) und dem Megatrend der Digitalisierung geprägt ist. Für die betroffenen Organisationen bedeutet dies vor allem, ihre Kommunikation zu verbessern. Das hierzu nötige Schmiermittel ist die Universalkompetenz Empathie. Doch der Begriff ist nicht unumstritten. Ein Beitrag von Dr. Karim Fathi.


Neue Anforderungen im Kontext von VUKA und Digitalisierung

Die Halbwertszeit von Unternehmen hat in den letzten Jahrzehnten abgenommen. Das Akronym „VUKA“ umschreibt treffend das Bündel an Herausforderungen, mit denen sich Organisationen im 21. Jahrhundert konfrontiert sehen. Mehrere miteinander verknüpfte Trends, auf die sich Organisationen heute einstellen müssen, lassen sich beobachten:

Dr. Karim Fathi

Erstens ist Führung angesichts von VUKA noch nie so voraussetzungsvoll gewesen wie heute[JE1] . Dabei geht es nicht nur darum, unter höchster Volatilität (ständigem Wandel), Unsicherheit (im Sinne von Unvorhersehbarkeit), Komplexität (im Sinne von Unübersichtlichkeit) und Ambiguität (Vieldeutigkeit) die richtigen strategischen Entscheidungen zu treffen. Auch haben sich im Kontext von Menschenführung die Bedürfnisse und Ansprüche der neuen Mitarbeitergeneration verändert – zunehmend stehen Sinn, Selbstverwirklichung und Gesundheit am Arbeitsplatz im Vordergrund. Ein postheroischer[1], empathischer Führungsstil, der es vermag, zu inspirieren, klug zu delegieren und zu bestärken, stellt, so der aktuelle Diskurs, einen zeitgemäßen Ansatz dar.[2]

Zweitens, damit Organisationen angesichts von VUKA gute kollektive Entscheidungen treffen können, müssen sie ihre kollektive Intelligenz bestmöglich nutzen und Prozesse entsprechend komplexitätsangemessen steuern. Denn Kundenwünsche und Anforderungen an das eigene Produkt wandeln sich schnell, sodass langfristige Detailplanung von Projekten nicht möglich ist. Als Antwort hierauf stellen immer mehr Organisationen, sogar Verwaltungen, auf agile Formen der Prozesssteuerung um. Dies erfordert hohe Informationstransparenz auf Ebene der Gesamtorganisation und zugleich mehr dezentrale Entscheidungsfindung und Selbstorganisation und im weitesten Sinne Eigenverantwortung der Wissensarbeitenden. Der Schlüssel hierzu ist verbesserte Kommunikation durch permanentes Feedback und entsprechendes Nachsteuern – sowohl mit den Kunden als auch im Projektteam.[3]

Drittens stellt der allgegenwärtige Megatrend des digitalen Wandels nicht nur einen wesentlichen Treiber der oben dargestellten Entwicklungen dar, sondern auch des vielfach beobachteten Megatrends New Work, welcher mit einer Zunahme von Remote Working und Home Office einhergeht. Die Corona-Krise hat – so die vielfach geteilte Beobachtung – diese Entwicklungen nur noch weiter befördert.[4]

Insgesamt lässt sich ein zunehmender Bedarf nach nicht-hierarchischen, selbstorganisierten, netzwerkartigen, oft auch agilen Kooperations- und Organisationsformen beobachten. Diesen Entwicklungen gerecht zu werden, erfordert effektive Kommunikation. Denn, so lehrt es die soziologische Systemtheorie[5], ohne gelingende interne Kommunikation kann eine Organisation nicht effektiv kollektiv handeln. Als wichtiges Schmiermittel hierfür erweist sich Empathie.


Über den Mehrwert von Empathie

Angesichts der neuen Anforderungen in der sich wandelnden Arbeitswelt stellt Empathie eine wichtige Universalkompetenz dar:

  • Studien, wie z. B. von Anita Woolleys Forschungsgruppe, belegen, dass die Leistungsfähigkeit von Gruppen und damit ihre kollektive Intelligenz vor allem in ihrer Fähigkeit besteht, die Beiträge ihrer Mitglieder so optimal wie möglich zu integrieren.[6] Das Schmiermittel hierzu ist Empathie, als richtungsweisende Universalkompetenz für zahlreiche weitere Schlüsselfertigkeiten, die Team Performance sichern, wie z. B. Konfliktfähigkeit, interkulturelle Kompetenzen, Dialogfähigkeit etc.
  • Die nachrückende Managergeneration der Digital Natives bzw. Generation Y und Z wird in absehbarer Zeit rund 70% der Belegschaft in den deutschen Unternehmen ausmachen[7] und verlangt zunehmend nach einem kooperativeren Führungsstil, der von Offenheit, Dialog, Informationsteilung und Feedback geprägt ist.[8]
  • Typische, mit zwischenmenschlicher und Selbstempathie einhergehende Kompetenzen umfassen Selbstmotivation, Initiative, Kooperations- und Teamfähigkeit und Führungsfähigkeit. Laut Studien machen diese rund 80 bis 90% der Fähigkeiten aus, die entscheidend für Führungstätigkeiten sind.[9]
  • Zugleich erweist sich empathische Führung als eine wichtige Eigenschaft für Entscheidungssituationen, die von größter Unsicherheit geprägt sind. Intuition, Lebensklugheit, „Bauchgefühl“ – all dies sind Umschreibungen für eine wichtige, emotionale Entscheidungsgrundlage.[10]

Empathie bietet also einen vielfachen Mehrwert, um in der VUKA-Welt zu bestehen. Doch Empathie ist nicht gleich Empathie.

Empathie – ein umstrittenes und vielschichtiges Konzept

Noch bis in Ende der 1980er Jahre galt der Empathiebegriff als umstritten. Empathie, übersetzt aus dem Griechischen „empatheia“, bedeutet wörtlich „mitleiden“ bzw. mitfühlen und war bis in die 1980er-Jahre vor allem im Führungsdiskurs verpönt als „emotionale Ansteckung“. Eine dergestalt empathische Führungskraft könne unter diesen Voraussetzungen keine souveränen Entscheidungen treffen.[11] Dies gilt umso mehr im Kontext heutiger „Resonanzkatastrophen“ in den digitalen Medien.[12]

Seit den 1990er-Jahren und mit der Popularisierung des wesentlich positiv besetzteren Begriffs „emotionale Intelligenz“ wird unter Empathie auch „kognitive Empathie“, im Sinne von „sich in andere hineinversetzen“, ohne gleich emotional involviert zu sein, verstanden.[13] Kognitive Empathie birgt allerdings das Risiko, wie der Kritiker Fritz Breithaupt, anmerkte, dass Empathie als Werkzeug missbraucht werden kann, um Menschen gezielt zu manipulieren.[14]

Das seit den 2010er-Jahren bekannte Konzept „Empathie 3.0“ steht demgegenüber für authentische wertegebundene Empathie, die auch Selbstempathie beinhaltet und sich aus dem Zustand innerer Zentrierung, z. B. durch Achtsamkeitspraxis, ergibt und bei der sich Anwendende ihrer inneren Verbundenheit mit dem Leben bewusst werden.[15] Diese Art Empathie erweist sich in jeglicher Hinsicht als funktional.

Kompetenzentwicklung müsste daher vieldimensional an mehreren Empathiekonzepten ansetzen, die einander sinnvoll ergänzen.


Künftige Herausforderungen und Anforderungen an Kompetenzentwicklung

Zusammengefasst gehen die oben dargestellten neuen Rahmenbedingungen in der sich wandelnden Arbeitswelt mit erhöhtem Bedarf nach effektiver Kommunikation einher. Dies setzt vor allem entsprechende Kompetenzentwicklung bei Führung und Mitarbeitenden voraus.

Strategisch erweist sich die Kompetenzentwicklung von Führungskräften als wichtiger erster Schritt. Mindestens 40% ihrer Arbeitszeit sind sie mit Konflikten befasst.[16] Dieser Trend wird angesichts zunehmender Vernetzung und sich verdichtender Kommunikation in Zukunft eher zu- als abnehmen. Hinzu kommt, dass der eigene Führungsstil einen maßgeblichen Einfluss auf das Unternehmensklima und die Gesundheit, Motivation und Leistungsfähigkeit der Mitarbeitenden hat.[17] Als eine einfache Orientierungsgrundlage, um die Mitarbeiterbedürfnisse im Auge zu behalten, erweist sich das SCARF-Modell aus dem Neuro-Leadership. Demnach braucht jede/r Mitarbeitende ein Bedürfnis nach Status/Entwicklung, Erwartungssicherheit, Wertschätzung, Zugehörigkeit, Fairness.[18]

Empathische Führung setzt hohes Bewusstsein für die Bedürfnisse der Mitarbeitenden und ausgeprägte kommunikative Fähigkeiten, auch unter Stress klar und konstruktiv zu kommunizieren, voraus. Dies erweist sich, eingedenk der Zunahme psychischer Stresserkrankungen am Arbeitsplatz,[19] als eine zentrale Herausforderung. Denn Stress ist ein natürlicher Empathiekiller und verschlechtert damit Kommunikation.

Zukunftssichernde Kompetenzförderung wird daher mindestens auf zwei Kompetenzebenen ansetzen müssen – nämlich der zwischenmenschlichen (Empathie) und der psychischen (Stressfähigkeit/Resilienz). Tatsächlich erweisen sich beide Ebenen als miteinander vereinbar, was sich insbesondere im Kontext des oben dargestellten Konzepts Empathie 3.0 zeigt: Fördere ich meine Gelassenheit und innere Zentrierung, z. B. durch Achtsamkeitstechniken oder durch einfache Stressbewältigungstechniken, wie der 4-Sekunden-Atmung, bleibe ich nicht nur stressfähig, sondern auch kommunikationsfähig.[20]

Zurück zur Übersicht der Beitragsreihe
Strategische Vorausschau <<

Über den Autor:

Dr. Karim Fathi ist Berater, Coach, Trainer, Forscher und Autor zu den miteinander verschränkten Themen Konflikt, Kommunikation und Resilienzförderung. U. a. ist er Partner der DENKBANK, Mitbegründer der Akademie für Empathie und geschäftsführender Gesellschafter von PROTECTIVES. Seit 2019 ist er Mitglied im Zukunftskreis des Bundesministeriums für Bildung und Forschung (BMBF) und berät das BMBF hinsichtlich Zukunftstrends. Als Forscher und Autor setzt er sich vor allem mit der Frage auseinander, wie sich Problemlösungskompetenzen von Teams, Organisationen und vor allem Gesellschaften durch die Stellschrauben Achtsamkeit und Kommunikation signifikant verbessern lassen.

Personenfotos: © Till Caspar Juon / Media Bricks


[1] Dieser Begriff stammt von Dirk Baeker, s. Baecker, D. (1994): Postheroisches Management. Ein Vademecum. Berlin
[2] Gebhardt, W. (1996): Organisatorische Gestaltung durch Selbstorganisation, Wiesbaden
[3] Fathi, K. (2019a): Kommunikative Komplexitätsbewältigung – Grundzüge eines integrierten Methodenpluralismus zur Optimierung disziplinübergreifender Kommunikation.
Springer Verlag
[4] Hafer J., Kostädt P., Lucke U. (2021). Das Corona-Virus als Treiber der Digitalisierung?. In: Dittler U., Kreidl C. (Hrsg.) Wie Corona die Hochschullehre verändert. Springer
Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-32609-8_15
[5] Luhmann, N. (1984): Soziale Systeme – Grundriß einer allgemeinen Theorie. Frankfurt a.M., Suhrkamp
[6] Woolley, A. W. / Chabris, C. F. / Pentland, A. / Hashmi, N. / Malone, T. W. (2010): Evidence for a Collective Intelligence Factor in the Performance of Human Groups. In:
Science Vol. 330 no. 6004:686-688. 29.10.2010. DOI:10.1126/science.11931
[7] Gloger, A. (2013): Führung 2020 – Das Ende des Vorgesetzten. In: managerSeminare 183, Juni 2013: 24 – 30
[8] Rose, Nico / Fellinger, Christoph (2013): Arbeitswelt Y – „Wir wollen’s anders“. In: managerSeminare 183, Juni 2013: 18 – 23
[9] Goleman, D. / Boyatzis, R. / Mckee, A. (2002): Emotionale Führung. München
[10] Goleman, D. et al. (2002): a.a.O.
[11] Fathi, K. (2019b): Das Empathietraining – Konflikte lösen für ein besseres Miteinander. Junfermann Verlag.
[12] Fathi, K. / Osswald, A. (2017): Der E-Faktor und die Digitalisierung. In: Forschungsjournal Neue Soziale Bewegungen. Supplement zu Heft 2 / 2017 http://forschungsjournal.de/node/2995
[13] Ekman, P. (2007): Gefühle lesen. München
[14] Breithaupt, F. (2017): Die dunklen Seiten der Empathie. Frankfurt a. M.: Suhrkamp
[15] Fathi, K. (2019b): a.a.O.
[16] Roberts, T., (2006): Coaching managers through their conflicts. In: Management Services, Vol. 49, Iss. 4, pp 16-18, Institute of Management Services, Staffordshire
[17] Bruch, H. / Kowalevski, S. (2013): Gesunde Führung – wie Unternehmen eine gesunde Performancekultur entwickeln. Studie durchgeführt von der Universität St. Gallen, im Auftrag von TOP JOB. www.topjob.de/upload/projekt/studie/TJ_13_Studie_GesundeFuehrung.pd[18] Rock, D. (2008): SCARF: a brain-based model for collaborating with and influencing others. In: NeuroLeadership. Nr.1, 2008
[19] pronova BKK (2018): 87 Prozent der Menschen in Deutschland sind gestresst – Jeder Zweite glaubt, von Burn-out bedroht zu sein. Presseportal 10.04.2018 https://www.presseportal.de/pm/119123/3912240
[20] Wie das genau geht, ist unter anderem hier genauer beschrieben: Fathi, K. (2019b): a.a.O.


Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay