Weltraumtoursimus – Lift off zu den Sternen

Am 10. Juli 2021 schrieb Richard Branson Geschichte. Er war der erste Mensch, der an Board eines Raumfahrzeugs seiner eigenen Firma eine Flughöhe 282.000 Fuß (rund 86 km) erreichte und damit zumindest gemäß NASA-Definition ins All vordrang. Der Flug der VSS Unity gilt als Meilenstein im Weltraumtourismus, auch wenn neben Brenson nur Angestellte von Virgin Galactic und somit keine zahlenden Passagiere an Bord waren.

IT-Sicherheit braucht Alternativen

Mit Open Source gegen Hacker


In Deutschland wurde im Juli 2021 der erste Cyber-Katastrophenfall ausgelöst. Doch das ist nur der bisherige Höhepunkt einer langen Kette von Hackerangriffen. Die letzten Monate haben gezeigt, wie ernst die Situation geworden ist: In Deutschland und der ganzen Welt nehmen die Hackerangriffe zu. Mit immer neuen Methoden schaffen es die Cyberkriminellen an den herkömmlichen Sicherheitsmaßnahmen vorbeizukommen.

Eine Abwehrmethode, die Experten vorschlagen, wird aber noch viel zu selten eingesetzt: Open Source

Gastautor:
Rico Barth, Geschäftsführer cape IT

Cybercrime 2.0


Auf die traditionellen Methoden der Hacker sind viele Menschen heute sensibilisiert. Nicht auf seltsame Mails oder verdächtige Dateianhänge zu reagieren, ist in den Köpfen der meisten Leute angekommen. Deshalb haben sich die Cyber-Kriminellen neue Vorgehensweisen ausgedacht. Dazu gehören etwa sogenannte Distributed-Denial-of-Service-Angriffe (DDoS), bei denen unzählige Anfragen die Systeme überlasten. So bekommen die Hacker Einblick in die Gegenmaßnahmen und können beim nächsten Mal gezielt zuschlagen. 2020 war bereits ein Rekordjahr mit tausenden solcher Attacken. Im ersten Halbjahr 2021 ist die Zahl um ein weiteres Drittel im Vergleich zum Vorjahr gewachsen.

Einigen Hackern geht es nur darum, den Betrieb eines Unternehmens mit solchen Angriffen zu stören. Doch viel häufiger haben sie es auf die wertvollen Daten abgesehen, um einen Erpressungsversuch zu starten. Sind diese erst einmal komplett oder teilweise verschlüsselt, müssen betroffene Unternehmen entweder auf die Forderungen eingehen oder z.B. mit Hilfe einer Sicherheitsfirma versuchen, wieder Zugriff auf ihre Daten zu bekommen.

The new normal


Wir müssen uns leider daran gewöhnen, dass Hackerangriffe inzwischen zu unserem Alltag gehören. Lange Zeit haben es nur die brisantesten Fälle in die Medien geschafft, doch der Anstieg der Attacken hat dafür gesorgt, dass es schon fast zu einem Dauerthema wurde. Regelmäßig erfahren wir von lahmgelegten Systemen und Lösegeldforderungen. Ein unvollständiger Rückblick:

Im Herbst 2020 erwischte es das Universitätsklinikum Düsseldorf. Vermutlich unabsichtlich, denn laut Polizei hatten es die Täter eigentlich auf die Heinrich-Heine-Universität abgesehen. Trotzdem wurde später ein sogenannter Loader im System der Uniklinik gefunden, mit dem die Schadsoftware aufgespielt wurde – in diesem Fall die Malware DoppelPaymer. Weil dieses Programm schon oft von russischen Hackern benutzt wurde, vermutet das nordrhein-westfälische Justizministerium eine Verbindung nach Russland.

Wie hart so ein Hackerangriff das tägliche Leben treffen kann, zeigen folgende Beispiele. Im Februar 2021 etwa wurde eine Trinkwasseranlage in Florida Opfer einer Cyberattacke. Nachdem die Täter Zugriff auf die Systeme der Anlage erlangt hatten, erhöhten sie den Anteil des Natriumhydroxids (NaOH) auf ein gefährliches Level. Mit diesem Mittel lassen sich Metalle aus dem Wasser entfernen und der Säuregehalt kontrollieren. In zu hohen Mengen ist NaOH jedoch gesundheitsschädlich. Mitarbeiter der Anlage konnten die Störung rechtzeitig erkennen und beheben.


Zwischen KRITIS und Wahlkampf


Gefährlich wird es, wenn durch Cyberangriffe Menschenleben auf dem Spiel stehen. Vermutlich sind gerade deshalb in den vergangenen Jahren auch immer öfter Krankenhäuser ins Visier von Hackern geraten – zuletzt im Juli 2021 das Wolfenbütteler Krankenhaus. Kliniken sind für Hacker ein beliebtes Angriffsziel, weil ein Ausfall von IT oder vernetzter Medizintechnik lebensbedrohlich werden kann – und dies bei einem Teil der Kritischen Infrastruktur einfach nicht passieren darf. Wie beim Beispiel der Uniklinik Düsseldorf, das eine lebensbedrohlich erkrankte Patientin abweisen musste, weil die Systeme nicht funktionierten. Die Frau musste in ein anderes Krankenhaus verlegt werden und die Behandlung konnte erst eine Stunde später beginnen. Zu spät. Die Patientin verstarb.

Aber auch Patientendaten oder Patente gehören zur beliebten Beute der Hacker. In solchen Fällen sind die betroffenen Einrichtungen oft schneller geneigt, auf eventuelle Erpressungen einzugehen und für die Freigabe der Systeme zu zahlen.

Kapitulation oder Planänderung?


Eines muss uns klar sein: Vor Cyberangriffen wird es nie eine absolute Sicherheit geben. Neue Schadprogramme und Abwehrmaßnahmen sorgen für ein ständiges „Katz und Maus-Spiel“ zwischen Tätern und Sicherheitsexperten. Antiviren-Programme und Firewalls sind Standard bei Behörden, Unternehmen oder privaten Computern. Doch IT-Profis empfehlen schon lange, verstärkt auf Open Source-Software zu setzen.

Bei solchen offenen Programmen haben alle Anwender Zugriff auf den Quellcode. Durch die Zusammenarbeit vieler Menschen und ganzer Communities können Schwachstellen schnell ausgemacht und behoben werden. Natürlich auch durch die Unterstützung großer Unternehmen, die hinter solchen Open Source-Softwares stehen. Im Gegensatz zu geschlossenen Systemen, liegt meist nicht viel Zeit zwischen Entdeckung und Korrektur. Das hätte vielleicht auch den Verantwortlichen der Uniklinik Düsseldorf geholfen. In einer Pressemitteilung schrieb das Krankenhaus: „Die Sicherheitslücke befand sich in einer marktüblichen und weltweit verbreiteten kommerziellen Zusatzsoftware. Bis zur endgültigen Schließung dieser Lücke durch die Softwarefirma war ein ausreichendes Zeitfenster gegeben, um in die Systeme einzudringen.“

https://www.kixdesk.com/

Aufmacherbild / Quelle / Lizenz
Photo by Andrew Haimerl on Unsplash

Zeitenwende für Open Source – in Städten und Kommunen unverzichtbar

Kommentar von Andrea Wörrlein

Dass immer mehr Kommunen und Länder auf den Einsatz von Open Source setzen, hat einen einfachen Grund: Die öffentliche Verwaltung ist verpflichtet, die Daten ihrer Bürger zu schützen. Dies ist nicht mit einer Closed-Source-Lösung machbar.

Die Datenschutz-Grundverordnung (DSGVO) entpuppt sich mehr und mehr zum Turbo für Open-Source-Lösungen. Closed-Source-Software verletzt die in Europa geltenden Datenschutzbestimmungen häufig, sodass immer mehr Datenschutzbeauftragte den Einsatz solcher Lösungen untersagen: An hessischen Schulen dürfen beispielsweise keine US-amerikanischen Videokonferenzsysteme mehr für den Unterricht verwendet werden

„Dortmund hat eine Zeitenwende eingeläutet – Weg von proprietären Lösungen, hin zu Open Source.“

Andrea Wörrlein, Geschäftsführerin von VNC in Berlin
und Verwaltungsrätin der VNC AG in Zug

Das dürfte kein Einzelfall bleiben. Die Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder (kurz: Datenschutzkonferenz, DSK) besteht trotz neuer Standardvertragsklauseln der EU-Kommission für eine rechtskonforme Übermittlung personenbezogener Daten in Drittländer auf eine „Prüfung der Rechtslage im Drittland und zusätzlicher ergänzender Maßnahmen“. Auslöser hierfür ist die sogenannte Schrems-II-Entscheidung des Europäischen Gerichtshofs (Rechtsfall C-311/18). 

Organisationen können diese zeitaufwendigen Maßnahmen, verbunden mit ständigen Überprüfungen sowie rechtlichen Risiken, durch den Einsatz von Open-Source-Software umgehen. Doch das alleine reicht nicht. Die zum Einsatz kommenden Lösungen sollten schon auf der technischen Ebene bei der Produktentwicklung das Prinzip Privacy by Design implementiert haben. Konsequent umgesetzt lässt es viele Zugriffs- und Manipulationsversuche ins Leere laufen, macht eine Reihe aufwendiger Schutz- und Prüfmaßnahmen überflüssig und vereinfacht die Kontrolle der eigenen Datensouveränität.

Da an der Cloud kein Weg mehr vorbeiführt, muss eigentlich jede Anwendung per se auch Cloud-enabled sein und ohne Plug-ins auf verschiedenen Endgeräten im Browser laufen. Zu diesem Software-Ökosystem gehören natürlich auch Plattformtechnologien wie Cloud-Datenbanken und Cloud-Storage.

Es ist gut, dass sich langsam, aber sicher auch die Bundesregierung in diese Richtung bewegt. Auf Basis einer vom BMI beauftragten Marktanalyse aus dem Jahr 2019, die für die öffentliche Verwaltung im Bereich Betriebssysteme und Bürokommunikation eine starke Abhängigkeit von Microsoft-Produkten attestiert, ist sie nun aktiv auf der Suche nach Open-Source-basierten Alternativen.

Andererseits betont die Regierung aber auch, dass eine komplette Ablösung von Microsoft-Produkten laut „der aktuellen strategischen Ansätze zur Stärkung der Digitalen Souveränität“ jedoch nicht vorgesehen sei.

Da ist man in Dortmund schon weiter: Der Rat der Stadt hat entschieden, dass Open-Source-Lösungen an erster Stelle bei der Beschaffung stehen. Flankiert von der Forderung, dass von der Verwaltung entwickelte oder zur Entwicklung beauftragte Software der Allgemeinheit zur Verfügung gestellt wird.

Die Tatsache, dass diese Entscheidung einstimmig gefasst wurde, zeigt: Dortmund hat eine Zeitenwende eingeläutet – Weg von proprietären Lösungen, hin zu Open Source. 

Weitere Informationen unter https://vnclagoon.com,
Twitter unter @VNCbiz sowie auf LinkedIn.

Kontakt

Andrea Wörrlein
VNC – Virtual Network Consult AG
Poststrasse 24
CH-6302 Zug
Tel.: +41 (41) 727 52 00
aw@vnc.biz 

Franzsika Fricke
PR-COM GmbH
Sendlinger-Tor-Platz 6
80336 München
Tel. +49-89-59997-707
franziska.fricke@pr-com.de

Aufmacherbild / Quelle / Lizenz
Bild von Anke Sundermeier auf Pixabay

Wandel der OEMs zu Softwareherstellern

von Dr. Stephan Blankenburg und Théo Tamisier

Was es für die Automobilindustrie bedeutet, eine Tech-Company zu werden

Über 125 Jahre hat die europäische Automobilindustrie ihre Position als weltweite technische Vorreiterin erfolgreich auf- und ausgebaut – mit optimierten Prozessen, ausbalancierten Zuliefererketten und technologischem Fortschritt. Doch jetzt gerät dieses Konstrukt ins Wanken: Neue Kundenbedürfnisse, strikte regulatorische Vorgaben, neue internationale Wettbewerber, sich rasch wandelnde technologische Schwerpunkte sowie eine Pandemie setzen die Industrie so stark unter Druck wie nie zuvor.

Software rückt in den Mittelpunkt der Produktstrategie. Die damit einhergehende Transformation zur Tech-Company vollzieht sich nicht von heute auf morgen und erfolgt an der Schnittstelle der Dimensionen Mensch, Technologie und Business. Es erfordert ein radikales Umdenken in Bezug auf Geschäftsmodelle und den Umgang mit technologischen Herausforderungen. OEMs und Zulieferer müssen sich daher die Frage stellen: Was bedeutet es, ein Softwareunternehmen zu werden?

Dr. Stephan Blankenburg, Associate Partner, Q_PERIOR

Das Geschäftsmodell neu definieren

In der heutigen Diskussion steht oft der technologische Wandel im Zentrum. Dabei wird häufig die Business-Perspektive vernachlässigt. Denn eine wesentliche Veränderung betrifft das Geschäftsmodell: Heute werden überwiegend Einmalumsätze mit dem Verkauf und Leasing sowie der Wartung des Fahrzeugs generiert. Die passenden Strukturen der OEMs und ihrer Zulieferer wurden dafür über Jahre hinweg evolutionär optimiert. Nach der Festlegung der Fahrzeuganforderungen werden Hardware und Software entwickelt, im Fahrzeug integriert und zu einer Deadline – dem Start of Production – fertiggestellt. Wesentliche Produktänderungen erfolgen primär über Modelljahre und Modellpflegen.

Durch den zunehmenden Anteil von Software im Fahrzeug wird die Wertschöpfung jedoch mehr und mehr in Richtung Services verlagert. Die Produktzentrierung weicht einer Servicezentrierung, was wesentliche Auswirkungen auf die Art der Umsatz- und Wertgenerierung hat. Dabei wird das Produkt respektive die Software kontinuierlich weiterentwickelt und es wird so ermöglicht, dem Kunden auch über den Verkaufspunkt des Fahrzeugs hinaus neue Funktionen bereitzustellen. Hierfür müssen traditionelle Controlling- und Zuliefererstrukturen aufgelöst, die Inhouse-Entwicklung gestärkt und neue Partnerschaften auf Augenhöhe etabliert werden. Zudem gibt es große Auswirkungen auf den heutigen Entwicklungsprozess. In Zukunft wird der komplette Lebenszyklus von der Entwicklung bis zum End-of-Service für die Entwicklungsteams relevant. Sie sind damit für das komplette Management und die Betriebssicherheit ihrer Software während des Lebenszyklus verantwortlich (DevOps-Prinzip).

Durch die Digitalisierung des Fahrzeugs und dessen Ökosystem verändern sich zudem die Lösungsmöglichkeiten für die Bedürfnisse der Kunden nach Mobilität. Denn vernetzte und automatisierte Fahrzeuge ermöglichen neue Arten von Geschäftsmodellen und Mobilitätslösungen. Dabei müssen sich die OEMs als auch die Zulieferer im zukünftigen und noch nicht definierten Mobilitätsmarkt strategisch positionieren. Dieses hat auch Auswirkungen auf technologische Partnerschaften. Denn die neuen Dimensionen der Software, wie beispielsweise Cloud, Car2X-Kommunikation, App Stores, Daten, Betriebssysteme (OS), erfordern ein Umdenken in der Fahrzeug- und Servicearchitektur.

Build, Partner or Buy sind dabei wesentliche Entscheidungen, um die hohe Geschwindigkeit der Transformation aufrechtzuerhalten. Die Grundlage hierfür muss die eigene strategische Positionierung sein und nicht das Ausgleichen der technologischen Schulden. Ansonsten wird die Automobilindustrie nur zu einem Baustein der großen Technologiekonzerne.

Eine technologische und organisatorische Herausforderung

Während die Entwicklung von Hardware kostenintensiv ist und nur aufwendig im Lebenszyklus ausgetauscht werden kann, ermöglicht Software neue Handlungsmöglichkeiten. Diese kann und muss kontinuierlich aktualisiert werden. Das hat wiederum starke Auswirkungen auf die Organisation der OEMs und Zulieferer. Das Mindset für kontinuierliche und automatisierte Produktauslieferung (Continuous Integration & Delivery) muss in die DNA der Unternehmen integriert werden. Dieser Wandel lässt sich an den Reorganisationen der Automobilindustrie ablesen: CARIAD beim VW-Konzern, MBOS bei Mercedes-Benz, XC bei Bosch, die Software Factory für Renault-Nissan-Mitsubishi, um nur einige zu nennen. Doch diese Transformation steht erst am Anfang und lässt sich nicht durch das pure Skalieren mit Softwareentwicklern erreichen.

Théo Tamisier, Senior Consultant, Q_PERIOR

Führende Technologiefirmen wie Apple, Google, Microsoft und auch Tesla haben das Thema Automatisierung fest in ihrer DNA verankert: sie haben die erforderliche automatisierte Umgebung, um Tests, Auslieferung und Integration in hohem Tempo zu ermöglichen – die Continuous Integration, Testing and Delivery Pipeline (CI/CT/CD). Eine erfolgreiche Transformation braucht dabei die richtigen Methoden, Tools, Prozesse und insbesondere das entsprechende Mindset für agile Organisationen und Automatisierung. Dies wird ein langer Prozess, denn die alten Denk- und Verhaltensweisen des Managements müssen sich grundlegend verändern. Nicht zuletzt bedeutet dieser Wandel das Verlassen einer Komfortzone. Von innen heraus, ohne äußere Impulse, ist das fast unmöglich.

Zudem ist Software dynamisch. Sie muss überwacht, gepatcht, geschützt, zertifiziert und Over-the-Air aktualisiert werden. Die Branche muss lernen, nicht nur mit dem Aspekt „Safety“ umzugehen, sondern auch mit dem Thema „Cyber Security“, die für das Gesamtsystem eine zentrale Rolle spielt und Ende-zu-Ende betrachtet werden muss. Die Zertifizierungsvorschriften UN R155 und R156 der Arbeitsgruppe WP.29 des Weltforums für die Harmonisierung von Fahrzeugvorschriften (UNECE), die sich mit Cyber Security und Softwareupdates beschäftigen, unterstreichen diese Notwendigkeit. Eine Herausforderung wird dabei sein, neue Stärken auf der Softwareseite aufzubauen und diese mit den vorhandenen Stärken im Bereich Fahrzeugqualität und -sicherheit zu kombinieren.

Position in der Wertschöpfungskette des Mobilitätsmarktes muss definiert werden

Die Transformation der Automobilindustrie hin zu einer Tech-Company ist tiefgreifend und der Weg noch nicht vorgezeichnet. Durch die zunehmende Digitalisierung des Fahrzeugs und die damit einhergehenden Möglichkeiten für neue Mobilitätslösungen verändern die Positionierung der OEMs und Zulieferer. Neue digitale Akteure und strategische Partnerschaften prägen dabei das Bild. Noch ist offen, wer in Zukunft welche Position einnehmen wird. Dabei müssen die etablierten Hersteller starre Strukturen durchbrechen, Softwarekompetenz aufbauen, den Kunden beziehungsweise die Kundin ins Zentrum ihrer Strategie und ihres Handels stellen und das entsprechende Mindset entwickeln.

Diese Veränderung ist für die traditionsreichen OEMs in Deutschland die bisher größte Herausforderung. Wer die Dimensionen Mensch, Technologie und Business dabei ganzheitlich betrachtet, erfolgreiche Modelle aus der Softwareindustrie integriert sowie seine strategische Positionierung klar definiert, wird auch in 125 Jahren noch erfolgreich sein.

https://www.q-perior.com/

Aufmacherbild / Quelle / Lizenz
Photo by Nikhil Mitra on Unsplash

Internationale Cybersicherheit

EU-Cybersecurity-Strategie: ein Startpunkt, mehr aber auch nicht

Mit der Cybersecurity-Strategie will die EU zum einen die Widerstandsfähigkeit Europas gegenüber Cyberangriffen stärken. Zum anderen soll damit sichergestellt werden, dass Unternehmen und Bürgerinnen wie Bürger von vertrauenswürdigen digitalen Lösungen profitieren können. Die Strategie zielt auf eine technologische Souveränität Europas und einen kollektiven Ansatz in der Abwehr größerer Cyberangriffe ab. Diese Strategie ist ein Schritt in die richtige Richtung.

Kollaboration und Koordination sind die Schlüssel für eine erfolgreiche Bekämpfung der Cyberkriminalität und vor allem auch, um Europa auf die digitale Realität und Zukunft auszurichten. Das große Aber lautet: Die Umsetzung erforderlicher Maßnahmen ist kein Selbstläufer. Sie muss operationalisiert und technologisch wie prozessual gestützt werden. Auch die Bereitstellung der erforderlichen Personalressourcen ist ein absolutes Muss.

Zum Statementgeber

Dass dringender Handlungsbedarf besteht, ist offensichtlich. Gerade die Gefahren durch die zunehmende IoT-Nutzung zeigen dies in aller Deutlichkeit. Ganz zu schweigen von den Horrorszenarien, die durch Angriffe auf kritische Infrastrukturen über unzureichend geschützte OT-Systeme drohen. Was aber nach wie vor auf breiter Front fehlt, sind die Sicherheitsstandards. Vor allem im IoT- und OT-Bereich liegt diesbezüglich noch vieles im Argen.

Um einem vermeintlichen Missverständnis zu begegnen: Bei der technologischen Souveränität Europas geht es keineswegs darum, alles neu zu erfinden. Vielmehr sollten durchaus die internationale Expertise und etablierte Best Practices genutzt werden. Gaia-X ist hier ein sehr gutes Beispiel. In das Projekt sind internationale Partner involviert, die eine adäquate Erfahrung mitbringen.

Auch NTT geht den Weg einer engen Zusammenarbeit mit internationalen Unternehmen, um zu weltweiter Cybersicherheit beizutragen. So fungieren wir als Partner in der Charter of Trust, einer Sicherheitsinitiative, die die Etablierung allgemeiner Mindeststandards für Cybersicherheit zum Ziel hat.

Insgesamt ist der von der EU eingeschlagene Cybersecurity-Weg aber auf jeden Fall richtig. Mehr als ein Startpunkt aber auch nicht. Es gilt, unmittelbar mit der Umsetzung und konkreten Maßnahmen zu beginnen. Nur so kann Europa für die Digitale Transformation und die Bekämpfung der Cyberkriminalität erfolgreich und vor allem auch sicher aufgestellt werden.

https://hello.global.ntt/de-de/

Aufmacherbild / Quelle / Lizenz
Photo by FLY:D on Unsplash

Sind nachhaltige Veränderungen unausweichlich?

Immer mehr Unternehmen kehren mittlerweile zurück zur Normalität. Im Trend Report spricht Uwe Bergmann, Vorstandsvorsitzender der COSMO CONSULT-Gruppe über die Lehren aus der Pandemie und wie der Digitalisierungsspezialist Unternehmen beim Neustart in eine digitale Welt unterstützt.

„Wir verkaufen nicht nur IT,
sondern setzen eine ganzheitliche Unternehmensdigitalisierung um – und zwar mit den Personen, die später damit arbeiten.“


Herr Bergmann, wir sind im Neustart-Modus nach der Pandemie und in vielen Branchen wird endlich wieder normal gearbeitet. Was sollten Unternehmen aus den vergangenen Monaten für die Zukunft mitnehmen?

Vor COVID-19 standen Themen wie Digitalisierung und Modernisierung nicht unbedingt bei jedem Unternehmen ganz oben auf der Agenda. Angesichts einer robusten Konjunktur dominierte das Tagesgeschäft. In der Pandemie hat sich dann gezeigt: Betriebe, die bei der Digitalisierung Ihrer Arbeitsumgebung bereits weit fortgeschritten waren, konnten sich deutlich schneller auf die neue Situation einstellen. Diese Flexibilität dürfte auch künftig von Vorteil sein. Etwa, wenn es darum geht, sich an Marktänderungen und neue Kundenanforderungen anzupassen. Schaut man sich die Firmen genauer an, die der Entwicklung hinterherhinken, dann zeigt sich, dass der Nachholbedarf nicht nur die fehlende digitale Ausstattung betrifft. Auch die Menschen sind teils weit davon entfernt, in modernen Arbeits- und Organisationsformen zu denken und zu leben.

Die Pandemie hat gezeigt, wie groß der Nachholbedarf in Sachen Digitalisierung ist – und, dass dieser Trend unumkehrbar ist. Allerdings sind die einzelnen Branchen unterschiedlich stark betroffen. Im produzierenden Gewerbe bestehen andere Möglichkeiten als etwa in der Gastronomie oder im stationären Einzelhandel, wo persönlicher Kontakt zu Menschen unverzichtbar ist. Ich würde mir wünschen, dass in der Wirtschaft verstärkt darüber nachgedacht wird, welchen Nutzen der eigene Betrieb aus der Digitalisierung ziehen könnte. Digitalisierungsprojekte sollten mit Zuversicht und Nachdruck auf die Schiene gesetzt, Mitarbeiterinnen und Mitarbeiter besser auf die digitale Arbeitswelt vorbereitet werden.

Corona hat die digitale Transformation in den Unternehmen beflügelt. Wie helfen Sie Ihren Kunden dabei, die aktuellen Herausforderungen zu meistern?

Mit unserer Philosophie „Business-Software für Menschen“ konzentrieren wir uns besonders darauf, Menschen zu unterstützen. Wie inspirieren sie, neue Wege zu gehen. Hierfür haben wir innovative Tools entwickelt, wie den DigiCheck oder den Digitalen Berater. Damit ermitteln wir den Digitalisierungsgrad eines Unternehmens und vergleichen ihn mit ähnlich strukturierten Betrieben der gleichen Branche. Dieses individuelle Profil ist eine solide Basis für das weitere Vorgehen. Hinzu kommt unser hoch spezialisiertes Team, das Kunden flankierend unterstützt, ein übergreifendes, agiles Transformationskonzept umzusetzen.

Wir betrachten die Digitalisierung dabei ganzheitlich und nutzen das volle Applikations- und Technologiespektrum, das uns die Microsoft Plattform bietet. Während ein ERP-Anbieter dazu tendiert, alles in seiner ERP-Software oder ein CRM-Anbieter alles in seiner CRM-Software umzusetzen, nehmen wir die jeweils besten Apps und stimmen deren Prozesse exakt aufeinander ab. Damit sind wir in der Lage, Lösungen aus Bereichen, wie ERP, CRM, Business Intelligence, Modern Workplace oder auch Künstlicher Intelligenz gezielt einzusetzen und optimal miteinander zu vernetzen. Man könnte sagen, wir verbinden das Beste und Sinnvollste aus allen Welten und schaffen die jeweils optimale Lösung für unsere Kunden. Hierfür haben wir in den letzten Jahren unser Portfolio kontinuierlich auf ganzheitliche Lösungen ausgerichtet.

„Hinken Unternehmen in Sachen Digitalisierung lange Zeit hinterher, betrifft das nicht allein die Technologie, sondern auch Arbeitsweisen und Menschen.“

Unternehmen, die sich schnell an veränderte Rahmenbedingungen anpassen können, sind klar im Vorteil. Wie gelingt es, die Veränderungsbereitschaft in den Unternehmen zu verbessern? Wie sind da Ihre Praxiserfahrungen?

Vielen Unternehmen sind sich darüber bewusst, dass Veränderungen unausweichlich sind. Sie zögern dennoch – oft aus Unsicherheit. Sie suchen nach einem kompetenten, erfahrenen Partner, der sie sicher durch den digitalen Transformationsprozess begleiten. Dieser sollte allerdings möglichst breit aufgestellt sein, denn die Digitalisierung ist nicht allein eine technische Herausforderung. Entscheidend für den Erfolg ist es vor allem, die Mitarbeitenden mitzunehmen, sie einzubinden und für das Thema zu begeistern. Es ist wichtig bei allen Überlegungen und Vorhaben, stets den Menschen mit seinen Bedürfnissen in den Mittelpunkt zu stellen.

Deshalb steht bei uns das Thema Changemanagement ganz oben auf der Agenda. Um den steigenden Beratungsbedarf bei Digitalisierungsprojekten zu adressieren, haben wir zudem eine neue Businessunit gegründet, die sich intensiv mit Business Design auseinandersetzen. Wir wissen aus eigener Erfahrung, dass die Herausforderungen der digitalen Transformation insbesondere im organisatorischen und kulturellen Bereich liegen. Business Design unterstützt Unternehmen dabei, den digitalen Wandel zu gestalten und die Voraussetzungen dafür zu schaffen, auch künftig erfolgreich zu sein. Das Team hilft, digitale Strategien zu entwickeln, neue Geschäftsprozesse zu gestalten und Menschen für Neues zu begeistern.

Gemeinsam mit unseren Kunden entwickeln wir so neue Strukturen, neue Prozesse und oft sogar ganz neue Geschäftsmodelle. Wir verkaufen also nicht nur IT, sondern setzen eine ganzheitliche Unternehmensdigitalisierung um – und zwar mit den Personen, die später damit arbeiten. Auf diese Weise gelingt es, Visionen zu schaffen und eine gemeinsame Zukunft zu entwickeln.

Inwiefern sind Unternehmen, die den „Geist der digitalen Transformation“ bereits für sich ausgemacht haben, im Vorteil?

In der Pandemie konnten Unternehmen, die mit dem Aufbau einer modernen Infra- und Kommunikationsstruktur bereits weit fortgeschritten waren, neue Herausforderungen – wie etwa Homeoffice – viel besser bewältigen. Andere hatten nicht einmal adäquate Hardware und standen erst mal auf dem Schlauch, denn auch die Belegschaft waren nicht auf digitales Arbeiten vorbereitet. Das ist ein überaus wichtiger Punkt: Hinken Unternehmen in Sachen Digitalisierung lange Zeit hinterher, betrifft das nicht allein die Technologie, sondern auch Arbeitsweisen und Menschen. Die individuelle Kompetenz ist jedoch entscheidend für eine erfolgreiche Digitale Transformation. Schließlich stellt die veränderte Arbeitswelt viele neue Anforderungen an alle Beteiligten.

Auch für das Recruiting neuer Mitarbeiter und Mitarbeiterinnen wird mangelnde Digitalisierung zum Problem: Das betrifft vielleicht nicht jede Branche im gleichen Maße, aber künftig wird es – allein schon aus demografischen Gründen – immer schwieriger, Menschen für sich zu gewinnen und an das Unternehmen zu binden. Wer dann nur mit einer »old-fashioned infrastructure« aufwarten kann, ist erst einmal unattraktiver. Die heutigen Nachwuchskräfte sind mit dem Handy aufgewachsen und stellen hohe Ansprüche an die digitale Ausstattung ihres neuen Arbeitsplatzes. Die kann man mit einer Infrastruktur von vorgestern nicht hinterm Ofen hervorlocken. Digitalisierte Betriebe sind also hier klar im Vorteil.

https://de.cosmoconsult.com/

Aufmacherbild / Quelle / Lizenz
Photo by Brad Starkey on Unsplash

Krisen besser meistern

Vier Strategien für mehr Agilität in der produzierenden Industrie

In turbulenten Zeiten wie der aktuellen Pandemie oder der Flutkatastrophe im Juli scheint der Begriff „betriebliche Agilität” omnipräsent. Die großen Tech-Unternehmen und Beratungsfirmen zeigen sich erwartungsgemäß agil und anpassungsfähig. Doch es ist unwahrscheinlich, dass Produktionsbetriebe mit ihren Fertigungsanlagen und über viele Standorte verstreuten Teams von den gleichen Fähigkeiten profitieren können.

Daniel Sztutwojner

Was aber bedeutet betriebliche Agilität aus Sicht eines produzierenden Unternehmens und wie erreicht man sie?

Es geht weniger darum, wie schnell oder wie umfangreich angestrebte Veränderungen umgesetzt werden. Vielmehr geht es um eine effiziente Kommunikation innerhalb großer und dezentral organisierter Unternehmen.

Egal ob Lieferketten durch eine Pandemie gestört werden, ob die Maschinen stillstehen, weil das Firmengelände und Produktionsanlangen überflutet wurden, wie im Juli beim Autozulieferer ZF und dem Kupferspezialisten Aurubis, oder ob die Nachfrage in Folge von Turbulenzen auf den Weltmärkten einbricht: Produktionsbetriebe müssen den unternehmensweiten Informationsfluss über alle Standorte hinweg sicherstellen. Denn Agilität hängt vom ungehinderten Fluss wichtiger Informationen sowie vom direkten Kontakt zu und zwischen den Mitarbeitenden ab.

Die gute Nachricht: Herstellungsbetriebe sind in der Regel an Störungen im Produktionsablauf gewöhnt und dadurch krisenerprobt. Lieferschwierigkeiten, Änderungen bei gesetzlichen Bestimmungen, schwankende Märkte und zunehmend auch Naturkatastrophen gehören zum Alltag. Aus der notwendigen Anpassung wurde praktisch eine selbstverständliche Routine. Die schlechte Nachricht: Die Pandemie belastet die Branche auf eine nicht gekannte Art und Weise. Agilität ist in dieser Situation wichtiger denn je, aber gleichzeitig auch schwieriger umzusetzen.


„Kommunikation ist das Fundament, das jedes Unternehmen festigt und alle Bereiche und Mitarbeiter zusammenschweißt.“


Agilität hilft, Krisen zu bewältigen

Seit Beginn der Pandemie mussten viele Industrieunternehmen ihren Betrieb praktisch über Nacht einstellen, um ihn später ebenso schnell wieder hochzufahren. Die Umsetzung des Social Distancing und der erforderlichen Gesundheits- und Sicherheitsmaßnahmen erschwerten die Wiederinbetriebnahme. Allein für den organisatorischen Ablauf bedeutet das einen enormen Mehraufwand, vom Produktionsbetrieb ganz zu schweigen. Herstellungsbetriebe oder Bauunternehmen, die aufgrund von Gesundheitsauflagen ihre Tätigkeit entweder einschränken oder vollständig einstellen mussten, können ihre Arbeit nicht einfach ins Homeoffice verlagern.

Die Mitarbeitenden sind voneinander und vom Unternehmen abgeschnitten und haben keinen oder nur eingeschränkten Zugang zu Ressourcen wie Gerätschaften oder Informationen. Vielen Unternehmen fehlt ein Notfallplan für eine solche Situation. Um den Anschluss nicht zu verpassen, sind Ideenreichtum, Einigkeit bei den Geschäftszielen sowie schnelles und entschlossenes Handeln gefragt. Produktionsbetriebe sind gezwungen, ihre Pläne, Strategien und grundlegenden Geschäftsziele zu überprüfen – und in vielen Fällen zu revidieren. Kurz: Produzierende Unternehmen brauchen neue Strategien für mehr betriebliche Agilität und sie müssen in kurzer Zeit innovative Konzepte entwicklen.

Pandemie beschleunigt die Digitalisierung

Zu alledem beschleunigt die Pandemie den Trend der Digitalisierung. Das bedeutet eine Verlagerung weg vom persönlichen und hin zum digitalen Austausch. Beziehungen zu Kunden, Lieferanten, Mitarbeitenden und zum gesamten Netzwerk eines Unternehmens verändern sich. Und die Krise zeigt uns, dass eine digitale Umgebung effizienter, praktischer und individualisierbarer ist als analoge Szenarien.

Das Ausmaß, in dem einige Produktionsbetriebe bereits auf die Situation reagiert haben, ist beispielhaft: Wir wissen von Spirituosenherstellern, die zur Produktion von Handdesinfektionsmittel übergingen, oder von Sportartikelherstellern, die ihre Anlagen für die Fertigung von Gesichtsmasken umrüsteten. Mit etwas Kreativität und Initiative ist Agilität auch in Krisenzeiten möglich. „Business as usual“ hat mit den ersten COVID-19-Fällen jedenfalls ausgedient und es ist fraglich, ob wir jemals zur gewohnten Normalität zurückkehren. Die konkreten Herausforderungen beim Meistern einer Krise gestalten sich für jedes Unternehmen anders. Auf eines sind sie aber alle gleichermaßen angewiesen: mehr Agilität.

Das Fundament betrieblicher Agilität

Die folgenden Strategien unterstützen Unternehmen in Krisensituationen dabei, schnelle Veränderungen und betriebliche Organisation unter einen Hut zu bringen:

  • Informieren Sie in Echtzeit. Mitarbeitende sind auf schnelle und aktuelle Informationen angewiesen, ob es sich nun um Gesundheits- und Sicherheitsmaßnahmen, neue Arbeitsabläufe, Anpassungen der Geschäftsziele oder um andere Aspekte handelt, die geklärt werden müssen. Je schwieriger der Zugang zu diesen Informationen ist, desto unübersichtlicher wird die Mitarbeiterkommunikation.

    Das Bereitstellen von Informationen in Echtzeit garantiert, dass Mitarbeitende auf alle akuten Fragen sofort eine Antwort finden. In Krisensituationen lässt sich so verhindern, dass die Kommunikation zusammenbricht. Versuchen Sie, so transparent wie möglich zu kommunizieren und den Informationszugang so einfach wie möglich zu gestalten.
  • Identifizieren Sie Informationsengpässe. Durch die Pandemie wurden bereits bestehende Informationsengpässe in Unternehmen verstärkt oder es wurden neue geschaffen. Die Analyse, wie interne Kommunikation funktioniert — also wie Informationen durch eine Organisation fließen — hilft dabei, Engpässe zu identifizieren und Lösungsansätze zu erkennen.

    Ein guter Zugang zu Informationen aller Art und auf allen Ebenen beschleunigt und verbessert die Entscheidungsfindung. Vor Corona gaben 86 Prozent der befragten Unternehmen an, dass gewerbliche Mitarbeitende mehr Einblicke ins Unternehmensgeschehen benötigten. Diese Zahl ist seither noch gestiegen.
  • Setzen Sie Inputs aus der Belegschaft um. Ihr größter Wettbewerbsvorteil sind Ihre Mitarbeitenden, die sich immer am Puls des Geschehens befinden. Führungskräfte, die Ideen und Perspektiven von Mitarbeitenden ignorieren, laufen Gefahr, Warnzeichen bei den Betriebsabläufen und innovative Ideen zu übersehen. Informationen müsse in einem Unternehmen nicht nur frei fließen können, sondern auch breit gestreut sein — vom Austausch unter vier Augen bis hin zu unternehmensweiten Kommunikationsmaßnahmen.
  • Schaffen Sie neue Touchpoints. Das Feedback von außerhalb des Unternehmens — von Kunden oder Lieferanten — ist für die betriebliche Agilität sehr wertvoll. Solche Rückmeldungen helfen Unternehmen dabei auszuloten, wie sie die betriebliche Flexibilität verbessern können, ohne die Geschäftspartner zu verstimmen.

    Nehmen Sie solche Inputs von außen also ernst und holen Sie sie aktiv ein. Digitale Touchpoints wie Bewertungsseiten oder Feedback-Portale erleichtern es Außenstehenden, Anregungen, Lob oder Beschwerden anzubringen. Unternehmen könne daraus Schlüsse für die nächsten Schritte ziehen.

Fazit

Nur wenn alle an einem Strang ziehen, ist betriebliche Agilität möglich. Jedes Unternehmen kann sich schnell und erfolgreich weiterentwickeln, solange es als Einheit funktioniert. Kommunikation ist das Fundament, das jedes Unternehmen festigt und alle Bereiche und Mitarbeitenden zusammenschweißt.

Über den Autor

Daniel Sztutwojner ist Chief Customer Officer und Mitgründer von Beekeeper, der Mitarbeiter-App für Ihre gewerblichen Teams. Die mobile Plattform von Beekeeper vereint Kommunikation und Tools und steigert damit Agilität, Produktivität und Sicherheit. Daniel Sztztwojner setzt sich dafür ein, Unternehmen zu mehr betrieblicher Effizienz zu verhelfen. Seine Karriere begann mit einem Studium der angewandten Mathematik, gefolgt von mehr als acht Jahren Erfahrung in der Verkaufs- und Kundenberatung.

Wirtschaftsfaktor Cannabis

In den Vereinigten Staaten machte Colorado 2012 per Volksentscheid den Anfang, es folgten die US-Bundesstaaten Washington, Oregon, Nevada, Kalifornien, Alaska, Maine und Massachusetts. Am 17. Oktober 2018 folgte Kanada auf Uruguay als zweites Land, welches Cannabis legalisierte.

Wie verändert Künstliche Intelligenz den Verkehr?

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 2. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

In dieser Folge über intelligente Softwarelösungen für Autos schauen wir uns an, was für Auswirkungen Künstliche Intelligenz auf diesen Bereich unseres Alltages hat und haben wird.

Computerstimme aus IAV-Video: „Welcome back, Peter. Ok, let us go to Westgate. Estimated time will be 5 minutes.“

 

Dem Auto der Zukunft werde ich wahrscheinlich noch nicht einmal sagen müssen, wohin ich möchte: Es hat Zugriff auf meinen digitalen Kalender, gleicht Daten und Uhrzeiten ab und fährt mich automatisch zu meinen Terminen – während ich am Laptop arbeite, schlafe, Filme gucke oder telefoniere.

 

Computerstimme: „I have found a meeting sheduled with Susan. Do you want to make a reservation?“

„Ich habe einen Termin mit Susan für heute Abend gefunden. Soll ich ein Restaurant reservieren?“

 

Das Computersystem organisiert das Date, während sich der Fahrer zurücklehnt, das Entertainment-Programm genießt und den Autopiloten durch den Straßenverkehr von Los Angeles navigieren lässt. Im Internet kursieren tausende solcher Werbevideos der Automobilindustrie. Sie zeigen, was technisch alles möglich sein kann.

 
 

Computerstimme aus IAV-Video: „The vehicle is slowing down because of road works ahead.“

Science-Fiction oder Zukunftsvision?

Prototypen selbstfahrender Autos, LKWs und Busse existieren bereits und werden auch schon im Straßenverkehr getestet, nicht nur in den USA, auch bei uns in Deutschland. Aber: Was bedeutet es eigentlich, wenn Maschinen statt Menschen lenken? Was hat das für Auswirkungen auf unseren Straßenverkehr? Wer haftet, wenn ein Softwarefehler einen Unfall verursacht? Wenn Computer das Steuer übernehmen: Das ist jetzt unser Thema.

Dieser Podcast ist die zweite Folge unserer Serie über Künstliche Intelligenz. In der ersten Folge ging es um die Frage: Was ist das überhaupt, Künstliche Intelligenz? Und warum ist das Thema so wichtig? In dieser Folge über intelligente Softwarelösungen für Autos schauen wir uns an, was für Auswirkungen Künstliche Intelligenz auf diesen Bereich unseres Alltages hat und haben wird.

 

Mirko Knaak: „Wenn wir von autonomem Fahren sprechen, bedeutet das, dass man wirklich wirklich nichts mehr machen muss, dass jemand, der keine Fahrerlaubnis hat, mit dem Auto fahren darf, also z.B. wenn er betrunken ist, ein Kind ist oder ein alter Mensch.“

Sagt Mirko Knaack. Der Informatiker und Spezialist für Künstliche Intelligenz leitet das Digital Lab des Berliner Automobildienstleiters „IAV“. Hier arbeitet er mit 200 Ingenieur/innen und Software-Entwickler/innen an der Zukunft unserer Mobilität; daran, dass Fahrzeuge bald von alleine fahren, aber auch an der Weiterentwicklung von Fahrerassistenzsystemen:

 

Mirko Knaak: „Am einfachsten kann man sich vorstellen Siri im Auto: Das reagiert auf menschliche Sprache, das Auto reagiert auf Gesten, auf verschiedene andere Weise. Die Art und Weise, wie wir mit dem Auto kommunizieren, wird sich dramatisch verändern: Was wäre, wenn das Auto erkennen würde, wenn wir happy, traurig, müde oder wütend sind und sich daraufhin verhält?“

Eine Kamera im Auto könnte meine Mimik beobachten; ein Sensor erkennen, wie ich auf das Gaspedal trete, und daraus schließen, wie ich gestimmt bin. Der Bordcomputer könnte dann reagieren – und entweder eine beruhigende oder belebende Beleuchtung aktivieren. Solche Assistenzsysteme werden bald auf den Markt kommen.

Aber auch komplett selbst fahrende Autos seien in wenigen Jahren marktreif, sagt Mikro Knaack. Nicht nur klassische Automobilkonzerne treiben die Entwicklung voran, auch Unternehmen wie die Google-Schwester Waymo. Die Roboterautos von „Waymo“ werden bereits seit dem Herbst 2017 unter Realbedingungen, im ganz normalen Straßenverkehr, getestet: Eine Flotte autonomer Minivans fährt Menschen durch die Straßen von Phoenix in Arizona. John Krafzik, Geschäftsführer von Waymo proklamiert:

 

Waymo-CEO: „Listen, we are seeking not to build a better car, our goal is to build a better driver.“

Ein Algorithmus ermüdet nicht, nimmt keine Drogen, lässt sich nicht ablenken, kennt keinen Geschwindigkeitsrausch, hat keinen Stress und hält sich immer an die Verkehrsregeln. Kameras und Sensoren registrieren zu jeder Zeit alles, was um das Auto herum passiert. 360 Grad-Umsicht ohne blinden Winkel garantieren, dass kein Fahrradfahrer oder keine Fahrradfahrerin beim Rechtsabbiegen übersehen wird.

 

Mirko Knaack: „Wir gehen davon aus, dass die Unfallzahlen signifikant zurückgehen. Es ist gerade die Vision, dass wir zu null Verkehrstoten kommen können. Das ist weitgehend. Ob das so weit kommt, weiß ich nicht.“ 

Noch allerdings gibt es einige technische Probleme: Die computergesteuerten Autos können zum Beispiel noch nicht hören, und auf ein Martinshorn reagieren. Um gewisse Situationen richtig einzuschätzen, fehlt ihnen außerdem etwas Entscheidendes: der gesunde Menschenverstand.

Wenn, zum Beispiel, ein Mann mit seinem Kind auf dem Bürgersteig steht, dann würde ein selbstfahrendes Auto anhalten. Ein Mensch würde sofort erkennen, dass die beiden gar nicht über die Straße wollen, sondern, dass der Vater seiner Tochter nur die Schuhe zu bindet. Die Künstliche Intelligenz hingegen stoppt. Was würde das in der Praxis bedeuten? Könnten Fußgänger den Verkehr lahm legen, in dem sie sich einfach an den Straßenrand stellen?

Für eine Vielzahl solcher Fragen suchen Mirko Knaak und sein Team Lösungen:

 

Mirko Knaak: „Die Frage ist zwar, so wie ich sie sehe: Ist das Auto nicht dann zu langsam, wenn es sich an alle Verkehrsregeln hält? Das ist eine spannende Frage. Wenn es immer defensiv fährt und immer alle Verkehrsregeln hält, würde es nicht komplett ausgebremst?“

Ein weiteres Problem: Auch bei selbstfahrenden Autos kommt es zu optischen Täuschungen: Nebel, Schnee und eine tief stehende Sonne stören auch die Sicht von Kameras und können dazu führen, dass Situationen falsch eingeordnet werden. Und was passiert, wenn ein Aufkleber auf Verkehrsschildern klebt oder Verkehrszeichen von Graffitis übersprüht sind?

Im letzten Jahr ist ein Fahrer bei einem Unfall in einem Tesla-Sportwagen gestorben: Er hatte den Autopiloten eingeschaltet und sich, entgegen der Hinweise von Tesla, ganz darauf verlassen. Das Auto ist gegen einen kreuzenden Sattelschlepper gerast: Die Kameras des Autopiloten konnten den weißen Anhänger des LKWs nicht vom Himmel unterscheiden.

Wer ist jetzt schuld? Der Automobilkonzern? Der Fahrer? Die Softwareentickler/innen? Wobei Mirko Knaak zu bedenken gibt, dass es auch bei größter Sorgfaltspflicht unmöglich sei, eine Software komplett ohne Fehler zu entwickeln.

 

Mirko Knaak: „Es wird dazu kommen, dass Maschinen Menschen töten. Vielleicht viel weniger als heute Menschen Menschen töten im Verkehr. Aber es ist nicht auszuschließen, dass Maschinen sich falsch verhalten. Die Frage ist, was passiert dann und wie geht die Gesellschaft damit um, wenn es insgesamt weniger Verkehrstote gibt?“

Konstantin von Notz: „Ich glaube, dass diese Haftungsfrage mega relevant ist, und dass man die Frage nach strafrechtlicher Verfolgung regeln muss. Und dass man am Ende nicht sagen kann: Das war eine Maschine und hier ist aber leider niemand verantwortlich.“

Sagt Konstantin von Notz. Der Jurist sitzt seit 2009 für die Grünen im Bundestag und und ist dort für die Bereiche Innen- und Netzpolitik zuständig.

 

Konstantin von Notz: „Das ist eine sehr komplexe, vielschichtige Regelungssache: Da geht es um Standards, da geht es um Haftungsfragen, da geht es um die Einschränkung von bestimmten Geschäftsmodellen und das Ermöglichen von anderen Geschäftsmodellen, da geht es um Transparenzfragen, also da ist viel zu tun.“

Mit der Frage nach Regulierung und Kontrolle dieser neuen Möglichkeiten der Künstlichen Intelligenz beschäftigen wir uns eingehend im vierten Teil unserer Podcastserie. Neben den juristischen, gibt sich auch ethische Probleme:

 
 

Konstantin von Notz: „Man wird den Eltern, deren Kind tot gefahren ist, nicht mit einer Statistik kommen und sagen, dass ja unter dem Strich sehr viel weniger Kinder sterben. Man wird auch hier für gesellschaftliche Versöhnung sprechen müssen, das ist auch wichtig für die Akzeptanz einer solchen Technik. Und über all diese Fragen ist noch nicht ausreichend gesprochen worden.“

Sagt Konstantin von Notz. Um diese juristischen und ethischen Fragen anzugehen, hat Alexander Dobrindt als Minister für Verkehr und digitale Infrastruktur 2017 ein Gesetz zur Änderung der Straßenverkehrsordnung entworfen und eine Ethikkommission einberufen. Noch bevor die Ethikkommission ihr Ergebnis vorlegen konnte, wurde allerdings das Gesetz auf den Weg gebracht und vom Bundestag verabschiedet.

Es ermöglicht, dass automatisierte Systeme im öffentlichen Verkehr genutzt werden können, aber nur, wenn „der Fahrzeugführer dem technischen System in bestimmten Situationen die Fahrzeugsteuerung übergeben kann.“

Also nichts mit Zurücklehnen und Nickerchen machen. Sprecher: Die Fahrer/Innen sind dazu verpflichtet, wachsam zu bleiben, um die Steuerung im Notfall wieder übernehmen zu können. Mit dieser Einschränkung bleibt die Frage nach der strafrechtlichen Verantwortung und Haftung weiterhin unklar, sagt Constanze Kurz auf der Konferenz „Das ist Netzpolitik“ in Berlin im September 2017.

Die Informatikerin ist Sprecherin des Chaos Computer Clubs (CCC) und Redakteurin bei netzpolitik.org. Seit Jahren beschäftigt sie sich mit autonomen Fahrzeugen.

 

Constanze Kurz, CCC: „Das heißt, die Haftung liegt in keinem Fall bei dem Hersteller. Sie wird in sehr vielen Fällen umstritten sein, weil man sich eben nicht umdrehen kann, Füße hochlegen kann, schnarchen kann, sondern man muss ja, um diese offensichtlichen Umstände zu erkennen, die Fahrsituation verfolgen. Es ist relativ wenig darüber berichtet worden, aber man kann schon sagen, dass das ein Geschenk an die Autoindustrie ist.“

Die Rechtslage ist also weiterhin schwammig. Aber was sagt die Ethikkommission? Lieber keine Roboterautos? 

Nein, ganz und gar nicht. Die eingesetzte Ethikkommission schreibt in ihrem Bericht vom Sommer 2017, dass das automatisierte Fahren sogar ethisch geboten sei, wenn die Systeme weniger Unfälle verursachen würden als menschliche Fahrer – was aller Wahrscheinlichkeit nach so sein wird. Und was ist mit dem TrolleyProblem? 

Auch darum hat sich die Ethikkommission gekümmert: Das TrolleyProblem umschreibt folgendes, moralische Dilemma: Einem autonomen Fahrzeug kommt auf einer Landstraße ein LKW entgegen. Es muss ausweichen. Allerdings spielt am linken Straßenrand ein Kind, am rechten Straßenrand wartet eine Gruppe alter Menschen auf einen Bus.

Wie soll das Auto reagieren? Die alten Leute opfern, um das Kind zu retten? Oder gar nicht ausweichen und damit die eigenen Insassen sowie die Insassen des entgegen kommenden LKWs in Lebensgefahr bringen? Während Menschen in einer solchen Situation im Affekt handeln, müssen wir dem Algorithmus eine Handlungsanweisung geben. Doch nach welchen Richtlinien soll das geschehen?

 

Bericht der Ethikkommission: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen, Alter, Geschlecht, körperliche oder geistige Konstitution unzulässig.“

…heißt es im Bericht der Ethikkommission. Damit ist das TrolleyProblem aber noch nicht gelöst. Vielleicht lässt es sich auch nicht lösen. Die Kommission zumindest räumt ein:

 

Bericht der Ethikkommission: „Ein solches Dilemma ist nicht ethisch zweifelsfrei programmierbar.“ 

Das Trolley-Problem wird zwar viel diskutiert, wenn es um selbstfahrende Autos geht, in der Praxis allerdings wird es kaum Bedeutung haben. Zu klein ist die Wahrscheinlichkeit, dass eine solche Situation entsteht. Sprecherin: Trotzdem beschäftigt uns dieses Gedankenspiel, denn es rührt an grundsätzliche Fragen: Mit dem technischen Fortschritt müssen wir immer mehr Verantwortung übernehmen für etwas, was wir bislang dem Schicksal überlassen konnten, sagt Joachim Fetzer, Professor für Wirtschaftsethik.

 

Joachim Fetzer: „Wir müssen an dieser Stelle, wie wir das in der Zivilisationsgeschichte schon oft gemacht haben, das, was bisher als Zufall galt, und damit auch als Schicksal, irgendwie in die eigene Hand nehmen. Den Prozess haben wir seit langem, das haben wir diskutiert beim Schwangerschaftsabbruch, bei künstlicher Befruchtung. Denn wir muten uns heute nicht zu, dass in so einem Dilemma, Situation mit rechts Seniorengruppe, links Kind, in der Mitte ich tot, dass jemand eine richtige Entscheidung trifft.

Sondern wir prüfen eigentlich nur, wurde die nötige Sorgfalt angewandt, ist er da sozusagen Mitschuld und überlassen den Rest dann eben emotional dem Schicksal. Für denjenigen, der am Ende bei so einem Unfall stirbt, und dessen Angehörigen ist es aber etwas anderes, ob ein Mensch in einer Dilemma-Situation eine bittere Entscheidung getroffen hat oder ob man sagen muss, der Computer hat gewürfelt, obwohl ich tatsächlich sagen würde: Lasst uns diskutieren über bestimmte Rangfolgen und Hackordnungen, immer plausibel diskutieren kann einer, da wird immer ein Rechtsbereich bleiben. Dem könnte man sogar dem Zufallsgenerator überlassen, denn ein Rest von Schicksal wird im Straßenverkehr sein.“

Wobei ein bisschen Schicksal bleibt – auch, wenn Computer fahren. Denn: Es handelt sich bei dieser Software um selbstlernende Systeme. Was und wie die Künstliche Intelligenz aber lernt, ist auch für die Programmierer/innen nicht bis ins Kleinste nachvollziehbar, so dass sie nicht alles im Vorhinein durchdenken können; und nicht alle Reaktion des Fahrcomputers voraus sagen können.

Und es gibt noch eine weitere Baustelle, an der die Entwickler/innen zurzeit arbeiten: die Datensicherheit. Selbstfahrende Autos, werden viel stärker noch als heute mit dem Internet und anderen Netzwerken verbunden sein werden.

Um alle Features nutzen zu können, werde ich dem autonomen Fahrzeug Zugriff auf meine persönlichen Daten geben müssen, wie zum Beispiel auf meinen digitalen Kalender. Außerdem sammelt das Fahrzeug selbst ja auch Unmengen von Daten über mich. Es kennt meinen Arbeitsweg, oder weiß, wo meine Kinder zur Schule gehen. Wie kann ich sichergehen, dass meine Daten bei mir bleiben – und nicht an Dritte verkauft werden, zum Beispiel an Läden, an denen ich täglich vorbei fahre…?

Aber es geht nicht nur darum zu verhindern, dass meine Daten nach außen gelangen. Umgekehrt soll sich aber auch niemand von außen in das System des Autos einloggen können. Schon heute wird über denkbare Horrorszenarien diskutiert: Was wäre, wenn jemand die Steuerung des Fahrzeugs hackt, und dann das Auto fernsteuern kann, um Insassen zu entführen? Oder das Auto als Waffe zu missbrauchen und in eine Menschenmenge zu lenken?

 

Mirko Knaak: „Natürlich ist eine Datenverbindung da und wenn eine Datenverbindung da ist, kann sie grundsätzlich gehackt werden. Genauso, wie eine Tür in einem Haus grundsätzlich aufgebrochen werden kann. Ist die Konsequenz davon, dass das Haus zumauern? Wahrscheinlich nicht. Also wir müssen uns da andere Möglichkeiten überlegen und so ähnlich ist das hier auch. Eine Datenverbindung ist essentiell, und nun müssen, dass das nicht oder so wenig wie möglich passiert.“

sagt Mirko Knaak, der an intelligenten Softwarelösungen für die Automobilindustrie arbeitet. Er selbst besitzt im Übrigen gar kein Auto und ist mit dem Fahrrad zum Interview gekommen.

 

Mirko Knaak „Ja, viele meiner Kollegen aus der klassischen Automobilbranche, die das Fahren als Freude am Fahren, als Fahrspaß empfinden, haben wahrscheinlich eher Schwierigkeiten mit der Idee des autonomen Fahrens und deswegen ist es vielleicht gar nicht so verwunderlich, wenn jemand wie ich, das das nicht so stark hat, sagt: Wir wollen gern ein System entwickeln wo man nicht mehr das Lenkrad in der Hand halten muss.“

Wird unser Leben ein besseres, wenn wir nicht mehr selbst fahren, sondern von Computern gefahren werden?

Die Antwort hängt weniger von der Technik ab als von uns. Wir müssen juristische Fragen und ethische Probleme klären. Wir müssen uns um den Datenschutz kümmern und uns bewusst werden, dass die Automobil wie auch Tech-Konzerne die Entwicklung autonomer Fahrzeuge, vorantreiben, um Profit zu machen – auch wenn es Waymo, Tesla und Co in ihren Reden um hehre Absichten geht.

Was Roboterautos für unsere Gesellschaft bedeuten, ist schwer voraus zu sagen: Vielleicht werden Unmengen von Fahrzeugen unsere Straßen verstopfen, weil auf einmal viel mehr Menschen, wie zum Beispiel auch Kinder, fahren dürfen. Vielleicht ziehen massenhaft Leute aufs Land, weil langes Pendeln keine Belastung mehr ist? Vielleicht werden wir keine eigenen Autos mehr brauchen, weil uns eine Flotte selbstfahrender Taxis durch die Stadt kutschiert. Nachts parken sie außerhalb und unsere Städte werden nicht mehr zugeparkt sein, sondern Platz haben für Grün, Straßencafés und Spielplätze.

Autonome Fahrzeuge bergen Risiken – aber auch so viele Chancen. Unser Verkehr könnte sicherer, sauberer, staufrei, effektiver werden. Hört sich doch nach Zukunft an, oder?

Folge 1: Was ist Künstliche Intelligenz

Folge 3: Künstliche Intelligenz in der Verbrechensbekämpfung

In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist ein Produkt des Audiokollektivs.
Autoren und Autorinnen:
Anna Bilger, Vanessa Loewel, Lukasz Tomaszewski.
Gesprochen haben: Lukasz Tomaszewski und Anna Bilger.

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

Aufmacherbild / Quelle / Lizenz
Photo by Randy Tarampi on Unsplash

Was ist Künstliche Intelligenz?

Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI

Staffel I – 1. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction-Romane und Filme aus Hollywood. Doch was ist wirklich möglich? Was ist eigentlich Künstliche Intelligenz? Wer denkt da? Wo wird künstliche Intelligenz eingesetzt und welche Probleme gibt es?

„Hallo Siri.
Moin. Moin.
Wie ist das Wetter heute?
Hier ist die Vorhersage für heute.
Wird es regnen?
Ja, es wird vermutlich etwas regnen.“

Siri in unserem Iphone sagt uns wie das Wetter wird. Alexa, die Software von Amazon, kann unseren Backofen vorwärmen. Und Samsungs Sprachassistent Bixby kann Gegenstände, die vor die Kamera gehalten werden, erkennen und im Netz recherchieren. Schöne smarte Welt: intelligente Maschinen und smarte Assistenten können immer mehr Dinge, die bisher nur Menschen konnten: Lesen, schreiben, interagieren und – mehr oder weniger – verstehen.

Was bedeutet das für unser Leben? Und wie wird künstliche Intelligenz die Art und Weise verändern wie wir kommunizieren, arbeiten, lernen und konsumieren? Über diese Fragen wurde geredet bei der Konferenz „Netzregeln 2017“, veranstaltet von der Heinrich-Böll-Stiftung und dem Branchenverband Bitkom. Und das wollen wir jetzt vertiefen in diesem Böll-Spezial – in der 4-teiligen Podcast-Serie werden wir uns auseinandersetzen mit Visionen und Vorurteilen und eine Bestandsaufnahme machen.

Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction-Romane und -filme aus Hollywood: Terminator, Blade Runner, Her, Odysee 2001 – meist spielen sie mit der Idee einer superintelligenten Maschine, eines Roboters außer Kontrolle, einer Welt, in der Maschinen fühlen können. Doch was ist wirklich möglich? In Folge 1 dieser Podcast-Reihe geht es darum, die Grundlagen zu klären. Was ist eigentlich Künstliche Intelligenz? Wer denkt da? Wo wird Künstliche Intelligenz eingesetzt und welche Probleme gibt es?

Was ist Künstliche Intelligenz?

 

Aljoscha Burchhardt: Bei der künstlichen Intelligenz ist die Idee mal ganz platt gesprochen, dass wir Software-Systeme, die entweder auf unserem Smartphone oder Computer oder auch auf einem Roboter sind, ‚aufschlauen’, sodass sie ihre Aufgaben so erledigen, als wären sie ein Stück weit intelligent.

Aljoscha Burchhardt forscht seit 10 Jahren am Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin.

Intelligenz ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit eines Menschen. Aber was das genau meint, ist schon beim Menschen nicht so ganz leicht zu sagen: Meint es die analytischen Fähigkeiten? Gehören auch die emotionalen dazu?

 

Joachim Fetzer: Künstliche Intelligenz wie sie heute in der Praxis und in der Wirtschaft stattfindet, sind Technologien, bei denen Maschinen irgendwie so ähnlich werden, dass wir Menschen das Gefühl haben, da sei was intelligent – was wir manchmal übrigens auch bei Hunden oder bei Tieren denken.

Joachim Fetzer ist Wirtschaftsethiker und setzt sich mit philosophischen und ethischen Fragen rund um die Digitalisierung auseinander.

Wann denken wir bei Maschinen sie seien intelligent und was macht ihre Intelligenz aus?

 

Mirko Knaack: Darum ist meine Definition wahrscheinlich am ehesten: eine Maschine ist genau dann intelligent, wenn sie etwas tut, wozu ein Mensch Intelligenz bräuchte.

Mikro Knaack ist Informatiker und leitet das Digital Lab der IAV Gmbh, die selbstfahrende Autos programmiert. Er kommt auch in Folge 2 unserer Podcast-Serie zu Wort, wenn wir uns ausführlich mit der Frage beschäftigen, wie Künstliche Intelligenz unsere Mobilität verändert.

Autos sind so ein Beispiel: eine Maschine lernt, was bisher nur Menschen zu können glaubten. Und ist darin sogar nachweislich mindestens genauso gut, wenn nicht besser.

 

Jeanette Hofmann: Ich spreche zurzeit von „machine learning“ und das finde ich tatsächlich eine sehr interessante Entwicklung, weil hier Maschinen anhand von Trainingsdaten, die ihnen Beispiele vorgeben, auf klar definierte Ziele hin lernen, eigenständig Handlungen auszuführen, die bislang entweder von Menschen ausgeübt wurden oder so gar nicht möglich waren.

Jeanette Hoffman ist Professorin für Internetpolitik an der Freien Universität Berlin.

Man kann es also so sagen: Ein künstliches System lernt aus Beispielen und kann diese verallgemeinern, wenn die Lernphase beendet ist. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. Diese Erkenntnisse generiert die Maschine mit Hilfe eines Algorithmus.

Ein Algorithmus gibt eine Vorgehensweise vor, um ein Problem zu lösen. Anhand dieses Lösungsplans werden dann in kleinen Schritten Eingabedaten in Ausgabedaten umgewandelt. Ein Algorithmus gilt dann als Künstliche Intelligenz, wenn er lernt. Yvonne Hofstetter, IT-Unternehmerin und Buchautorin:

 

Yvonne Hofstetter: Wenn wir erst mal von der Informationstechnologie ausgehen, dann sind künstliche Intelligenzen Maschinen, die einen Reasoning-Mechanismus haben, also etwas beobachten, etwas wahrnehmen können. Die daraus lernen können, also lernfähig sind. Damit sind wir beim Thema neuronale Netze, Reinforcement-Learning angekommen. Und die sind in der Lage strategische oder taktische Entscheidungen unter Unsicherheit zu treffen: Das ist unsere Definition in der IT.“

Diese Technologie begegnet uns derzeit in vielen Bereichen, prominentes Beispiel ist etwa Google Translate. Was „Lernen“ in diesem Zusammenhang bedeutet, erklärt Aljoscha Burchhardt vom DFKI:

 

Aljoscha Burchhardt: Wenn ihr an ein Übersetzungssystem denkt, so wie Google-Übersetzer oder so, das wird mit Daten gefüttert. Eingabesatz Deutsch, Ausgabesatz Englisch und davon Hunderttausende. Und dann lernt dieses System auf eine mathematische Art und Weise Regularitäten. Welches Wort man in welches Wort übersetzen muss. Und dann kann es die Übersetzungsleistung erbringen.

Aber letztlich ist das System dabei komplett dumm. Das weiß nichts von Linguistik, das weiß nichts von Kulturen, das weiß nicht was rot bedeutet – aber es kann rot eben in ‚rouge’ übersetzen und es weiß auch, dass rotes Auto ‚voiture rouge’ werden muss. Dass ich also sozusagen Adjektive und Nomen verdrehen muss, aber nicht auf linguistischer Basis oder so, sondern es kann es einfach tun. Das heißt: Es ist eigentlich ein vollkommen interessanter Fachidiot, ein autistisches System.

Warum aber dieser Hype um Maschinelles Lernen und Künstliche Intelligenz jetzt? Schließlich gilt eine Konferenz im Jahr 1956 am Dartmouth College in New Hampshire als Geburtsstunde der Künstlichen Intelligenz. Sie ist also mehr als 60 Jahre alt. Doch erst in den 1980er Jahren wurden die ersten künstlichen neuronalen Netze entwickelt, wie wir sie heute kennen. Diese Netze bilden das Neuronennetz des menschliche Gehirns nach und haben die viel versprechende Eigenschaft, ihre Regeln von Grund auf selbst zu lernen.

 

Aljoscha Burchhardt: Damals fehlte es aber noch an Daten und Computpower. Und so hat man erst mal mit anderen Verfahren gearbeitet die letzten 20 Jahre und das sind dann eben diese Verfahren, die heute eigentlich den großen Hype gebracht haben. Wir haben Daten, wir haben Computpower, wir können übersetzen, wir können ein Auto steuern, wir können Menschen im Go schlagen.

Künstliche neuronale Netze bestehen aus sehr einfachen, dafür aber extrem vielen miteinander vernetzten mathematischen Funktionen. Im Laufe des Trainings, nach Ansicht von unzähligen Beispielen, lernen sie etwa, was ein Gesicht ausmacht oder was eine Katze definiert.

Mit jedem neuen Training erhält das Netz Feedback und justiert daraufhin seine Parameter neu. Mit den drastisch gefallenen Speicherkosten der vergangenen Jahre und der exponentiell gestiegenen Leistungsfähigkeit der Computer haben sich auch die Möglichkeiten künstlicher neuronalen Netze weiterentwickelt.

Und vor allem liefern wir alle die Daten, die Künstliche Intelligenz zum Lernen braucht. Wir laden Bilder ins Internet, schreiben Nachrichten in den sozialen Netzwerken, wir benutzen die Spracherkennung unserer Smartphones. Jeanette Hofmann von der Freien Universität Berlin:

 

Jeanette Hoffmann: Wir können uns etwa denken, dass im Zusammenhang mit Big Data sehr viele Möglichkeiten der Analyse entstehen, die wir so bisher gar nicht gehabt haben. Das kann beispielsweise Krankheitsbilder betreffen, aber auch natürlich Methoden des Behandelns von solchen Krankheiten, auch da gibt es sehr viele Fortschritte. Dann im Bereich Spracherkennung wird sich extrem viel tun. Das heißt, wir haben im Verhältnis zwischen Menschen und digitalen Geräten eine neue Schnittstelle, die sehr wichtig werden wird.

Das, was wir ja jetzt schon im Smart Home Bereich sehen, dass man faktisch sprachlich Anweisungen geben kann, da passiert sehr viel. Dann selbstfahrende Fahrzeuge wird ein großer Bereich. Überhaupt denke ich, dass im Anschluss an das Internet der Dinge sehr viel weiter automatisiert werden wird. Das heißt, wir erzeugen einerseits sehr viele Daten und mit Maschinen Learning entwickeln wir auch neue Analyse-Kapazitäten.

Je mehr wir smarte Anwendungen nutzen, desto besser kann das System lernen und desto besser werden auch die Anwendungen funktionieren. Der Preis ist allerdings, dass wir immer gläserner werden und unsere Daten privatwirtschaftlichen Unternehmen überantworten.

Ein aufsehenerregendes Beispiel dafür was Künstliche Intelligenz leisten kann, ist 2016 das Programm Alpha Go, vom Google Labor Deepmind entwickelt. Das Programm Alpha Go hat gegen den besten Go-Spieler der Welt gewonnen. Das Brettspiel Go galt lange als zu komplex für Computer, weil es dabei auch auf Intuition ankommt.

Deepmind fütterte das Programm erst mit mehreren Dutzend Millionen Zügen aus menschlichen Partien Meister. Dann spielt die Software Millionen Spiele gegen sich selbst – und analysiert, welche Züge sie ans Ziel bringen – nämlich jene Züge, die Menschen mit großer Wahrscheinlichkeit nicht spielen würden.

Inzwischen gibt es ein weiteres System Alpha Go Zero – das System hat das Spiel selbst gelernt und zwar nur aufgrund der Spielregeln. Ihm wurden also keine menschlichen Spielpartien als Datenbasis gegeben. Alpha Go Zero ist damit um Längen besser geworden, als die Vorgänger Version Alpha Go. Das System hat also eigenständig gelernt und sich immer weiter verbessert.

Wo wird Künstliche Intelligenz eingesetzt und welche Probleme könnten auftauchen?

Künstliche Intelligenz gilt vielen Unternehmen als die Zukunftstechnologie. Alle großen Tech-Firmen arbeiten mit Künstlicher Intelligenz: Amazon, Google, Microsoft, Facebook, IBM. In Asien sind es Samsung, Aliababa und Tencent. Deutsche Firmen wie Volkswagen und BMW experimentieren mit Künstliche Intelligenz im Bereich des autonomen Fahrens. Aber auch Bosch und Siemens arbeiten damit – Bosch hat gerade angekündigt bis 2021 300 Mio. Euro in KI-Forschung zu investieren, weil bald kein Produkt mehr ohne auskomme.

Die Verheißungen sind also groß und es gibt viele Beispiele, wo KI das Leben von Menschen verbessert. So gibt es eine Software, mit der blinde Menschen in Indien mit Hilfe der Linse ihres Smartphones die Welt vor sich aufnehmen können und das Smartphone sagt ihnen, wenn sich Menschen, Gegenstände oder Hindernisse in ihrer Nähe befinden. Oder in der Altenpflege in Japan werden bereits jetzt Roboter eingesetzt, die mittels KI gesteuert werden.

 

Jeanette Hofmann: Es wird ja schon sehr viel Maschinen Learning eingesetzt. Das ist uns vielleicht gar nicht überall bewusst. Im Bereich der Spracherkennung, im Bereich von Suchmaschinen, überhaupt in sehr vielen Empfehlungs-Algorithmen steckt bereits Machine-Learning drin aber auch ein öffentliches Überwachungssystem. Etwa an Flughäfen wird überall schon Machine-Learning eingesetzt – dass man das wieder zurückdrehen kann, glaube ich nicht. Ich glaube auch gar nicht, dass die Bilanz von Vor und Nachteilen so ausfällt, dass man das derzeit rechtfertigen könnte.

An den Versprechen beispielsweise, dass der Straßenverkehr künftig sicherer wird, wenn Autos nicht mehr von Menschen gesteuert werden sondern von Maschinen, ist langfristig womöglich sogar etwas dran. Ich wüsste jedenfalls von keiner Studie, die das Gegenteil empirisch belegen könnte. Also ich würde nicht ausschließen, dass wir als Gesellschaft auch sehr stark davon profitieren.

Doch KI stellt unsere Gesellschaft auch vor viele Herausforderungen. Etwa weil die die Daten mit denen die intelligenten Maschinen trainiert werden, nicht neutral sind. Sie stammen oft aus dem Internet und reproduzieren damit die Vorurteile und Klischees, die auch im Netz kursieren. Ebenso wie die programmierten Algorithmen keine objektiven sind, sondern widerspiegeln was ihre Programmierer/innen denken.

Wenn ich etwa in der Bildersuche im Netz nach einer Hand suche, dann spuckt der Algorithmus fast nur weiße Hände aus. Wenn ich in der Websuche das Wort „liebevoll“ eingebe, dann vervollständigt Googles Textsoftware das mit „Frau“. Bei „durchsetzungsstark“ folgt „Mann“. Warum das so ist, erklärt Aljoscha Burchhardt vom DFKI.

 

Aljoscha Burchhardt: Das ist eben so, weil in den Texten, die diese Systeme im Internet finden, eben Männer durchsetzungsstark und visionär und Frauen eben liebevoll und gutaussehend sind. Das ist eben leider das, wie unsere Welt beschrieben worden ist. Und jetzt eben so ein System, das aus Daten diese Dinge gelernt hat, so ein System normativ umzubauen und zu sagen: „Pass mal auf Freundchen, soll aber nicht so sein, dass Frauen hübsch sind und Männer willensstark und es soll aber nicht so sein, dass Farbige eine höhere Wahrscheinlichkeit haben wieder straffällig zu werden als Weiße.“ Im Moment haben wir hier eigentlich ganz große Last auf den Data Scientists – als auf den Leuten, die sich darum kümmern, die Daten aufzubereiten.

Die Systeme werden von unserem Verhalten im Netz geprägt – und da ist relativ schnell zu sehen, wo die Grenzen von KI liegen wie das Beispiel eines Twitter-Bots von Microsoft gezeigt hat. Tay hieß der Bot, mit dem Microsoft 2016 junge US-Amerikaner/innen zwischen 18 und 24 erreichen wollte. Tay lernte von den User/innen im Netz – und sonderte innerhalb eines Tages statt freundlicher Tweets rassistische, antifeministische und rechtsextreme Tweets ab.

Das Beispiel zeigt, wie eine lernende künstliche Intelligenz sehr schnell entgleisen kann. Wie problematisch die Diskriminierung durch Daten werden kann, das beleuchten wir auch in Folge 3 unserer Reihe, wenn es um Pre-Crime Software geht, die künftige Kriminelle errechnen oder gefährdete Zonen identifizieren soll.

Eine weitere Herausforderung und eine der Ängste, die immer im Zusammenhang mit KI formuliert werden: Was ist eigentlich, wenn die Maschinen so schlau werden, dass kein Mensch sie mehr versteht? Wer kontrolliert sie dann? Existiert künstliche, lernende Superintelligenz erst einmal, gibt es dann eine Möglichkeit für uns, sie zu bändigen?

Mit Hilfe von Künstlicher Intelligenz werden wir zu fantastischen Lösungen kommen – doch wir wissen eigentlich nicht, wie die Systeme das gemacht haben, weil wir es intellektuell nicht mehr verstehen. Müssen wir also darauf vertrauen, dass die Maschinen schon die richtige Lösung gefunden haben?

Die Buchautorin Yvonne Hofstetter ist skeptisch:

 

Yvonne Hofstetter: Also diese KIs, die haben sogenannte Diskriminierungsfähigkeit. Diese KIs müssen diese Gruppe beispielsweise aufteilen in Kriminelle, nicht Kriminelle, Terroristen, nicht Terroristen, guter Bürger, schlechter Bürger. Das heißt: Wir kommen hier über diese KIs, über diese Mechanismen zu einem Selektionsmechanismus, zu einer Selektionsmethode.

Und dadurch, dass diese selektionsmethodisch statistisch arbeiten, sind hier auch Fehler inhärent, die passieren. Also kann es sein, dass Sie der Gruppe schlechter Bürger zugeordnet werden aber eigentlich sind Sie guter Bürger. Aber das ist halt einfach so. Das ist systemimmanent. Wir arbeiten mit Statistik, wenn es heißt Sie sind männlich und Sie liken bei Facebook Britney Spears, sind Sie mit 67 Prozent Wahrscheinlichkeit homosexuell. Naja, dann besteht die Möglichkeit, dass Sie mit 33 Prozent nicht homosexuell sind.

Und Sie haben hier also diese Unschärfe. Das ist schon ein Risiko für die Menschen, weil wir im Grunde genommen überhaupt keine Transparenz haben, wie diese Mechanismen funktionieren, wie die Modelle ausschauen, die dahinterliegen, ob die Daten auch richtig, vollständig, neu, sauber sind, auf denen diese Entscheidungen getroffen werden.

Aljoscha Burchhardt vom DFKI meint, wir sollten Künstliche Intelligenz nicht dämonisieren.

 

Aljoscha Burghardt: Also die haben keine eigenen Antriebe, die wollen nichts erreichen, die wollen uns nicht irgendwie Intelligenz-mäßig ablösen oder irgendetwas. Woher sollten sie? Die sind genau für ihre Aufgabe von uns gemacht und die erledigen sie. Diese Hollywood-Fantasie kann ich mit den heutigen Systemen überhaupt nicht teilen. Und das sind auch alles Insel-Begabungen – das System spielt Go, das andere fährt Auto das dritte übersetzt, aber dass die drei sich jetzt plötzlich zusammentun und sagen „Hey, ich bin der autofahrende, Go-spielende, SUPER-Übersetzer“ – und morgen die ganze Welt, das sehe ich nicht kommen.

Wie intelligent und menschlich Maschinen werden können, wird aber durchaus diskutiert- wenn auch kontrovers. Was ist einzigartig am Menschen und was unterscheidet ihn von der Maschine? Diese Frage ist für den Wirtschaftsethiker Joachim Fetzer eine Leitfrage für die Zukunft, der Mensch bleibt für ihn der zentrale Bezugspunkt.

 

Joachim Fetzer: Es gibt so eine empirisch schwer zu greifende innere Welt, die auch die Hirnforschung nicht erdacht hat, die aber – egal ob es sie gibt oder nicht – für unsere Kultur so wesentlich ist, dass es eine Subjektivität mit einer Geschichte oder wie auch immer man das ausdrücken kann, gibt. Das ist die Basis für Rechtssysteme und für viele andere Punkte und dieses Element von Menschsein, das für die Freiheit wesentlich ist, ist in dieser KI einfach mal nicht enthalten.


Wie also wollen wir in unserer Gesellschaft mit den Möglichkeiten der Künstlichen Intelligenz umgehen?

Sie könnte in vielen Bereichen einen großen Fortschritt bringen: in der Medizin, in der Pflege, im Verkehr. Auf der anderen Seite birgt sie Risiken, die wir heute noch nicht absehen können.


In Folge 2 soll es jetzt um eines der wichtigsten Anwendungsgebiete gehen: um selbstfahrende Autos und wie KI unsere Mobilität verändern wird.

In Folge 3 diskutieren wir dann Pre-Crime-Software und Social-Scoring.

In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.

>>>

Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.

Alle Podcast-Folgen zur Künstlichen Intelligenz

Dieser Podcast ist eine Produktion des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski.
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer.
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger. 

Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0

 

 

Datenschätze smart genutzt

Wie Retailer das Potenzial ihrer Daten heben?

Die Menge an Daten, die generiert und gesammelt werden, explodiert und wächst exponentiell. Diese Daten geben Vermarktern die Möglichkeit, Verbraucher zu verfolgen, Ergebnisse vorherzusagen und entsprechend zu reagieren: In der Theorie die richtige Botschaft an die richtige Person zur richtigen Zeit. Aber nicht in der Praxis. Trotz der Fülle an Daten ist die Fähigkeit der Marketer, sinnvolle Entscheidungen zu treffen und geschäftskritische Maßnahmen zu ergreifen, nicht verbessert. Sie verlassen sich auf Taktiken und Metriken – Retargeting, Impressionen, CTRs, Social Shares und so weiter -, die sich seit einem Jahrzehnt nicht verändert haben. Das Ergebnis: Marketer konzentrieren sich auf die einfach zu messenden Ziele, nicht auf die, die wichtig sind. Dabei lernen sie die falschen Insights aus ihrem Marketing.

Die Daten richtig einzusetzen, um seine Kunden auf eine persönliche Art und Weise anzusprechen und einen Wettbewerbsvorteil gegenüber der Konkurrenz zu erlangen, ist eine echte Herausforderung. Denn, Daten lassen sich auf ganz unterschiedliche Art und Weise interpretieren und bergen daher auch ein extrem hohes Potenzial für falsche Schlussfolgerungen. Die Gründe dafür sind vielfältig. Einer der wichtigsten, auf den wir in diesem Text näher eingehen werden, ist das Versäumnis, die Daten so miteinander zu verknüpfen, dass sie die richtigen Erkenntnisse liefern.

Was meinen wir überhaupt, wenn wir von Daten sprechen?

In der Welt des Online-Marketings oder genauer gesagt des programmatischen Marketings, sind in der Regel Konsumentendaten gemeint wenn von Daten gesprochen wird. Hier werden Informationen über das Verhalten der Verbraucher verwendet, um entscheiden zu können wie Dienstleistungen oder Produkte an bestimmte Zielgruppen am besten vermarktet werden können. Sammeln kann man diese Daten über viele verschiedene Wege.

Website-Betreiber können unter anderem ihre Nutzer zum Ausfüllen einer Umfrage oder einer Produktbewertung bewegen oder man verwendet Pixel, auch Tags genannt, um mehr über das Verhalten der eigenen Kunden zu erfahren. Man muss sich jedoch bewusst machen, dass Daten nicht gleich Daten sind. In der Branche wird zwischen First-Party, Second-Party und Third-Party-Daten unterschieden. First-Party-Daten bezeichnen Informationen, die direkt und unmittelbar von den eigenen Kunden gespeichert werden. Zum Beispiel durch eine Newsletteranmeldung oder generell das Browsingverhalten der eigenen Kunden, das auf der Website verfolgt wird. Daten sind Second-Party, wenn diese von einer anderen Firma gesammelt und direkt weiterverkauft werden. Bei Third-Party-Daten handelt es sich um Daten, die von einer dritten Partei gesammelt werden, welcher diese dann als Datenpaket bereitstellt.

Daten miteinander verbinden

Es gibt unendlich viele Daten und die Menge wächst in einer atemberaubenden Geschwindigkeit immer weiter an. Für Vermarkter besteht die größte Herausforderung darin die Daten sinnvoll zu selektieren, zu nutzen und daraus die richtigen Erkenntnisse zu gewinnen. Wie schaffen es nun Vermarkter ihrer Konkurrenz gegenüber einen Wettbewerbsvorteil zu schaffen und ihr Setup dementsprechend zu verbessern?

Um diese Frage zu beantworten, müssen wir uns genauer ansehen, welche Arten von Daten wir miteinander verbinden können. Dies sind die gängigsten Datenquellen, die im Online Marketing verwendet werden:

  • Customer Relationship Management (CRM): Unabhängig davon, ob sie in einer Software, wie zum Beispiel Salesforce, oder auf andere Weise verarbeitet werden, sammeln die meisten Unternehmen Daten über bestehende Kunden und deren Verhalten.
  • Adserver: Daten von Anzeigenservern bieten eine Zusammenfassung aller digitalen Aktivitäten und sind daher ebenfalls eine sehr wichtige Datenquelle.
  • Custom Client Integrationen: Diese Art von Daten fällt häufig unter den Tisch, ist aber nicht minder interessant: Denn sie geben Auskunft über externe Faktoren, die das Verbraucherverhalten beeinflussen. Damit kann das Wetter gemeint sein, bestimmte Aktionen von Konkurrenten oder Trends in den sozialen Medien. Grundsätzlich kann jeder Faktor, der das Verhalten Ihrer Kunden beeinflussen könnte, als wertvoller Datenpunkt dienen und herangezogen werden.
  • Pixel: Daten aus Pixeln oder Tags geben Auskunft über das Nutzerverhalten auf Deiner Website. 

„Daten, die bereits beim Kunden schlummern,
eröffnen neue und beträchtliche Potenziale
für Gewinnoptimierung.

Nils Kopnarski

Wie aber schafft man es, diese verschiedenen Datentypen erfolgreich miteinander zu verbinden?

Mit einer guten Infrastruktur, die aus drei wesentlichen Punkten besteht: Der Datenaufnahme, der Datenstrukturierung sowie der Analyse bzw. Aktivierung.

Am Besten lässt sich der Stellenwert der drei Aspekte anhand einer Analogie der Nahrungsmittelproduktion erklären. Der erste Schritt, die Datenaufnahme, bedeutet zunächst die Daten zu “ernten” und diese zu einem Verteilerzentrum zu transportieren. So wird sichergestellt, dass die Daten nicht veralten, ähnlich wie bei dem Nahrungsmitteltransport. Im zweiten Schritt, der Datenstrukturierung, werden die Daten sortiert und organisiert, ähnlich wie Lebensmittel verpackt werden müssen. Im Anschluss wählt der Data Scientists jene Daten aus, die für die Analyse am wertvollsten erscheinen und beginnt mit der Ableitung der Erkenntnisse. Dieser Vorgang ist gleichzusetzen mit dem Käufer, der im Supermarkt bestimmte Lebensmittel auswählt, um ein Gericht kochen zu können.

Diese sogenannte Analytics-Infrastruktur gliedert den Analyse- und Datenverbindungsfluss in verschiedene Stadien, die von deskriptiv (beschreibend) über prädiktiv (vorhersagend) bis hin zu präskriptiv (vorschreibend) reichen. Der Prozess beginnt beim operativen Reporting, wie zum Beispiel für ein regelmäßiges Vertriebsmeeting am Montagmorgen oder weitreichendere Business Intelligence. Dazu zählen etwa integrierte Leistungsberichte und die Erstellung von KPIs oder interaktiven Dashboards.

Die Data Scientists kommen dann in der nächsten Phase ins Spiel: Der Datenanalyse. Hier werden Beziehungen zwischen verschiedenen Datenpunkten hergestellt sowie Muster und Trends identifiziert. Die nächsten beiden Phasen des Prozesses, die Segmentierung und das Predictive Modelling, nehmen einen prädiktiven Charakter an. Kunden und Produkte werden in unterschiedliche Segmente und Gruppen unterteilt, bevor darauf aufbauend Korrelationen und Kausalzusammenhänge modelliert werden. Anschließend werden Prognosen erstellt und künftige Ergebnisse vorhergesagt. Die letzte Phase, die sich aus Simulation und Optimierung zusammensetzt, ist präskriptiver Natur. Hier werden die in früheren Phasen gesammelten Erkenntnisse in konkrete Aktionen zur Lösung einer Herausforderung überführt.

Case Study: Full Funnel Datenstrategie zur Gewinnung neuer Kunden

Lasst uns diesen Prozess an einem konkreten Fallbeispiel veranschaulichen: Vor einiger Zeit trat der britische Retailer N’Brown an uns bei MiQ heran um ein erfolgreiches Online Business aufzubauen. Angesichts der Umorientierung der Kunden vom klassischen high-street retail hin zu Onlineshopping, steht und fällt der Erfolg eines Retailers heutzutage mit dieser Transformation. Während N’Brown bereits wertvolles Kapital in die Hand nahm um online neue Kunden zu akquirieren, gelang das nicht im gewünschten Umfang. Durch den Einsatz von MiQ gelang es die Erwartungen weit zu übertreffen und die Neukundenakquise um beachtliche 260% zu steigern.

Das gelang MiQ indem wir die existierenden CRM Daten von N’Brown mit third party data von Capture Pixel verbunden haben. So konnten wir nicht nur den idealen Neukunden für N‘Brown identifizieren, sondern auch den Zeitpunkt zu dem diese Kunden am meisten geneigt waren zu shoppen. Diese wertvollen Erkenntnisse haben wir mit N’Brown in der Marketingstrategie umgesetzt, die nun bis hin zu den Social Channels genau auf die gewünschten Kundensegmente ausgerichtet ist. Der Effekt dessen war zweierlei: Kunden die N’Brown bereits treu waren, wurden weniger angesprochen da es aus Marketingsicht nicht notwendig war. Diese Einsparungen konnten dann effektiv für die Neukundenakquise eingesetzt werden, die insgesamt um 260% gestiegen ist. Ein echter Erfolg für N’Brown und MiQ, der zeigt dass ein Datenexperte wie MiQ aus Daten, die bereits beim Kunden schlummern, neue und beträchtliche Potenziale für Gewinnoptimierung eröffnen kann.

Über den Autor

Nils Kopnarski, Head of Trading & Operations, DACH bei MiQ

Aus dem Public-Policy-Bereich kommend hat Nils Kopnarski die unbegrenzten Möglichkeiten von Big Data verinnerlicht und ist daher fest von dem datengetriebenen Ansatz im Digital Marketing überzeugt. Diesen Blickwinkel hat er durch seine mehrjährige Erfahrung im operativen Kampagnenmanagement bei MiQ weiter geschärft, wo er seit 2016 tätig ist. Als Experte für Programmatic Advertising sieht Nils die Zukunft des Media Tradings voll automatisiert, die Strategien jedoch weiter vom Menschen getätigt. Seit 2019 leitet er bei MiQ den operativen Bereich im DACH Markt.

Personenfoto: Bildrechte Klaus Knuffmann

Aufmacherbild / Quelle / Lizenz
Photo by AbsolutVision on Unsplash

Keine Modernisierung ohne Containerisierung

Von Daniel Braunsdorf

Die Containerisierung von Anwendungen ebnet Unternehmen den Weg in die Cloud. Gerade in Deutschland schalten einige an diesem Punkt wahrscheinlich schon ab, weil sie bei Cloud reflexhaft an Public Cloud und Hyperscaler denken. Doch auch für sie bieten Container handfeste Vorteile, weil sie beispielsweise neue Anwendungen schneller bereitstellen und bestehende Anwendungen leichter pflegen können. Ob diese nun in der Public Cloud, einer privaten Cloud innerhalb der eigenen Infrastruktur oder einer hybriden Umgebung laufen, ist dabei unerheblich.

Steht also die Modernisierung von Anwendungen an, sollten Unternehmen die Gelegenheit nutzen, diese mithilfe von Containern Cloud-ready zu machen. In der Regel bedeutet das, die Anwendung in Microservices aufzusplitten und diese in Container zu verpacken – im Prinzip lassen sich aber auch Anwendungen via Lift & Shift nahezu unverändert in Container übernehmen.

Dieses Vorgehen eignet sich für Anwendungen, deren Migration nicht lohnt oder die für die Cloud fit gemacht und später richtig modernisiert werden sollen. Auf diese Weise können Unternehmen ihre Infrastrukturen schneller vereinheitlichen und die Infrastrukturverwaltung sowie den Anwendungsbetrieb zeitnah vereinfachen.

Um die Containerisierung im Unternehmen einzuleiten und voranzutreiben, ist die Aufteilung von Anwendungen in Microservice-Module allerdings besser geeignet als Lift & Shift. Denn nur bei einer echten Migration zu Cloud-nativen Apps lassen sich die Vorteile von Containern vollumfänglich nutzen. Der modulare Anwendungsaufbau erleichtert es Entwicklern nämlich, Anpassungen vorzunehmen, Fehler zu beheben und neue Features nachzurüsten. Gleichzeitig können sie viele Prozesse der Qualitätssicherung und der Anwendungsbereitstellung automatisieren, sehr flexibel auf sich verändernde Performance-Anforderungen reagieren und Ausfälle besser abfangen.

Weniger Konflikte zwischen IT- und Fachabteilungen

Container tragen zu einer effizienteren Anwendungsentwicklung und einer agileren IT bei – letztlich helfen sie sogar, IT-Teams und Fachabteilungen näher zusammenzubringen, denen oft das Verständnis füreinander fehlt. Während Fachabteilungen regelmäßig nach neuen Funktionen und Anwendungen verlangen, die ihr Business voranbringen, hat für IT-Abteilungen zumeist die Pflege und Verbesserung der Infrastruktur höchste Priorität. Mit den Projekten zur Anwendungsmodernisierung verknüpfen Unternehmen diese beiden Interessen geschickt: Die Modernisierung einzelner Anwendungen mithilfe von Containern führt zu einer schrittweisen Aktualisierung der Infrastruktur, ohne ein riesiges Modernisierungsprojekt anzustoßen, dass enorme Kosten verursacht und die IT-Teams lange blockiert. Über die Zeit entsteht so eine Cloud-native, Container-basierte Anwendungslandschaft, in der Wünsche von Fachabteilungen schneller als bisher umgesetzt werden können. Zudem verteilen sich die Kosten der Modernisierung gut auf viele Einzelprojekte.

Die große Kunst besteht darin, die richtigen Anwendungen für die ersten Modernisierungsprojekte auszuwählen. Nicht zu einfach, damit der Lerneffekt nicht ausbleibt, aber auch nicht zu komplex, damit man sich nicht verhebt, lautet die Devise. Natürlich fängt man nicht mit der wichtigsten Unternehmensanwendung an, aber es sollte schon eine sein, die eine gewisse Bedeutung hat, um den Mehrwert der Container-Technologien einer relevanten Nutzerschaft aufzuzeigen. Denn die Anwender in den Fachabteilungen dienen dann auch als Multiplikator, die Begeisterung für die neuen Technologien im Unternehmen wecken und andere Mitarbeiter motivieren.

Veränderungsprozesse brauchen Zeit

Überhaupt sind Mitarbeiter und die Firmenkultur der Schlüssel für eine erfolgreiche Modernisierung der Anwendungslandschaft mit Container. Die wenigsten Projekte scheitern an der Technologie – die bekommen Unternehmen dank Container-Plattformen wie Red Hat OpenShift, die eine einfache Orchestrierung verschiedenster Arten von Containern erlauben, meist gut in den Griff. Eher ist die Kultur der Stolperstein, denn die neuen Technologien sind prädestiniert für eine agile Zusammenarbeit von Entwicklern, UX-Designern, Sicherheitsspezialisten, Experten für Qualitätsmanagement, IT-Betriebsteams und Anwendern aus den Fachbereichen.

Diese Zusammenarbeit entsteht nicht über Nacht und verursacht in der Anfangszeit oft Reibungspunkte, beispielsweise bei neuen Abstimmungsprozessen oder im Umgang mit Fehlern. In kleineren Projekten lässt sich der Wandel in der Firmenkultur erfahrungsgemäß behutsamer und besser einleiten als in großen, kritischen Projekten.

Meist ist aber ein Blick von außen hilfreich, weil langjährige Mitarbeiter ein wenig betriebsblind sind und von außen vorgebrachte Veränderungsvorschläge häufig offener aufgenommen werden. Ein externer Partner, der die ersten Projekte begleitet, kann daher extrem wertvoll sein, indem er nicht nur Technologie- und Lösungskenntnisse und umfangreiche Praxiserfahrung einbringt, sondern als Coach für Veränderungsprozesse den Kulturwandel begleitet.

Über den Autor:

Daniel Braunsdorf, Gründer und geschäftsführender Gesellschafter von Viada

https://www.viada.de

Digital Mindset effizient fördern

„Digital Mindset kann man nicht lehren, aber sehr effizient fördern.“

Open-Source-Expertin Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug setzt auf das beispiel- und richtungsgebende Vorbild der Führungsebene.

Frau Wörrlein, wenn uns die letzten anderthalb Jahre eines gezeigt haben, dann, dass Veränderungsbereitschaft essenziell für den Unternehmenserfolg ist. Inwiefern ist ein „Digital Mindset“ dafür hilfreich?

Zu einer echten digitalen Mentalität gehört aus unserer Sicht mehr als nur Veränderungsbereitschaft. Sie beschreibt eine Geisteshaltung die aufgeschlossen, offen, neugierig, aktiv und agil gegenüber Neuem ist, dieses aber nicht naiv und unkritisch übernimmt, sondern konstruktiv daraufhin prüft, inwieweit es Probleme löst und Zustände verbessert.

Diese kritisch-positive Haltung gegenüber dem digitalen Fortschritt wird in dem Maße zunehmend wichtiger, in dem die Digitalisierung immer mehr Unternehmen erfasst und ihre Geschäftsmodelle und Workflows prägt.

Wie schaffe ich ein entsprechendes Bewusstsein im Unternehmen – Stichworte Flexibilität, Agilität und Offenheit?

Ein solches Bewusstsein kann man nicht erschaffen, Offenheit gegenüber technischem Fortschritt nicht antrainieren. Es ist eine Prädisposition, die vorhanden sein muss, eine Art Bringschuld der Mitarbeiter, die man aus Unternehmenssicht als Messlatte bei der Personalplanung anlegt und bestenfalls durch positives Feedback fördern und belohnen kann.

Wir sollten uns vor pseudotherapeutischen Ansätzen in der Mitarbeiterförderung hüten. Man kann Menschen nicht dauerhaft zu einer bestimmten Einstellung motivieren, die nicht ihren Neigungen entspricht.

Oft reicht es ja völlig aus, sie nicht zu demotivieren. Das ist der Unterschied. Die größten Demotivationsfaktoren sind nun einmal schlechte Führung und nervtötende Technik. Mit einer Führungsebene, die den positiven Wandel vorlebt, sowie mit flexibel adaptierbaren und intuitiv zu bedienenden Tools, die die Arbeit erleichtern, ist also schon sehr viel gewonnen. Und für Letzteres ist Open Source die beste Voraussetzung.

Die Digitale Transformation kann nur mit agilen Projektmethoden angegangen werden. Einmal gestartet, wird man sich immer weiter bewegen und ständig neue Erfahrungen machen. Wie gehen Sie selbst vor, um sich immer wieder zu justieren und die ganzen neuen Technologien zu bewerten?

Wir verfolgen einen Dualismus von Makro- und Mikromanagement. Das klingt vielleicht hochgestochen, dahinter steckt jedoch ein ganz einfaches Prinzip: Es gibt feste Vorgaben, die sich nicht über agile Projektmethoden wie Scrum steuern lassen. Das sind beispielsweise Budgets, Zeitrahmen, vertragliche Vereinbarungen, Konventionalstrafen oder Meta-Roadmaps. Diese fixen Rahmen oder Frames brauchen eine klassische mittel- und langfristige Planung. Für das Mikromanagement operativer Aktivitäten, wie etwa die Entwicklung eines neuen Kommunikations-Tools und dessen ständige Kontrolle und Optimierung, nutzen wir dagegen die Agilität von Sprints und Tickets. Makro- und Mikromanagement werden laufend abgeglichen. Damit sind wir bisher gut gefahren.


Mit einer Führungsebene, die den positiven Wandel vorlebt, sowie mit flexibel adaptierbaren und intuitiv zu bedienenden Tools, die die Arbeit erleichtern, ist schon sehr viel gewonnen.


Wer offen, frei und agil denkt, kann sein Unternehmen durch die aktuellen Zeiten führen. Damit schließt sich der Kreis zur Veränderungsbereitschaft. Wie weit ist die Führungslandschaft in Deutschland da wirklich?

Wir maßen uns nicht an, andere Chefetagen zu bewerten oder zu kritisieren. Als virtuelle, multinationale Organisation mit Mitarbeitern in der ganzen Welt können wir jedoch Vergleiche ziehen. Dabei stellen wir fest, dass die Einstellung „digital ist etwas für die Anderen“ hierzulande noch relativ weit verbreitet ist. Es passiert sehr viel „top-down“ nach dem Schema von Anweisung (oben) und Ausführung (unten). Dieser Habitus ist aber nur schwer vereinbar mit dem, was wir vorhin als eine von zwei elementaren Voraussetzungen für die Beförderung des Digital Mindset im Unternehmen beschrieben und für wichtig befunden haben: das beispiel- und richtungsgebende Vorbild der Führungsebene.

Im Umkehrschluss bedeutet das: Der vielversprechendste Ansatzpunkt für die Entwicklung der Veränderungsbereitschaft und all den anderen angesprochenen Qualitäten liegt ganz oben, also genau dort, wo die strategischen Entscheidungen getroffen werden. Hier haben wir ein grundsätzliches Problem, das schnell gelöst werden muss, um im internationalen Wettbewerb den Anschluss nicht zu verlieren.

https://www.vnclagoon.com/

Aufmacherbild / Quelle / Lizenz
Photo by Prateek Katyal on Unsplash

Geschäftsmodellen der Zukunft auf der Spur

Gastbeitrag von Dr. Ute Günther

Business Angels als Innovationsindikatoren

Geschäftsmodelle der Zukunft sind wichtige Eckpunkte einer prosperierenden Volkswirtschaft. Sie zu erkennen, ist schwierig und herausfordernd, zumal sie sich zu einem späteren Zeitpunkt durchaus als nicht erfolgreich erweisen können.

Wer spürt ihnen nach?

Dr. Ute Günther

Business Angels sind auf der ständigen Suche nach innovativen Geschäftsmodellen. Sie sind Deutschlands wichtigste Frühphasenfinanzierer, investieren Kapital und Know-how in junge, innovative Unternehmen, und zwar in einer sehr frühen Phase, wenn das Risiko am größten ist, denn dann – und nur dann – haben sie die Chance, als First Mover vom Wachstum einer disruptiven Geschäftsidee zu profitieren, ein veritables ROI einzufahren, um den Exiterlös wieder in neue innovative Unternehmen zu investieren.

Trend: Ja-aber!

Dealsourcing, die Suche nach innovativen Geschäftsideen und begeisternden Teams, die diese in den Markt bringen, ist für Angel Investorinnen und Investoren ebenso überlebenswichtig, wie der stets wachsam kritische Blick auf alles, was als Trend in den öffentlichen Diskurs Einzug hält oder bereits gehalten hat. Niemand will das Risiko eingehen, einem populistischen Hype aufzusitzen und sein Geld in das zehnte Copycat investieren, das bereits zum Zeitpunkt der Investition dem nahen Untergang geweiht ist und schnell verglüht.

Angel sein, ist Leben am Puls der Zeit, besser noch vor der Zeit – „der frühe Vogel fängt den Wurm“. Es macht also Sinn, sich anzusehen, welche Trends bei Angel Investoren gerade hoch im Kurs stehen, um den Geschäftsmodellen der Zukunft auf die Spur zu kommen.


Der Blick in die Portfolien aktiver Angel Investorinnen und Investoren ist aufschlussreich.


Verlässliches Marktbarometer für alles, was bei Privatinvestoren jeweils im Vierteljahresrhythmus angesagt ist, ist seit 2001 das von Business Angels Netzwerk Deutschland e. V. (BAND), dem Bundesverband der Angel Investoren, den VDI nachrichten, der Rheinisch Westfälischen Technischen Hochschule Aachen (RWTH) und der Universität Duisburg-Essen initiierte „Business Angels Panel“.

Im ersten Quartal 2021 sah die Rangfolge im Blick auf Branchentrends und Technologien wie folgt aus: Softwareentwicklung, Umwelttechnik und Webservice machten die Podiumsplätze unter sich aus. Auf Platz 4 folgte Industrieautomatisierung. Einen Riesensatz nach vorne machte die Biotechnologie. Sie schafften es auf Platz 5. So hoch in der Gunst der Investoren stand sie über zehn Jahre nicht. Zu den Aufsteigern zählten außerdem Logistiker, die sich auf Platz 6 vorkämpften.[1]

Angels scannen Trends, kennen die Hitlisten der veröffentlichten Trends, springen aber längst nicht auf jeden Trendzug auf. Sie wissen, dass ein Trend noch lange kein Garant für ein erfolgreiches Geschäftsmodell ist. Nicht jeder Trend mündet in tragfähige Geschäftsideen und -modelle, denen die Investoren zutrauen, im Markt erfolgreich zu wachsen. Entscheidend ist vielmehr u. a. die Frage nach dem Kundennutzen, dem (Nischen)-Marktvolumen, der Skalierbarkeit, dem Erlösmodell und insbesondere auch – häufig unterschätzt – dem richtigen Zeitpunkt.

Insofern ist der Blick in die Portfolien aktiver Angel Investorinnen und Investoren aufschlussreich.

Trend erzeugt Gegentrends

Mitnichten entsprechen die in den Angels-Portfolien versammelten Geschäftsmodelle in Gänze den angesagten Trends.

Dort zeigt sich, wo dezidiert gegen den Trend investiert wird, und zwar in Geschäftsmodelle, die Negativaspekte eines sich behauptenden Trends abfedern. Ein aktuelles Beispiel: Wenn Formen digitalen Arbeitens mit Verlagerung ins Homeoffice Fahrt aufnehmen, wenn der Bildschirm die Norm ist und das Tippen auf die Tastatur das persönliche Gespräch mit dem Gegenüber verdrängt, Technik auch den zwischenmenschlichen Alltag bestimmt, der Drang, sich immer und überall zu vernetzen – funktioniert per Mausklick in Sekundenschnelle und generiert massenhaft oberflächliche Kontakte – gepaart ist mit Dauerkommunikation über die sozialen Medien, stellt sich unweigerlich die Sehnsucht nach mehr Mensch und weniger Maschine ein, nach einem Leben in kleinen, überschaubaren Einheiten mit vertrauten Sozialkontakten, in Nachbarschaften, die wieder als lebenswerte Orte, an denen Mensch sich wohl und zu Hause fühlt, gestaltet werden.

Diese Reaktion auf Veränderung ist keine Rückbesinnung auf Tradiertes, sondern richtet den Blick in eine Zukunft jenseits digitaler Verwerfungen stabiler zwischenmenschlicher Beziehungen, bietet also reichlich Nährboden für innovative Geschäftsideen, die z. B. das Digitale mit dem Lokalen verbinden, das eigene Heim „hyggelig“ machen, den smarten, nachhaltigen Indoor-Garten für zu Hause anbieten, eine Plattform für das Management selbstbestimmter Identität entwickeln, Erlebnisnächte in der Natur anbieten, zu Resilienz anleiten oder nachbarschaftliches Miteinander organisieren.

Angels scannen auch diese Gegentrends und nehmen sie in den Blick als potentielle Investments.


Angels scannen auch diese Gegentrends und nehmen sie in den Blick als potentielle Investments.


Mutmacher

Auch das offenbaren Angels-Portfolien: Für Start-ups, die nicht im Trend und Gegentrend laufen, die Geschäftsideen vorantreiben, die so gar nicht dem Zeitgeist entsprechen, ist es mehr als ermutigend zu erkennen, dass sie durchaus die Chance haben, eine Finanzierung zu finden. Angels-Investoren setzen zu keiner Zeit auf pauschale Zuschreibungen und Einengungen, wenn es um Geschäftsideen der Zukunft geht. Sie wissen: Wer auf Innovationen setzt, betritt unbekanntes Terrain, muss bereit sein, ein Risiko einzugehen. Angels-Portfolien sind Mutmacher und liefern Indikatoren für alle, die Geschäftsmodellen der Zukunft auf der Spur sind und legen vielfach ein Vetorecht ein gegenüber reiner Trendgläubigkeit.

Zurück zur Übersicht der Beitragsreihe
Strategische Vorausschau <<

Über die Autorin:

Dr. Ute Günther ist seit 2001 Vorstand von BAND und in dieser Eigenschaft auch Vice-President von Business Angels Europe (BAE). Sie hat Philosophie, Romanistik und Erziehungswissenschaft an der Ruhr Universität Bochum und der Sorbonne in Paris studiert und in Philosophie promoviert. Sie war in Forschung und Lehre tätig an den Universitäten Bochum, Essen, Trier und Vallendar. Parallel dazu entwickelte sie Infrastrukturprojekte im Bereich Innovation und Qualifizierung, seit Mitte der Neunzigerjahre vorwiegend im Ruhrgebiet. Gegenwärtig ist sie außerdem Geschäftsführendes Vorstandsmitglied von pro Ruhrgebiet e. V. (VpR), Vorstand der Business Angels Agentur Ruhr e. V. (BAAR) und Geschäftsführerin der Startbahn Ruhr GmbH. Seit 2019 ist Dr. Ute Günther Mitglied im Zukunftskreis des Bundesministeriums für Bildung und Forschung (BMBF) und steht dem BMBF hinsichtlich Zukunftstrends beratend zur Seite.

Foto: © Business Angels Netzwerk Deutschland e. V. (BAND)


[1] https://www.business-angels.de/business-angels-panel-75/

Biotechnologie – die Technologie der Zukunft

Gastbeitrag von Prof. Dr. Martina Schraudner

Bioökonomie und Biotechnologie werden häufig im Zusammenhang mit einem nachhaltigen und zukunftsfähigen Wirtschaftssystem genannt. Wie genau hängen sie zusammen? Welche Chancen birgt die Biotechnologie und in welchen Segmenten kann sie künftig zum Einsatz kommen? Diesen und weiteren Fragestellungen widmet sich Prof. Dr. Martina Schraudner und skizziert mögliche Innovationen der Zukunft.

Die Bioökonomie umfasst die Erzeugung, Erschließung und Nutzung biologischer Ressourcen, Prozesse und Systeme, um Produkte, Verfahren und Dienstleistungen in allen wirtschaftlichen Sektoren im Rahmen eines zukunftsfähigen Wirtschaftssystems bereitzustellen. Bioökonomische Innovationen basieren also auf der nachhaltigen Nutzung von Ressourcen, der Substitution von fossilen durch biologische Rohstoffe, der Nutzung von Reststoffen oder Nebenproduktströmen und dem Einsatz von biotechnologischen Prozessen[1].

Joghurt, Kimchi und Wein zeugen davon, dass biotechnologische Prozesse weltweit schon lange genutzt werden. Ausgangsbasis sind mit Milch, Kohl oder Traubensaft natürliche Ressourcen. In einem bioökonomischen Wirtschaftssystem, in dem ein breites Spektrum nachwachsender Ressourcen verwendet werden soll, werden neue biotechnologische Prozesse zur Anwendung kommen. Biotechnologie verbindet dabei Technik mit den Lebenswissenschaften, um Güter herzustellen. Auch Dienstleistungen können auf Basis biotechnologischer Prozesse erfolgen, wie beispielsweise der Nachweis einer COVID-Infektion mit einem PCR-Test, einer polymerase-chain-reaction (PCR) oder einem Antigen-Test.      

Höchste Innovationsdynamik

Wissenschaftliche Grundlage der Biotechnologie sind die Lebenswissenschaften, die nach der DFG die Bereiche Medizin, Biologie, Agar- und Forstwirtschaft sowie Veterinärmedizin umfassen. In diesen Forschungsbereich fließen seit Jahren anteilig die größten Fördervolumen der DFG[2]. Neben den insgesamt 1,17 Milliarden. Euro, die 2019 in die lebenswissenschaftliche Forschung geflossen sind, wurden auch mit Abstand die meisten Mittel zur Förderung von wissenschaftlichen Karrieren in den Lebenswissenschaften vergeben. Im Zentrum stehen die Forschungsbereiche, die molekular- und zellbiologische Strukturen und Prozesse untersuchen. Nicht zuletzt seit der enorm schnellen Entwicklung von Impfstoffen gegen COVID ist klar, dass die Biotechnologie zu den dynamischsten Forschungsbereichen unserer Zeit gehört. Die hohe Innovationsdynamik resultiert dabei aus dem Zusammenspiel von neuen molekularbiologischen Verfahren wie Crispr/Cas mit Enabling Technologies wie Miniaturisierung, Automatisierung, Prozessintegration, hochauflösender Bildgebung, Künstlicher Intelligenz und Big Data. So entsteht ein immer detaillierteres Bild von Vorgängen – auf molekularbiologischer Ebene bis hin zur biologischen Variabilität, die auf dem Niveau von Zellen, Zellstadien und ihren Verschaltungen und Regulationen erfasst werden kann[3]. Mit diesem Wissen können bioökonomische Lösungen in kurzer Zeit bereitgestellt werden und deren Qualität und Ausbeute kontinuierlich überprüft und sichergestellt werden.

Neben der Pharmabranche entwickeln sich gerade weitere Anwendungsgebiete der Biotechnologie im Bereich der Ernährung, des Klima- und Umweltschutzes sowie der Gewinnung nachhaltiger Materialien und Rohstoffe. Nachhaltig sind sie deshalb, weil fossilbasierte Prozesse durch biobasierte Ausgangstoffe und biotechnologische Verarbeitungsprozesse ersetzt werden, also vollkommen neue Produkte, Produktionsverfahren und Geschäftsmodelle entwickelt werden. Beispielsweise hat Biotechnologie das Potential, sehr viel ressourcenschonender Lebensmittelinhaltsstoffe zu produzieren als mit konventionellen Techniken. Der Bogen reicht dabei von einzelnen Inhaltsstoffen bis zur Herstellung von kultiviertem Fleisch, womit aktuell rund einhundert Start-ups tätig sind. [4] Aber auch in der Medizintechnik, der Textilindustrie, der Chemie bis hin zum Fahrzeugbau werden schon jetzt biotechnologisch hergestellte Produkte eingesetzt.  In Analogie zu den Anfängen der Digitalisierung steht die Biotechnologie vor einem sehr breiten Einsatz in diversen Branchen und vor der Durchdringung vieler Produktionsbereiche.


Über die Autorin:

Prof. Dr. Martina Schraudner leitet das Fraunhofer Center for Responsible Research and Innovation und hat eine W3-Professur „Gender und Diversity in der Technik und Produktentwicklung“ an der Technischen Universität Berlin. Sie befasst sich mit Methoden, Instrumenten und Prozessen, die Diversity, verstanden als unterschiedliche Perspektiven, in Forschung und Entwicklung zugänglich und nutzbar machen.

Seit Januar 2018 ist die Biologin im Vorstand der acatech – Deutsche Akademie der Technikwissenschaften e. V. und u. a. im Vorstand der Technologiestiftung Berlin. Sie ist in nationalen und internationalen Auswahlgremien für anwendungsnahe Forschungs- und Innovationsprojekte tätig und ist Mitglied in der Dialogplattform Industrielle Bioökonomie des Bundesministeriums für Wirtschaft und Energie (BMWi). Seit 2019 ist sie Mitglied im Zukunftskreis des Bundesministeriums für Bildung und Forschung (BMBF) und steht dem BMBF hinsichtlich Zukunftstrends beratend zur Seite.

Foto: © Prof. Dr. Martina Schraudner


Biotechnologie birgt branchenübergreifende Marktchancen

Biotechnologie selbst kann in allen Dimensionen betrieben werden: im kleinen Fermenter ebenso wie im großindustriellen Maßstab, sie ist lokal einsetzbar, schnell adaptierbar und auf andere Geschäftsfelder übertragbar. Sie könnte sie auch in Deutschland regional eine große Bedeutung gewinnen, zum Beispiel in Form von Fermentern zur Verwertung von lokal anfallenden Stoffen, um die Produkte in neue Stoffkreisläufe einzuspeisen. Darüber hinaus kann mit Biotechnologie in Stoffkreisläufe eingegriffen werden, etwa um übernutzte Böden zu sanieren, ähnlich wie es aktuell schon mit Wasser in Kläranlagen betrieben wird. Gerade im Bereich der landwirtschaftlichen Erzeugung eröffnen sich bei einem Schulterschluss von Biotechnologie und Landwirtschaft neue Marktchancen in zukunftsträchtigen Geschäftsmodellen.

In der Pharmaindustrie wird unter besonderen Schutzbedingungen in sog. GMP-Anlagen (Good Manufacturing Practices) biotechnologisch im industriellen Maßstab produziert. Wie die Industrieanlagen zur Herstellung und Aufarbeitung von biobasierten Produkten und Verfahren für andere Güter aussehen werden, welche Zuliefererketten sich entwickeln werden und wo in welchem Maßstab produziert wird, ist derzeit noch offen. 

Der Beitrag biobasierter Verfahren und Produkte zur Erreichung von Klima- und Nachhaltigkeitszielen ist unbestritten, schon allein, weil fossil basierte Produkte und Prozesse ersetzt werden können. Die Möglichkeiten der Biotechnologie gehen jedoch einher mit völlig neuen Produkten und Produktionsverfahren und setzen voraus, dass die besonderen Eigenschaften biogener Rohstoffe genutzt werden. Gemeint ist hier sowohl deren Nachwachsen als auch deren Kreislauffähigkeit. Wichtig ist dabei der Aufbau von Reststromnutzungen und der Umgang mit Nebenproduktströmen. Es werden sich zukünftig Innovationsökosysteme und neue Wertschöpfungsnetze entwickeln. Diese könnten neben den Systemen im industriellen Maßstab auch um regional spezifische Ausgangprodukte entstehen. So könnten beispielsweise Sonnenblumenschalen oder Algen zu Gebrauchsgegenständen mit regionaler Herkunft veredelt werden. 

>> Aus der

Zurück zur Übersicht der Beitragsreihe
Strategische Vorausschau <<


[1] vgl. Leitbild 2.0 der Plattform Industrielle Bioökonomie, Juni 2021
[2] vgl. DFG in Zahlen 2019
[3] vgl. acatech IMPULS Biotechnologie, 2017
[4] vgl. „Cultivated meat: out of the lab, into the frying pan“, T. Brennan, J. Katz, Y Quint, B. Spencer, July 2021, Mc Kinsey

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Empathie verbessert die Kommunikation

Empathie als Universalkompetenz für bessere Kommunikation am dezentralen Arbeitsplatz                                                             

Agile Teamarbeit, Führen auf Augenhöhe, Generation Y und Z, postheroische Führung, empathische Führung, Digital Leadership, dezentrales Arbeiten, New Work – diese und weitere Begriffe bestimmen die neuen Rahmenbedingungen und Bedürfnisse in der sich im Wandel befindlichen Arbeitswelt, die von immer höherer VUKA (Volatilität, Unvorhersehbarkeit, Komplexität, Ambivalenz) und dem Megatrend der Digitalisierung geprägt ist. Für die betroffenen Organisationen bedeutet dies vor allem, ihre Kommunikation zu verbessern. Das hierzu nötige Schmiermittel ist die Universalkompetenz Empathie. Doch der Begriff ist nicht unumstritten. Ein Beitrag von Dr. Karim Fathi.


Neue Anforderungen im Kontext von VUKA und Digitalisierung

Die Halbwertszeit von Unternehmen hat in den letzten Jahrzehnten abgenommen. Das Akronym „VUKA“ umschreibt treffend das Bündel an Herausforderungen, mit denen sich Organisationen im 21. Jahrhundert konfrontiert sehen. Mehrere miteinander verknüpfte Trends, auf die sich Organisationen heute einstellen müssen, lassen sich beobachten:

Dr. Karim Fathi

Erstens ist Führung angesichts von VUKA noch nie so voraussetzungsvoll gewesen wie heute[JE1] . Dabei geht es nicht nur darum, unter höchster Volatilität (ständigem Wandel), Unsicherheit (im Sinne von Unvorhersehbarkeit), Komplexität (im Sinne von Unübersichtlichkeit) und Ambiguität (Vieldeutigkeit) die richtigen strategischen Entscheidungen zu treffen. Auch haben sich im Kontext von Menschenführung die Bedürfnisse und Ansprüche der neuen Mitarbeitergeneration verändert – zunehmend stehen Sinn, Selbstverwirklichung und Gesundheit am Arbeitsplatz im Vordergrund. Ein postheroischer[1], empathischer Führungsstil, der es vermag, zu inspirieren, klug zu delegieren und zu bestärken, stellt, so der aktuelle Diskurs, einen zeitgemäßen Ansatz dar.[2]

Zweitens, damit Organisationen angesichts von VUKA gute kollektive Entscheidungen treffen können, müssen sie ihre kollektive Intelligenz bestmöglich nutzen und Prozesse entsprechend komplexitätsangemessen steuern. Denn Kundenwünsche und Anforderungen an das eigene Produkt wandeln sich schnell, sodass langfristige Detailplanung von Projekten nicht möglich ist. Als Antwort hierauf stellen immer mehr Organisationen, sogar Verwaltungen, auf agile Formen der Prozesssteuerung um. Dies erfordert hohe Informationstransparenz auf Ebene der Gesamtorganisation und zugleich mehr dezentrale Entscheidungsfindung und Selbstorganisation und im weitesten Sinne Eigenverantwortung der Wissensarbeitenden. Der Schlüssel hierzu ist verbesserte Kommunikation durch permanentes Feedback und entsprechendes Nachsteuern – sowohl mit den Kunden als auch im Projektteam.[3]

Drittens stellt der allgegenwärtige Megatrend des digitalen Wandels nicht nur einen wesentlichen Treiber der oben dargestellten Entwicklungen dar, sondern auch des vielfach beobachteten Megatrends New Work, welcher mit einer Zunahme von Remote Working und Home Office einhergeht. Die Corona-Krise hat – so die vielfach geteilte Beobachtung – diese Entwicklungen nur noch weiter befördert.[4]

Insgesamt lässt sich ein zunehmender Bedarf nach nicht-hierarchischen, selbstorganisierten, netzwerkartigen, oft auch agilen Kooperations- und Organisationsformen beobachten. Diesen Entwicklungen gerecht zu werden, erfordert effektive Kommunikation. Denn, so lehrt es die soziologische Systemtheorie[5], ohne gelingende interne Kommunikation kann eine Organisation nicht effektiv kollektiv handeln. Als wichtiges Schmiermittel hierfür erweist sich Empathie.


Über den Mehrwert von Empathie

Angesichts der neuen Anforderungen in der sich wandelnden Arbeitswelt stellt Empathie eine wichtige Universalkompetenz dar:

  • Studien, wie z. B. von Anita Woolleys Forschungsgruppe, belegen, dass die Leistungsfähigkeit von Gruppen und damit ihre kollektive Intelligenz vor allem in ihrer Fähigkeit besteht, die Beiträge ihrer Mitglieder so optimal wie möglich zu integrieren.[6] Das Schmiermittel hierzu ist Empathie, als richtungsweisende Universalkompetenz für zahlreiche weitere Schlüsselfertigkeiten, die Team Performance sichern, wie z. B. Konfliktfähigkeit, interkulturelle Kompetenzen, Dialogfähigkeit etc.
  • Die nachrückende Managergeneration der Digital Natives bzw. Generation Y und Z wird in absehbarer Zeit rund 70% der Belegschaft in den deutschen Unternehmen ausmachen[7] und verlangt zunehmend nach einem kooperativeren Führungsstil, der von Offenheit, Dialog, Informationsteilung und Feedback geprägt ist.[8]
  • Typische, mit zwischenmenschlicher und Selbstempathie einhergehende Kompetenzen umfassen Selbstmotivation, Initiative, Kooperations- und Teamfähigkeit und Führungsfähigkeit. Laut Studien machen diese rund 80 bis 90% der Fähigkeiten aus, die entscheidend für Führungstätigkeiten sind.[9]
  • Zugleich erweist sich empathische Führung als eine wichtige Eigenschaft für Entscheidungssituationen, die von größter Unsicherheit geprägt sind. Intuition, Lebensklugheit, „Bauchgefühl“ – all dies sind Umschreibungen für eine wichtige, emotionale Entscheidungsgrundlage.[10]

Empathie bietet also einen vielfachen Mehrwert, um in der VUKA-Welt zu bestehen. Doch Empathie ist nicht gleich Empathie.

Empathie – ein umstrittenes und vielschichtiges Konzept

Noch bis in Ende der 1980er Jahre galt der Empathiebegriff als umstritten. Empathie, übersetzt aus dem Griechischen „empatheia“, bedeutet wörtlich „mitleiden“ bzw. mitfühlen und war bis in die 1980er-Jahre vor allem im Führungsdiskurs verpönt als „emotionale Ansteckung“. Eine dergestalt empathische Führungskraft könne unter diesen Voraussetzungen keine souveränen Entscheidungen treffen.[11] Dies gilt umso mehr im Kontext heutiger „Resonanzkatastrophen“ in den digitalen Medien.[12]

Seit den 1990er-Jahren und mit der Popularisierung des wesentlich positiv besetzteren Begriffs „emotionale Intelligenz“ wird unter Empathie auch „kognitive Empathie“, im Sinne von „sich in andere hineinversetzen“, ohne gleich emotional involviert zu sein, verstanden.[13] Kognitive Empathie birgt allerdings das Risiko, wie der Kritiker Fritz Breithaupt, anmerkte, dass Empathie als Werkzeug missbraucht werden kann, um Menschen gezielt zu manipulieren.[14]

Das seit den 2010er-Jahren bekannte Konzept „Empathie 3.0“ steht demgegenüber für authentische wertegebundene Empathie, die auch Selbstempathie beinhaltet und sich aus dem Zustand innerer Zentrierung, z. B. durch Achtsamkeitspraxis, ergibt und bei der sich Anwendende ihrer inneren Verbundenheit mit dem Leben bewusst werden.[15] Diese Art Empathie erweist sich in jeglicher Hinsicht als funktional.

Kompetenzentwicklung müsste daher vieldimensional an mehreren Empathiekonzepten ansetzen, die einander sinnvoll ergänzen.


Künftige Herausforderungen und Anforderungen an Kompetenzentwicklung

Zusammengefasst gehen die oben dargestellten neuen Rahmenbedingungen in der sich wandelnden Arbeitswelt mit erhöhtem Bedarf nach effektiver Kommunikation einher. Dies setzt vor allem entsprechende Kompetenzentwicklung bei Führung und Mitarbeitenden voraus.

Strategisch erweist sich die Kompetenzentwicklung von Führungskräften als wichtiger erster Schritt. Mindestens 40% ihrer Arbeitszeit sind sie mit Konflikten befasst.[16] Dieser Trend wird angesichts zunehmender Vernetzung und sich verdichtender Kommunikation in Zukunft eher zu- als abnehmen. Hinzu kommt, dass der eigene Führungsstil einen maßgeblichen Einfluss auf das Unternehmensklima und die Gesundheit, Motivation und Leistungsfähigkeit der Mitarbeitenden hat.[17] Als eine einfache Orientierungsgrundlage, um die Mitarbeiterbedürfnisse im Auge zu behalten, erweist sich das SCARF-Modell aus dem Neuro-Leadership. Demnach braucht jede/r Mitarbeitende ein Bedürfnis nach Status/Entwicklung, Erwartungssicherheit, Wertschätzung, Zugehörigkeit, Fairness.[18]

Empathische Führung setzt hohes Bewusstsein für die Bedürfnisse der Mitarbeitenden und ausgeprägte kommunikative Fähigkeiten, auch unter Stress klar und konstruktiv zu kommunizieren, voraus. Dies erweist sich, eingedenk der Zunahme psychischer Stresserkrankungen am Arbeitsplatz,[19] als eine zentrale Herausforderung. Denn Stress ist ein natürlicher Empathiekiller und verschlechtert damit Kommunikation.

Zukunftssichernde Kompetenzförderung wird daher mindestens auf zwei Kompetenzebenen ansetzen müssen – nämlich der zwischenmenschlichen (Empathie) und der psychischen (Stressfähigkeit/Resilienz). Tatsächlich erweisen sich beide Ebenen als miteinander vereinbar, was sich insbesondere im Kontext des oben dargestellten Konzepts Empathie 3.0 zeigt: Fördere ich meine Gelassenheit und innere Zentrierung, z. B. durch Achtsamkeitstechniken oder durch einfache Stressbewältigungstechniken, wie der 4-Sekunden-Atmung, bleibe ich nicht nur stressfähig, sondern auch kommunikationsfähig.[20]

Zurück zur Übersicht der Beitragsreihe
Strategische Vorausschau <<

Über den Autor:

Dr. Karim Fathi ist Berater, Coach, Trainer, Forscher und Autor zu den miteinander verschränkten Themen Konflikt, Kommunikation und Resilienzförderung. U. a. ist er Partner der DENKBANK, Mitbegründer der Akademie für Empathie und geschäftsführender Gesellschafter von PROTECTIVES. Seit 2019 ist er Mitglied im Zukunftskreis des Bundesministeriums für Bildung und Forschung (BMBF) und berät das BMBF hinsichtlich Zukunftstrends. Als Forscher und Autor setzt er sich vor allem mit der Frage auseinander, wie sich Problemlösungskompetenzen von Teams, Organisationen und vor allem Gesellschaften durch die Stellschrauben Achtsamkeit und Kommunikation signifikant verbessern lassen.

Personenfotos: © Till Caspar Juon / Media Bricks


[1] Dieser Begriff stammt von Dirk Baeker, s. Baecker, D. (1994): Postheroisches Management. Ein Vademecum. Berlin
[2] Gebhardt, W. (1996): Organisatorische Gestaltung durch Selbstorganisation, Wiesbaden
[3] Fathi, K. (2019a): Kommunikative Komplexitätsbewältigung – Grundzüge eines integrierten Methodenpluralismus zur Optimierung disziplinübergreifender Kommunikation.
Springer Verlag
[4] Hafer J., Kostädt P., Lucke U. (2021). Das Corona-Virus als Treiber der Digitalisierung?. In: Dittler U., Kreidl C. (Hrsg.) Wie Corona die Hochschullehre verändert. Springer
Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-32609-8_15
[5] Luhmann, N. (1984): Soziale Systeme – Grundriß einer allgemeinen Theorie. Frankfurt a.M., Suhrkamp
[6] Woolley, A. W. / Chabris, C. F. / Pentland, A. / Hashmi, N. / Malone, T. W. (2010): Evidence for a Collective Intelligence Factor in the Performance of Human Groups. In:
Science Vol. 330 no. 6004:686-688. 29.10.2010. DOI:10.1126/science.11931
[7] Gloger, A. (2013): Führung 2020 – Das Ende des Vorgesetzten. In: managerSeminare 183, Juni 2013: 24 – 30
[8] Rose, Nico / Fellinger, Christoph (2013): Arbeitswelt Y – „Wir wollen’s anders“. In: managerSeminare 183, Juni 2013: 18 – 23
[9] Goleman, D. / Boyatzis, R. / Mckee, A. (2002): Emotionale Führung. München
[10] Goleman, D. et al. (2002): a.a.O.
[11] Fathi, K. (2019b): Das Empathietraining – Konflikte lösen für ein besseres Miteinander. Junfermann Verlag.
[12] Fathi, K. / Osswald, A. (2017): Der E-Faktor und die Digitalisierung. In: Forschungsjournal Neue Soziale Bewegungen. Supplement zu Heft 2 / 2017 http://forschungsjournal.de/node/2995
[13] Ekman, P. (2007): Gefühle lesen. München
[14] Breithaupt, F. (2017): Die dunklen Seiten der Empathie. Frankfurt a. M.: Suhrkamp
[15] Fathi, K. (2019b): a.a.O.
[16] Roberts, T., (2006): Coaching managers through their conflicts. In: Management Services, Vol. 49, Iss. 4, pp 16-18, Institute of Management Services, Staffordshire
[17] Bruch, H. / Kowalevski, S. (2013): Gesunde Führung – wie Unternehmen eine gesunde Performancekultur entwickeln. Studie durchgeführt von der Universität St. Gallen, im Auftrag von TOP JOB. www.topjob.de/upload/projekt/studie/TJ_13_Studie_GesundeFuehrung.pd[18] Rock, D. (2008): SCARF: a brain-based model for collaborating with and influencing others. In: NeuroLeadership. Nr.1, 2008
[19] pronova BKK (2018): 87 Prozent der Menschen in Deutschland sind gestresst – Jeder Zweite glaubt, von Burn-out bedroht zu sein. Presseportal 10.04.2018 https://www.presseportal.de/pm/119123/3912240
[20] Wie das genau geht, ist unter anderem hier genauer beschrieben: Fathi, K. (2019b): a.a.O.


Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Softwarebereitstellung und Automatisierung

Die TREND-REPORT-Redaktion sprach mit Hope Lynch von CloudBees über die schnelle und automatisierte Bereitstellung von Software.

Hope Lynch,
Technology Strategy Director, CloudBees

Welche waren die „bemerkenswertesten“ Ergebnisse im Kontext Ihrer Studie „Modernizing Software Delivery with End-to-End Automation, Orchestration and Collaboration“?

Angesichts der Bedeutung der Digitalisierung und der zentralen Rolle von Software für moderne Unternehmen ist es wirklich bemerkenswert, dass nur 27 Prozent der Befragten angaben, dass sie ein kontinuierliches Deployment mit Automatisierung vom „Commit“ ins Repository über Tests, Integration und Packaging bis zur finalen Version praktizieren. In dieser Hinsicht gibt es sicherlich noch eine Menge zu tun.

Das andere bemerkenswerte Ergebnis ist, dass nur 25 Prozent der Unternehmen ihre Governance-, Risiko- und Compliance-Fähigkeiten (GRC) für die Softwarebereitstellung als sehr ausgereift einstufen. Ganze 40 Prozent sehen ihre GRC-Fähigkeiten als nicht ausgereift an. Das bedeutet, dass diese Unternehmen potenziell sowohl Probleme mit der Sicherheit als auch mit der Einhaltung von Vorschriften bekommen.

Können Sie uns nochmals kurz den Zusammenhang zwischen Software-Bereitstellung bzw. Automatisierung der Bereitstellung und den Geschäftsergebnissen an einem konkreten Beispiel verdeutlichen?

Zunächst einmal muss man anerkennen, wie wichtig Software für heutige Unternehmen ist. Für fast alle Produkte fast aller Unternehmen spielt Software eine entscheidende Rolle. Bei jedem neuen Produkt oder Produktupdate müssen Software-Entwicklungsteams, Produktmanager, Marketing und Führungskräfte zusammenarbeiten, um sicherzustellen, dass die Entwickler verstehen, was benötigt wird, und dass alle Beteiligten über den Stand der Entwicklung informiert sind.

Andernfalls können z.B. Produktmanager nicht sicher sein, dass ihre Anforderungen erfüllt werden und das Marketing kann die Aktivitäten zur Produkteinführung nicht zuverlässig planen usw. Software-Delivery-Automation bietet eine zentrale Sicht auf den gesamten Prozess und sorgt für höchste Produktqualität durch gemeinsame Daten, universelle Erkenntnisse, verbundene Prozesse und die Zusammenarbeit aller Abteilungen und Teams.


„Wenn Sie noch nicht auf die Pandemie reagiert haben, indem Sie die Digitalisierung und die Automatisierung der Softwarebereitstellung vorangetrieben haben, ist jetzt die Zeit gekommen.“


Hope Lynch

Inwiefern haben es Unternehmen, die in ihrem gesamtheitlichen „digitalen Reifegrad“ weit voran geschritten sind, leichter, sich auch an neue Marktgegebenheiten anzupassen?

Für uns bedeutet „digitale Reife“, dass alle relevanten internen und nach außen gerichteten Prozesse einer Organisation digital und automatisiert sind. Die Studie zeigt, dass Unternehmen mit einem hohen Reifegrad mit größerer Wahrscheinlichkeit ein höheres Umsatzwachstum erzielen als ihre weniger reifen Kollegen. Die Wahrscheinlichkeit, dass sie mit 15 Prozent oder mehr pro Jahr wachsen, ist dreimal so hoch.

Und sie sind viel besser in der Lage, sich an veränderte Marktbedingungen anzupassen: Organisationen mit hohem Reifegrad haben eine fast doppelt so hohe Wahrscheinlichkeit wie Organisationen mit niedrigem Reifegrad, sich schnell an veränderte Bedingungen anzupassen, wie sie beispielsweise die Pandemie mit sich bringt. Wenn eine Organisation einen hohen digitalen Reifegrad hat, wird sie z.B. viel besser in der Lage sein, ihre Kundeninteraktion von offline auf online umzustellen und verlorene Offline-Umsätze durch Online-Umsätze zu ersetzen.

Was möchten Sie Unternehmen für den „Restart nach der Pandemie“ mit auf den Weg geben?


Wenn Sie noch nicht auf die Pandemie reagiert haben, indem Sie die Digitalisierung und die Automatisierung der Softwarebereitstellung vorangetrieben haben, ist jetzt die Zeit gekommen. Jeder Schritt, den Sie während der Pandemie in diese Richtung gemacht haben, hat Ihnen bereits geholfen, diese außergewöhnlichen Umstände zu bewältigen.

Aus dem gleichen Grund wird Ihre Organisation auch viel besser positioniert sein, alle künftigen Veränderungen und Herausforderungen zu bewältigen, einschließlich derer, die durch den Neustart nach der Pandemie entstehen.

Zur Studie

Die Studie „Modernizing Software Delivery with End-to-End Automation, Orchestration and Collaboration“ finden Sie unter folgenden Link:
https://www.cloudbees.com/c/forrester-research-studies-software-delivery

Aufmacherbild / Quelle / Lizenz
Photo by Glenn Carstens-Peters on Unsplash

Ransomware: Wegversichern ist keine Option

Gegen Erpressungssoftware hilft nur Prävention

von Frank Kölmel

Gastautor: Frank Kölmel, VP CEUR bei Cybereason
(Bildrechte: Cybereason)

Hinter dem Konzept „Ransomware“ steckt ein genial einfaches Angriffsmodell, das aus Sicht der Opfer extrem kompliziert zu bekämpfen ist. Sich dagegen zu versichern, klingt nach einer guten Idee. Einer neuen Studie zur Folge aber hat auch diese Strategie ihre prinzipiellen Wirkungsgrenzen. Außerdem gilt: Ob mit oder ohne Versicherung – ohne technisch-organisatorische Prävention ist der Business-Impact immer unangenehm groß.

Ransomware ist ein gutes Beispiel für eine Bedrohung, die den klassischen Angreifervorteil verdeutlicht. Das Prinzip dahinter ist schon lange bekannt, die Auswahl der möglichen Gegenmaßnahmen auch, aber richtig voran kommen die Unternehmen bei der Gegenwehr nicht. Dies liegt unter anderem daran, dass die Angreifer meist mit recht gut standardisierter Schadsoftware arbeiten können, die sie außerdem nur einmal erfolgreich einschleusen müssen, damit sie ihr Zerstörungswerk beginnen kann. Die potenziellen Opfer dagegen können nichts anderes tun als ihr gesamtes Sicherheitsniveau mit mehreren Einzelmaßnahmen zu heben und entsprechende Richtlinien durchzusetzen.

Hinzu kommt, dass ein Unternehmen zusätzlich wirksame Notfall-, Wiederanlauf- und Business-Continuity-Strategien implementieren muss, da eine zumindest teilweise erfolgreiche Attacke selbst bei bester Vorbereitung nie vollständig ausgeschlossen werden kann.

Versicherer haken nach

Eine aktuelle Studie zum Thema Ransomware, hat sich auch zweier Aspekte von Ransomware angenommen, die bisher noch ein wenig im Dunklen liegen: Die Untersuchung liefert ein besseres Bild über die tatsächlichen direkten Schäden, die Ransomware anrichtet, und zeigt darüber hinaus konkrete Dimensionen längerfristiger Auswirkungen einer Attacke auf die wirtschaftlichen Aktivitäten der Betroffenen. Außerdem wirft sie ein Licht darauf, was von der Strategie zu halten ist, das Ransomware-Risiko per Cyber-Versicherung zu minimieren.

Letzteres scheint vielen Organisationen, die an der oben angedeuteten Komplexität der Abwehr verzweifeln, ein probater Ausweg zu sein. Leider stößt dieser Ansatz aber auf prinzipielle Grenzen, was bereits zu Reaktionen der Versicherer geführt hat: Branchen-Insider berichten davon, dass in vielen Organisationen derzeit neue, Ransomware-bezogene „Risikogespräche“ von den Versicherern initiiert werden. Andere Kunden bekommen zumindest Fragebögen zugesandt, in denen sie genauer denn je Auskunft über ihre Anti-Ransomware-Maßnahmen geben müssen. Ziel der Versicherer ist es offenbar, ihr eigenes Risiko auf diesem Gebiet zu minimieren.

Ein Blick in die Zahlen der Cybereason-Studie, an der neben anderen weltweit verteilten Organisationen auch deutsche Unternehmen teilgenommen haben, lässt erahnen, was die Versicherungsunternehmen dabei umtreibt:

  • 80 Prozent der Organisationen, die Opfer einer Ransomware-Attacke wurden und Lösegeld gezahlt haben, werden ein weiteres Mal angegriffen.
  • 32 Prozent der betroffenen Organisationen verlieren im Zuge der Attacke einen Teil ihres Top-Managements, 29 Prozent müssen Stellen einsparen.
  • 25 Prozent sind zumindest zeitweise gezwungen, ihren kompletten Betrieb einzustellen.
  • 66 Prozent geben an, empfindliche Umsatzeinbußen zu erleiden. Bei deutschen Unternehmen liegt diese Zahl sogar bei 75 Prozent. Branchenbezogen sehen sich weltweit beispielsweise 73 Prozent der befragten Finanzdienstleister, 74 Prozent der Einzelhändler und 58 Prozent der Unternehmen aus der Automobilbranche entsprechend nachhaltig geschädigt.
  • 53 Prozent räumen ein, dass der Ruf ihrer Marke in Mitleidenschaft gezogen wurde.

Bei Versicherern muss dieses Bild zwangsläufig Bedenken wecken. Bei einem Hausbesitzer, der wegen mangelnder Sicherheitsvorkehrungen Einbruchsopfer wird, kann eine Versicherung damit rechnen, dass er nach diesem Erlebnis vorsichtiger wird und froh darüber ist, versichert gewesen zu sein. Im Ransomware-Bereich haben die Anbieter es dagegen mit 80 Prozent Kunden zu tun, die nach einem  Vorfall noch einmal zahlen müssen. Zudem arbeiten sie mit Organisationen zusammen, die nach der Attacke zu einem nennenswerten Teil in Schwierigkeiten geraten und eventuell mit dem Management auch noch die relevanten Ansprechpartner austauschen.

Perfide Rückkopplungsreaktion

Hinzu kommt, dass hinter den 80 Prozent der mehrfach Betroffenen möglicherweise ein Rückkopplungseffekt steckt, dem eine perfide Kalkulation der Angreifer zugrunde liegt: Wer

 – vielleicht, weil er gut versichert ist – relativ schnell auf die Forderungen der Hacker eingeht, tut dies mit etwas Glück auch ein weiteres Mal. Und vielleicht lohnt sich gerade deshalb die Investition in eine umso gezielter vorbereitete zweite Attacke. Übrigens auch ein guter Grund, eine existierende Cyber-Versicherung gegen Ransomware nicht unbedingt an die große Glocke zu hängen.  

Bereits jetzt übernimmt der Umfrage zufolge in 42 Prozent der Fälle die Versicherung ohnehin nicht den gesamten Schaden. Dieser Wert dürfte in Zukunft eher noch sinken. Kunden können weitere Einschnitte nur verhindern, wenn sie glaubhaft sinnvolle technisch-organisatorische Gegenmaßnahmen belegen können. Die Studie zeigt dabei auch, was erstens wirkt und zweitens von den meisten Betroffenen nach einer Attacke dann endlich doch in Angriff genommen wird. Die Top 5 der nach dem Ransomware-Schock implementierten Lösungen ist:

  • E-Mail-Scanning mit 41 Prozent: Eine bessere Aufdeckung und Blockade von Malware lohnen sich. Anwender sollten darauf achten, dass die gewählte Lösung das Thema Ransomware explizit abdeckt, also stets aktuelle Informationen über typische Ransomware-Merkmale erhält.  
  • Data Backup und Recovery mit 43 Prozent: Eigentlich verwunderlich, dass dies nicht der Top-Punkt ist – aber wenn dieses Modell der Absicherung gegen Ransomware helfen soll, muss es mit einem geeigneten, schlagkräftigen Prozess für Notfallmanagement und Wiederanlauf verbunden sein. Tatsächlich arbeiten viele Unternehmen daran noch, und ein entsprechendes Gesamtkonzept lässt sich nicht „mal eben“ nach einer Attacke umsetzen.
  • Endpoint Protection mit 44 Prozent: Ein „No-Brainer“, weil die Ausbreitung der Ransomware hier startet und unmittelbaren Schaden anrichtet.
  • Security Operations Center mit 48 Prozent: Eine Zahl, die nachdenklich macht. Einfach nur irgendein SIEM mit Team schnell als Managed Service einzukaufen oder selbst aus dem Boden zu stampfen, hilft wenig. Ein Standard-SOC meldet das Auftreten von Ransomware typischerweise erst dann, wenn an den ersten Arbeitsplätzen schon der Lösegeld-Screen das Arbeiten verhindert und eventuell bereits kritische Systeme betroffen sind. Der Anbieter und das System müssen auf Ransomware-Erkennung ausgerichtet sein, und es müssen entsprechende Use Cases und Response-Prozesse existieren. Allerdings ist es in der Praxis leider so, dass Security-Abteilungen oftmals das Buchen eines Standard-SOC-Services eher genehmigt bekommen als das vielseitige Maßnahmenpaket, das wirkungsvolle Prävention überhaupt erst ermöglicht.
  • Security Awareness Training mit 48 Prozent: Eine sehr sinnvolle Investition, weil viele Ransomware-Angriffe über Mail und Links erfolgen und auf entsprechende Social-Engineering-Taktiken setzen.

Weitere nutzbringende und nach erfolgreichen Attacken häufiger getroffene Maßnahmen sind Web-Scanning, EDR/XDR, zusätzliche Antivirus-Lösungen, Sicherheit für Mobilgeräte und SMS sowie ein Ausbau bei den Managed Services.

Was gegen Ransomware hilft und was darüber hinaus dazu beiträgt, das Beste aus einer Cyber-Versicherung zu mache, sind jene Maßnahmen, die bei vielen Unternehmen ohnehin auf der Liste bereits existierender Security-Programme stehen.  Sie werden nur deshalb nicht umgesetzt, weil die Ressourcen fehlen oder die damit verbundenen Change-Prozesse einfach langwierig sind.

Hier und da kommen auch psychologische Faktoren ins Spiel, etwa weil eine der sinnvollsten Maßnahmen gegen opportunistische Angriffe in der sparsamen Zuteilung oder dem Entzug von lokalen Management-Rechten liegt: ein heißes Eisen für manchen CISO, weil hier oft genug auch das Management protestiert.

Fazit

Man darf also davon ausgehen, dass Ransomware noch eine Weile Erfolge feiern wird, und dass die Security-Teams der Anwender und die Versicherungen noch für geraume Zeit eine Allianz gegen die Bedrohungen bilden müssen. Wie lange das funktioniert, ist fraglich, denn mit der rasant sich ausbreitenden Digitalisierung werden immer kritischere Systeme für die bösartige Verschlüsselung zugänglich, etwa in den ohnehin nur mit Mühe abzusichernden Produktionsumgebungen. Wie jüngste Fälle zeigen, muss eine erfolgreiche Attacke auf diesem Sektor ja nicht einmal die proprietären Industriesteuerungen selbst manipulieren, sondern es reicht ein Befall von Terminal-PCs mit Standard-Betriebssystemen oder angebundenen Warenwirtschaftssystemen, um Produktionsprozesse aus dem Takt zu bringen.

Ransomware ist eine jener Bedrohungen mit besonders großem Störungs- und Schadenspotenzial und einer hohen Eintrittswahrscheinlichkeit. Dieses Risiko gehört auf der Security-Agenda ganz nach oben, und kann nicht „wegversichert“ werden. 

Die komplette Studie steht unter https://www.cybereason.com/ebook-ransomware-the-true-cost-to-business  zum Download bereit.    

Mehr vom Autor Frank Kölmel:


https://www.trendreport.de/ransomware-zahlen-oder-nicht-zahlen/

Aufmacherbild / Quelle / Lizenz
Photo by Nohe Pereira on Unsplash

Ransomware – zahlen oder nicht zahlen?

Zahlen oder nicht zahlen: Die große Ransomware-Debatte

von Frank Kölmel

Ransomware ist mittlerweile für so gut wie jedes Unternehmen zu einem Problem geworden. Die Auswirkungen sind so schwerwiegend wie weitreichend und schließen Umsatzverluste, Rufschädigung und Entlassungen aufgrund finanzieller Engpässe ein.

Noch bis vor wenigen Jahren waren externe Datensicherung und Lösungen zur Wiederherstellung ein probater Schutz vor den Folgen einer Ransomware-Attacke. Im Falle eines Angriffs konnte man es also durchaus riskieren, eine Lösegeldforderung zurückzuweisen und sich auf Schadensbegrenzung und die Wiederherstellung der Systeme aufgrund von Backups verlassen. Das war lange eine durchaus verlässliche Strategie. Inzwischen haben sich Taktik und Methoden der Cyberkriminalität aber rasant weiterentwickelt. Wurde früher primär ein Lösegeld gefordert,  setzen die Angreifer zahlungsunwillige Opfer zunehmend damit unter Druck, die erbeuteten Daten zu veröffentlichen. Bei dieser als „Double Extorsion“ bezeichneten Methode arbeiten inzwischen auch mehrere Ransomware-Gruppen zusammen.

Gastautor: Frank Kölmel, VP CEUR bei Cybereason
(Bildrechte: Cybereason)

Im Rahmen einer jüngst von Cybereason in Auftrag gegebenen Studie wurden insgesamt 1.300 Sicherheitsfachleute befragt. Über die Hälfte von ihnen war bereits Opfer einer Ransomware-Attacke geworden. Von den in Deutschland befragten Unternehmen, die sich entschieden, der Lösegeldforderung nachzukommen, wurden über 80 % erneut angegriffen, oftmals sogar von ein und demselben Angreifer.

Ein weiterer Befund der Studie: Von den in Deutschland befragten Unternehmen, die sich für die Zahlung eines Lösegelds entschieden, um wieder auf ihre verschlüsselten Systeme zugreifen zu können, räumten über 40 % ein, dass einige oder sogar alle Daten während des Wiederherstellungsprozesses beschädigt wurden.

Warum zahlen sich selten lohnt

Offensichtlich ist die Zahlung eines Lösegelds keine Garantie dafür, dass ein Unternehmen wieder auf seine Daten zugreifen oder den Geschäftsbetrieb schnell wieder aufnehmen kann. Geschweige denn schützt die Zahlung vor weiteren Angriffen, eher im Gegenteil. Über die Hälfte der in Deutschland befragten Unternehmen erlitt zudem signifikante Umsatzeinbußen in Folge einer Ransomware-Attacke, verglichen mit 47 % in UK und rund 49 % in den USA. Ebenfalls über die Hälfte der in Deutschland befragten Unternehmen räumten ein, dass sowohl die Marke selbst wie auch der Ruf des Unternehmens infolge eines erfolgreichen Ransomware-Angriffs Schaden genommen haben. Auch die Zahl der Führungskräfte, die als direkte Folge eines Ransomware-Angriffs ihren Posten räumen mussten, steigt, ebenso wie die Zahl von Entlassungen und Firmenschließungen. Über 20 % der befragten deutschen Unternehmen sahen sich beispielsweise gezwungen, ihre Geschäftstätigkeit nach einem Ransomware-Angriff komplett einzustellen.

Ob ein Unternehmen Lösegeld zahlen soll oder nicht, ist eine der wichtigsten Entscheidungen nach einem Ransomware-Angriff. Wie bei jedem anderen erfolgreichen Geschäftsmodell, ist das Ziel der Angreifer Gewinnmaximierung. Solange Unternehmen weiterhin Lösegeldsummen bis in schwindelerregende Höhen zahlen, werden die Forderungen kaum zurückgehen. Die Tatsache, dass CNA Insurance ein Lösegeld in Höhe von 40 Millionen US-Dollar, JBS mehr als 11 Millionen US-Dollar und Colonial Pipeline immerhin noch 4,4 Millionen US-Dollar, gezahlt haben, erhöht nur den Anreiz.

Die Ergebnisse unterstreichen deutlich, warum es sich nicht lohnt, die Angreifer zu bezahlen. Firmen sollten sich stattdessen auf Präventionsstrategien konzentrieren, um Ransomware-Angriffe zum frühestmöglichen Zeitpunkt zu beenden – also bevor kritische Systeme und Daten überhaupt in Gefahr geraten.

Ransomware und die Deutschen

Trotzdem fühlen sich mehr als 80 % der deutschen Unternehmen nach eigenen Aussagen „gut“ gegen Ransomware-Angriffe gewappnet und „ausreichend“ vorbereitet. In den letzten 24 Monaten wurden über zwei Drittel aller Unternehmen in Deutschland mit Ransomware angegriffen, wobei es einem Gutteil der betreffenden Unternehmen gelungen ist, sich erfolgreich zu wehren. Das hat zwar seinen Preis – wie Downtime, Umsatzeinbußen beziehungsweise hohe Kosten für die Wiederherstellung. Aber immerhin ist es den Firmen gelungen, die Daten überhaupt wiederherzustellen und die Geschäftstätigkeit aufrechtzuerhalten. Der finanzielle Aufwand ist allerdings immens. Und, was vielfach gerne vergessen wird, sind Geschäftsführer und CISOs direkt in der Verantwortung, wenn die Schutzmaßnahmen nicht greifen. Das gilt für alle präventiven Maßnahmen einschließlich der technischen Vorkehrungen.

Inzwischen hat zusätzlich das RaaS-Modell (Ransomware-as-a-Service – wie von Gruppen wie Darkside verwendet) umfassend Einzug gehalten. Dank dieses Franchise-Systems wächst die Zahl der Angreifer exponentiell. Man muss also zwangsläufig davon ausgehen, dass sich damit auch die Anzahl der Angriffe vervielfacht – ausgehend vom aktuell ohnehin hohen Ausgangsniveau. Im RaaS-Modell wird die Grundausstattung „vermietet“ – man braucht also vergleichsweise wenig Expertise, um selbst einen Ransomware-Angriff zu lancieren. Auch wenn in Deutschland annähernd 60 % der Unternehmen es nicht in Betracht ziehen zu zahlen, die restlichen tun es oder denken wenigstens darüber nach.

Viel hilft das nicht. Denn zwei Drittel der Unternehmen, wurden dann erneut angegriffen. Etliche, sogar von ein und denselben Angreifern. Und wie wir gesehen haben, lassen sich die erbeuteten Daten mehrfach nutzen. Werden dabei sensible Kundeninformationen weitergegeben, wird es richtig teuer.

Grundsätzlich lässt sich ein überproportionaler Anstieg von Betroffenen unter den mittelständischen Unternehmen beobachten. Sie sind selten optimal geschützt und bieten aufgrund der großen Anzahl und vorgehaltenen Daten ein riesiges Angriffspotential. Ansonsten rücken ebenso Behörden, Universitäten und Krankenhäuser mehr und mehr in den Fokus.

Was tun?

Grundsätzlich scheint aber gerade in Deutschland noch eine Mentalität vorzuherrschen, erst dann in wirksame Sicherheitsmaßnahmen zu investieren, wenn der Schadensfall bereits eingetreten ist. Oder bestenfalls dann, wenn beispielsweise ein Geschäftspartner angegriffen wurde. Es ist längst an der Zeit, „Legacy“-Systeme wie Antivirenlösungen oder Standardtools, die in Betriebssystemen wie Microsoft enthalten sind,  gegen moderne Technologien und (Managed-)Defense Strategien auszutauschen. Man muss sich bewusst sein, dass wir hier von Gruppen sprechen, die Erpressung und die daran anschließenden Methoden zu einem einträglichen Geschäftsmodell entwickelt haben.

Daher ist es wichtig, dass Unternehmen eine gründliche Ransomware-Risikobewertung in Zusammenarbeit mit Rechtsberatern, Versicherungspartnern und Strafverfolgungsbehörden durchführen. Um solche Angriffe überhaupt zu erkennen, kommt man um eine kontinuierliche und umfassende Schulung aller Mitarbeiter nicht herum. Die meisten Angriffe werden nach wie vor über Remote Access Services, E-Mails und Mobilgeräte lanciert. Das Arbeiten aus dem Homeoffice oder in hybriden Modellen ist hier ein ganz großes Thema. Wichtig ist es, Detection und Response- Technologien einzusetzen und, wenn man nicht selbst über ein SOC oder ein Team von Sicherheitsspezialisten verfügt, sich fachlichen Rat und Unterstützung zu holen. Und zwar bevor der Schadensfall eintritt. Firmen sollten innerhalb ihrer Vorbereitung sämtliche Prozesse berücksichtigen. Eine aktuelle Datensicherung ist immer noch extrem wichtig, um im Fall des Falles, die Systeme schnell säubern und wiederherstellen zu können. Zudem sollte man sich keinesfalls scheuen, den Vorfall zu melden und eng mit den entsprechenden Behörden zusammenzuarbeiten. Nur diese Transparenz hilft, andere Unternehmen vor dem gleichen Angreifer zu schützen.

https://www.cybereason.com/de/

Aufmacherbild / Quelle / Lizenz
Photo by Nohe Pereira on Unsplash