Hostile Tech

Wie Unternehmen Technologien verantwortungsvoll und im Sinne ihrer Stakeholder nutzen können, erläutert Erik Dörnenburg, Developer und Head of Technology bei Thoughtworks.

Technologien nehmen eine immer wichtigere Rolle in unserem Leben ein. Zum Teil ohne dass wir es bemerken. Aber werden vermehrt Entscheidungen und Aufgaben an besagte neue Technologien übertragen, dann wollen wir, dass diese unseren ethischen Erwartungen und Werten entsprechend getroffen bzw. umgesetzt werden. Dies führt unweigerlich dazu, dass sich auch Unternehmen Gedanken darüber machen, wie neue Technologien, wie Quantencomputer, das Internet der Dinge (IoT), künstliche Intelligenz (KI), Robotik oder Blockchain, richtig gehandhabt und gesteuert werden können. Viele Unternehmen sind sich heute sehr wohl der Tatsache bewusst, dass die von ihnen geschaffenen Technologien nicht im luftleeren Raum genutzt werden, sondern (gesellschaftspolitischen) Machtdynamiken unterliegen und damit weitreichende ethische Auswirkungen haben können.

Doch welche Technologien werden uns noch weiter im Alltag begleiten und Einfluss auf Unternehmen und Gesellschaft haben? Der aktuelle Looking Glass Report von Thoughtworks beleuchtet 100 Technologietrends. Hostile Tech ist eines von sechs Schwerpunktthemen, deren Chancen und Risiken der Report bewertet.

Alles eine Frage der Perspektive

Ob Technologien als „feindselig“ angesehen werden, ist oftmals eine Frage der Perspektive. In der Regel wird der Begriff „Hostile Tech“ vor allem mit kriminellen Handlungen, wie Ransomware oder Datenklau assoziiert. Aber auch legale und oft allgemein anerkannte Aktivitäten, wie Werbung und gezielte Kundenansprache, können von Nutzer:innen als Bedrohung angesehen werden. Während einige Menschen personalisierte Werbung als angenehm empfinden, weil sie so auf sie zugeschnittene Angebote erhalten, nehmen andere Menschen die dahinterstehende Sammlung ihrer personenbezogenen Daten als unangebracht oder gar bedrohlich wahr. 

Die zunehmende Besorgnis über die Nutzung und den Einfluss sozialer Medien in politischen Kampagnen, sowie die Art und Weise, wie politische und gesellschaftliche Debatten über soziale Medien geführt werden, rückt Hostile Tech immer weiter in den Fokus. Die zunehmende Regulierung rund um Datenerfassung, -nutzung und -speicherung, wie zum Beispiel in der europäischen Datenschutzgrundverordnung (DSGVO), spiegelt die kritische Haltung der Verbraucher:innen wider. 

Wenn der Algorithmus diskriminiert

Auch die unbeabsichtigten Verzerrungen in Algorithmen oder maschinellen Lernsystemen können bedrohlich sein. Besitzt die Technologie einen hohen Automatisierungsgrad, steigt die Wahrscheinlichkeit für ungewollte Verzerrungen rapide an. So stufte die Google-Bilderkennung im Jahr 2015 Menschen mit dunkler Hautfarbe als Gorillas ein. Ein weiteres Beispiel zeigt, dass alle Menschen von Verzerrungen betroffen sein können. Viele Einstellungsprogramme großer Unternehmen nutzen etwa Künstliche Intelligenz für die Prüfung von Bewerbungen und die Auswahl der besten Talente. Amazon hatte solche KI-Systeme eingesetzt, die sich später als frauenfeindlich herausstellten. 

Diese Verzerrung liegen darin begründet, dass ein Algorithmus immer nur so gut ist, wie die Daten auf deren Grundlage er arbeitet. Die zugrundeliegenden Daten sind das Blut in den Adern der Algorithmen. Sie bilden die Basis für selbstlernende Systeme, sowie ultimative Vorlagen für alle späteren Kalkulationen und Empfehlungen. Denn moderne Lernalgorithmen nutzen vorgegebene Datensammlungen, um darin Muster oder Verbindungen zu erkennen und Gesetzmäßigkeiten offenzulegen, auf die sich spätere Entscheidungen stützen können. Da diese Daten durch Menschen generiert und verarbeitet werden, sind sie nie neutral. Sie spiegeln beispielsweise weit verbreitete Vorurteile wider oder erfassen nur bestimmte Personengruppen. Arbeitet ein “intelligentes” System auf der Grundlage eines solchen Datensatzes, ist das Ergebnis oft Diskriminierung. Dieser Umstand wird mit der voranschreitenden Verbreitung des maschinellen Lernens zur großen Herausforderung.

Negative Auswirkungen und Interessenskonflikte

Das Grundproblem bei der Entwicklung neuer Technologien: In der Regel haben die Verantwortlichen bestimmte Stakeholder im Sinn, deren Bedürfnisse erfüllt werden sollen. Doch oftmals hat das Produkt Auswirkungen auf andere Interessengruppen, die entweder nicht bedacht oder billigend in Kauf genommen werden. So könnte ein Produkt etwa negative Auswirkungen auf die Umwelt haben. Das Training eines einzigen Modells zur Verarbeitung natürlicher Sprache kann beispielsweise einen CO2-Ausstoß von 500t verursachen, was 125 Hin- und Rückflügen zwischen Tokio und Toronto entspricht  – eine Auswirkung, die nur wenige berücksichtigen.

Meta (früher: Facebook) nimmt nachweislich billigend in Kauf, dass 32 Prozent der Teenager-Mädchen sich durch Instagram noch schlechter fühlten, wenn sie sich in der Vergangenheit bereits wegen ihres Körpers schlecht gefühlt haben. Das zeigen interne Forschungsergebnisse, die das Unternehmen zwei Jahre lang geheim gehalten hat. In einem internen Bericht hieß es sogar, dass der Druck, nur die besten Momente zu teilen und perfekt auszusehen, Teenager in Depressionen, geringes Selbstwertgefühl und Essstörungen stürzen kann. Obwohl Meta die negativen Auswirkungen seiner geschäftlichen Aktivitäten bewusst war, änderte das Unternehmen nichts daran – es versuchte das Ganze sogar geheim zu halten. 

Die digitalen Ungleichheiten, die durch die Pandemie und die anhaltende Klimakrise noch deutlicher zu Tage befördert werden zeigen eindrücklich, warum es für Unternehmen an der Zeit ist, die feindseligen Auswirkungen ihrer technologischen Entscheidungen zu analysieren und zu berücksichtigen. Zudem verlangen Mitarbeiter:innen, Kund:innen, Investor:innen und andere Stakeholder, dass Unternehmen verantwortungsvoll und fair mit Daten, Technologien und digitalen Anwendungen umgehen. Ihnen ist es wichtig zu wissen, ob ein Unternehmen die rechtlichen Anforderungen erfüllt und ethische Konflikte adressiert. Für viele Firmen ist es deshalb längst überlebenswichtig, diese Anforderungen zu erfüllen. 

Doch wie können Technologien verantwortungsvoll und im Sinne der Gesellschaft genutzt werden?

Verantwortungsvolle Technologie – Der Schlüssel zum Erfolg?

Der Begriff der verantwortungsvollen Technologie („Responsible Tech“) ist die Oberkategorie für unterschiedliche Konzepte, die sich mit dem bewussten Umgang mit Technologie beschäftigen. Dabei soll das Verhalten von Technologie und Unternehmen mit den Interessen der Einzelnen und der Gesellschaft in Einklang gebracht werden. Er berücksichtigt gesellschaftliche Werte, unbeabsichtigte Umstände sowie den negativen Einfluss der Technologie und reduziert damit die Risiken, die durch die Technologie entstehen können. Verantwortungsvolle Technologie bezieht sich dabei nicht nur auf die Produkte, die Unternehmen entwickeln, sondern erstreckt sich über die gesamte Wertschöpfungskette. 

Die Zero-Trust-Architektur kann eine gute Möglichkeit sein, um verantwortungsvoll mit Technologien umzugehen und Datenlecks zu verhindern. Der strategische Ansatz basiert auf dem Grundsatz „Never trust, always verify“.  Galt lange Zeit die Grenze des Netzwerks als wesentliche Schwelle für den Schutz von IT-Systemen, müssen nun alle Zugriffe auf Ressourcen, sowohl intern als auch extern, laufend überprüft und verifiziert werden. Alles, was sich außerhalb der lokalen Domain abspielte, wurde als potenziell bedrohlich eingestuft und durch Sicherheitsmaßnahmen wie Malware-Scans und Firewalls kontrolliert. Geräte im eigenen Netzwerk galten hingegen als grundsätzlich vertrauenswürdig, da sie sich innerhalb dieser geschützten Umgebung befinden. Mit der Weiterentwicklung von Technologien hat sich die Lage allerdings wesentlich verändert. Durch Cloud-Services, Remote Work und die Verwendung von eigenen Geräten verschwimmt die Grenze zwischen dem eigenen Netzwerk und der äußeren Bedrohung zunehmend. Gleichzeitig stellt der rasante Anstieg von Cyberangriffen neue Anforderungen an die Sicherheitsstrategie von Unternehmen.

Auch dieIntegration diverser Teams – unabhängig von Faktoren wie der Herkunft, dem Geschlecht oder der sexuellen Orientierung– ermöglicht es Unternehmen, unterschiedliche Perspektiven einzubringen und kritisch über die wirtschaftlichen und sozialen Auswirkungen, die ihre bewussten oder unbewussten Handlungen nach sich ziehen können, zu reflektieren. Diese Meinungsvielfalt bildet eine Grundvoraussetzung für die Entwicklung von Technologien und Innovationen, die einen positiven gesellschaftlichen Wandel unterstützen, anstatt ihn zu untergraben. 

Mehr Sicherheit in der Software-Lieferkette

Hacker machen sich außerdem zunehmend die asymmetrische Natur von Angriff und Verteidigung zunutze – sie müssen nur eine Schwachstelle finden, während Unternehmen die gesamte Angriffsfläche absichern müssen – und setzen dabei immer ausgefeiltere Hacking-Techniken ein. Beim Angriff auf die Software-Lieferkette schalten sich die Angreifenden in der Regel im Vorfeld oder in der Mitte der Lieferkette ein, um mit ihren feindseligen Aktivitäten und deren Folgen bei möglichst viele Nutzer:innen Schaden zu hinterlassen. Im Vergleich zu isolierten Sicherheitsverletzungen weisen erfolgreiche Supply-Chain-Angriffe im Regelfall ein wesentlich größeres Ausmaß sowie weitreichendere Auswirkungen auf. 

Daher ist es besonders wichtig, Unternehmen für den verantwortungsvollen Umgang mit Technologien zu sensibilisieren. So können diese ihre IT gegen Datenschutz- und Sicherheitsverletzungen stärken sowie besser gegen neuere Bedrohungen und negative Auswirkungen, resultierend aus der zunehmenden Verbreitung feindseliger Technologien, schützen. Die Verbesserung der Sicherheit der Software-Lieferketteist dabei ein entscheidender Bestandteil, wenn Unternehmen an einer Strategie arbeiten, um ihre Systeme sicher zu halten. 

Ziel ist es, Sicherheit und Ethik zu einer Disziplin zu machen, die in allen Bereichen des Unternehmens zum Tragen kommt.

Wie viel Verantwortung können Unternehmen tragen?

Klar ist: (Globale) Unternehmen tragen eine immense Verantwortung – gegenüber ihren Mitarbeitenden, ihren Shareholdern, aber auch gegenüber der Gesellschaft. Dennoch stellt sich die Frage, wie viel Verantwortung Unternehmen tatsächlich tragen können. Müssen gesamtgesellschaftliche Fragen diesen Ausmaßes nicht von und mit politischen Entscheidungsträger:innen getroffen werden?

Der Dialog mit politischen Entscheider:innen ist unerlässlich, um auf Verbesserungen der gesetzlichen Vorschriften zum Schutz der Privatsphäre und des Datenschutzes zu drängen und um auf mögliche Rückschritte hinzuweisen. Unternehmen sollten ihr Bestes tun, um die negativen Auswirkungen ihrer Technologien sichtbar zu machen und zu bekämpfen. Aber vor allem die Politik ist in der Pflicht. Zwar gibt es auch in Deutschland und der Europäischen Union positive Entwicklungen, wie den Schutz der personenbezogenen Daten durch die DSGVO oder die Investition der Europäischen Kommission in ein umfangreiches Forschungs- und Entwicklungsprogramm für verantwortliche Innovation. Darüber hinaus haben die EU-Länder Erklärungen verabschiedet, die unterstreichen, dass Innovation verantwortungsvoll erfolgen muss. 

Ein gutes Beispiel für ein Projekt, das eine Win-Win-Situation für Unternehmen und Gesellschaft darstellt, ist Cloud Carbon Footprint (CCF), ein Open-Source-Tool, das unter Verwendung von Cloud-APIs die geschätzten CO2-Emissionen visualisiert. Damit können Unternehmen nun ihren CO2 Ausstoß verringern und gleichzeitig Kosten einsparen. 

Auch die Green Software Foundation (GSF) will durch neue Standards und Best Practices, die Entwicklung von Open-Source-Werkzeugen, Schulungen sowie den Aufbau einer Community „Grüner Software Botschafter“ das Verantwortungsbewusstsein und die Handlungsfähigkeiten fördern. Konkret soll der durch Software verursachte C02-Ausstoß bis zum Jahr 2030 um 45 Prozent reduziert werden. Das entspricht dem Beschluss des Pariser Klima-Abkommen (2015). Diese Initiativen wurden von den Unternehmen selbst ins Leben gerufen. Dennoch sollten auch zukünftig Anreize für Unternehmen geschaffen werden, um verantwortungsvolles Handeln im Sinne der Gesellschaft voranzutreiben.

Verantwortungsvolle Technologie: Eine Chance für Unternehmen sich zu positionieren

Eine aktuelle Umfrage von Cisco ergab, dass fast 80 Prozent der Verbraucher:innen den Datenschutz bei Kaufentscheidungen berücksichtigen und bereit sind, mehr für Produkte oder Anbieter mit höheren Datenschutzstandards zu bezahlen. Widerstandsfähige Datenschutzpraktiken werden damit für einige Unternehmen zu einem starken Unterscheidungsmerkmal.

Auch Apple nutzt seine Maßnahmen zum Datenschutz als Verkaufsargument und Unterscheidungsmerkmal gegenüber anderen Konzernen. Der Erfolg des Unternehmens zeigt: Der verantwortungsvolle Umgang mit Technologien, ihren Auswirkungen und dem Schutz von Daten, bietet einen klaren Vorteil zur Positionierung für Unternehmen. Diese investieren einerseits in den Schutz vor Hackerangriffen und achten andererseits darauf, Kundenwünsche zu respektieren, indem sie das unseriöse Sammeln von Daten vermeiden. 

Das alles trägt zum Vertrauen der Kund:innen bei und fördert eine positive Wahrnehmung des Unternehmens. Firmen sollten den Schutz gegen Cyberattacken aber nicht als Allheilmittel betrachten. Sie tun gut daran, ein solides Rahmenwerk für ihre Datenethik zu entwickeln und die möglichen negativen Auswirkungen, der von ihnen verwendeten Technologien, anzuerkennen.


Über den Autor

Erik Dörnenburg ist Software Engineer und leidenschaftlicher Technologe. Als Head of Technology bei Thoughtworks hilft er Kunden, ihre geschäftlichen Herausforderungen mit modernen Technologien, Plattformen und Praktiken zu lösen. Auf seiner 25-jährigen Reise durch die Tech-Branche ist Erik einer Fülle neuer Technologien begegnet. Dabei ist es ihm wichtig deren Potenzial zu bewerten und gleichzeitig bewährte Praktiken für die neuen Technologien zu adaptieren.

Während seiner gesamten Laufbahn war Erik ein Verfechter von agilen Werten und Open-Source-Software. Er ist regelmäßiger Redner auf internationalen Konferenzen, hat an einigen Büchern mitgewirkt und unterhält mehrere Open-Source-Projekte. Erik hat einen Abschluss in Informatik von der Universität Dortmund und hat Informatik und Linguistik am University College Dublin studiert.


Bildquelle / Lizenz Aufmacher:

Photo by Adi Goldstein on Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.