State of KI: Was noch getan werden muss, bis die Technologie zum neuen Normal wird
Jennifer Belissent arbeitet bei Snowflake als Principal Data Strategist. Sie plädiert für einen pragmatischen Umgang mit den neuen Technologien rund um künstliche Intelligenz.
Von der automatischen Korrektur unserer WhatsApp-Nachrichten bis hin zur Krebsfrüherkennung: Die Möglichkeiten, die Künstliche Intelligenz bietet, sind nahezu grenzenlos. Deshalb ist es nicht verwunderlich, dass die Technologie schon bald Teil des Geschäftsalltags sein wird. Davon sind laut einer PwC-Umfrage 86 Prozent der Unternehmen überzeugt. Tatsächlich steckt Künstliche Intelligenz aber noch immer in den Kinderschuhen – und das hat viele Gründe. Einerseits gibt es noch immer keine rechtliche Grundlage, die die Nutzung einheitlich regelt. Andererseits ist der Großteil der Unternehmen weit davon entfernt, ihre Daten so nutzen zu können, dass KI-Modelle mit ihrer Hilfe tatsächlich zu validen Ergebnissen kommen können.
Trotz des Nutzens sind die Vorbehalte groß
Die Bereiche, in denen KI-Modelle einen echten Mehrwert für die Geschäftswelt erbringen können, sind vielfältig: Sie sind in der Lage, Streaming-Nutzer:innen basierend auf ihren Interessen die nächste Serie zu empfehlen oder Kund:innen das passende Shirt zu einer Jeans vorzuschlagen, die es bereits in den Warenkorb geschafft hat. Doch das, was Künstliche Intelligenz leisten kann, geht weit über solche einfachen Empfehlungen hinaus. Sie kann ebenso dabei helfen, Entscheidungen zu treffen oder Prognosen zu erstellen – zum Beispiel darüber, wie hoch die Wahrscheinlichkeit ist, dass es sich bei einer Online-Bestellung um einen Betrugsversuch handelt.
Doch obwohl KI-Modelle für jede erdenkliche Branche unzählige Anwendungsmöglichkeiten bieten, gehören sie noch lange nicht zum Standardrepertoire eines jeden Unternehmens – und das hat gute Gründe. Tatsächlich ist das Misstrauen unter den Deutschen nämlich noch immer groß, wenn es darum geht, die Künstliche Intelligenz Entscheidungen treffen zu lassen, die über die Autokorrektur ihrer Nachrichten oder der Empfehlung einer Serie hinausgehen. So befürchten einer Bitkom-Umfrage zufolge knapp zwei Drittel der Menschen, dass durch die neue Technologie Arbeitsplätze verloren gehen könnten. Fast die Hälfte der Befragten glaubt außerdem, dass Bewerber:innen im Einstellungsprozess grundlos abgelehnt werden könnten – zum Beispiel weil die KI Bewerbungen bestimmter Geschlechter oder Bevölkerungsgruppen ungerecht behandelt.
Neue Gesetzgebung könnte für mehr Klarheit sorgen
Diese Vorbehalte sind nicht unbegründet. Das liegt auch daran, dass es noch immer kein einheitliches Regelwerk gibt, wie KI-Modelle korrekt einzusetzen sind. Viele Ethik-Expert:innen äußern lautstark ihre Besorgnis über die Auswirkungen, die der flächendeckende Einsatz von Künstlicher Intelligenz nach sich ziehen könnte. Und genauso vielfältig wie die Meinungen gestalten sich auch die potenziellen Lösungsansätze. Laut Algorithm Watch gibt es derzeit 167 verschiedene Richtlinien und Regelwerke, die aufgestellt wurden, um Unternehmen einen Rahmen für die ethische Nutzung von KI-Modellen zu bieten. Doch die EU will genau das jetzt ändern und endlich für mehr Einheitlichkeit sorgen.
2021 schlug die EU eine Gesetzgebung vor, die den Einsatz Künstlicher Intelligenz potenziell auf globaler Ebene regeln könnte – ähnlich wie die DSGVO, die ebenfalls Auswirkungen über die europäischen Grenzen hinaus hat. Ziel der neuen gesetzlichen Regelung wäre es, verschiedene Risikokategorien einzuführen, welche die verschiedenen KI-Einsatzgebiete bewerten würden. So könnte zum Beispiel das Aussortieren unpassender Lebensläufe als hochriskant eingestuft werden und verhindern, dass es zur Diskriminierung bestimmter Bevölkerungsgruppen auf dem Arbeitsmarkt kommt. Dadurch ließen sich die bisherigen Ethikrichtlinien für den vertrauenswürdigen Einsatz Künstlicher Intelligenz erweitern, die unter anderem dafür sorgen sollen, dass Menschen unterschwellig manipuliert werden und dadurch Schaden nehmen. Unternehmen, die sich nicht an die neue Gesetzgebung halten, könnten dann mit hohen Geldstrafen belangt werden. Was frühere Verordnungen betrifft, beispielsweise zur „fairen Vergabe“ von Krediten oder Wohnungen, belaufen sich die Summen auf bis zu sechs Prozent des weltweiten Umsatzes beziehungsweise maximal 36 Millionen US-Dollar. Für Unternehmen könnte eine neue und vor allem einheitliche EU-Gesetzgebung also einen echten Anreiz darstellen, um die verwendeten KI-Modelle hinsichtlich ihrer ethischen Vertretbarkeit zu prüfen.
Datenvielfalt als zentraler Baustein für ethische KI-Modelle
Um gewährleisten zu können, dass KI-Modelle Ergebnisse liefern, durch die keine bestimmten Bevölkerungsgruppen benachteiligt werden, braucht es extrem große Datenmengen. Doch noch viel wichtiger als die schiere Masse ist ihre Vielfalt. Die chinesische Ant Group, die zu Alibaba gehört, verwendet beispielsweise über 3.000 Variablen, um zu bewerten, an welche kleinen Unternehmen Kredite vergeben werden. Die Ausfallquote des Modells, mit dem bereits 16 Millionen Unternehmen finanziert wurden, beläuft sich bisher auf nur etwa ein Prozent. Die hohe Anzahl der Variablen, mit denen es trainiert wurde, stellt sicher, dass eine riesige Bandbreite abgedeckt und kein:e Geschäftsführer:in aufgrund von Faktoren wie des Geschlechts oder der Herkunft ungleich behandelt wird.
Doch nicht alle Unternehmen verfügen über derart große Menge an Datenpunkten, wie Alibaba es tut. Wie sich dennoch eine vielfältige Bandbreite erzielen lässt, verdeutlicht das Beispiel des amerikanischen Center for Disease Control, das im Frühjahr 2020 ein KI-Modell einsetzte, um das Covid-Risiko zu prognostizieren. Zunächst wurde es mit Medicaid-Daten trainiert, die eine überwiegend ältere Bevölkerung repräsentierten. Daraufhin trainierten verschiedene Anbieter das Modell erneut – diesmal mit Daten, die von einkommensschwachen Patient:innen aller Altersgruppen stammten. Nachdem das Modell freigegeben wurde, halfen sechs weitere Anbieter dabei, es mit zusätzlichen Datensets zu trainieren, wobei neue Risikogruppen wie beispielsweise Menschen, die an Asthma leiden, identifiziert werden konnten.
Data Economy Leader sind noch immer rar gesät
Um über möglichst große Datenmengen zu verfügen, die ein breites Bild der Gesellschaft abzeichnen, müssen Unternehmen alle bestehenden Datenquellen anzapfen – dafür ist eine Datenplattform unerlässlich, um so sämtliche Daten in einer Single Source of Truth, also an einem einzigen Ort zu speichern. Falls nötig, können die Datenquellen durch extern generierte Informationen erweitert werden. Doch das entwickelt sich schnell zu einer Mammutaufgabe für Unternehmen, wie auch eine 2021 durchgeführte Umfrage zeigt: 78 Prozent der Unternehmen gaben an, ihre Budgets für die externe Datenerfassung erhöhen zu wollen. Dass Wunsch und Wirklichkeit an dieser Stelle noch immer weit auseinanderklaffen, wird allerdings durch eine repräsentative Studie von Snowflake belegt: Sie ergab, dass gerade einmal sechs Prozent der Unternehmen als tatsächlich führend bezeichnet werden können, da sie bereits dazu in der Lage sind, Daten aus den unterschiedlichsten Quellen zu integrieren, diese sowohl intern als auch extern zu teilen und alle oder zumindest die meisten Entscheidungen datenbasiert zu treffen.
Damit KI-Modelle in naher Zukunft zum Standard des Geschäftsalltags gehören, muss die Anzahl der Unternehmen, die als Data Economy Leader bezeichnet werden können, drastisch ansteigen. Die Bemühungen der EU, allgemeingültige Gesetze für die ethische Nutzung von KI-Modellen zu beschließen, sollte daher für viele als Warnschuss gelten. Sobald neue Verordnungen in Kraft treten, die den Einsatz aller Modelle hinsichtlich ihres Risikos bewerten, könnte es nach aktuellem Stand nämlich für den Großteil der Unternehmen eng werden. In welchem Chaos das enden kann, hat der holprige Start der DSGVO eindrucksvoll bewiesen. Unternehmen, die das – ebenso wie hohe finanzielle Strafen – vermeiden wollen, sollten also genau jetzt im Kontext ihrer Datennutzung mit der Implementierung ethisch vertretbarer Prozesse beginnen.
Über die Autorin
Jennifer Belissent ist Principal Data Strategist bei Snowflake, wo sie Kunden bei der Entwicklung von Data Cloud-Strategien unterstützt, um so den Zugang zu Daten zu erleichtern und einen Mehrwert für den Geschäftserfolg zu schaffen. Zuvor war sie zwölf Jahre bei Forrester Research als international anerkannte Expertin für die Themen Datenmanagement und -kompetenz, Data Sharing und Data Economy sowie Data-for-Good tätig.
Bildquelle / Lizenz Aufmacher: Foto von Kampus Production von Pexels
Creative Commons Lizenz CC BY-ND 4.0
Sie dürfen:
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.