„Eine transparente KI ist weniger wichtig als man denkt“

Wir waren mit Peter van der Putten, Director Decisioning & AI Solutions bei Pegasystems, im Gespräch über die wesentlichen Punkte im Umgang mit künstlicher Intelligenz.

Welchen Umgang mit KI erleben Sie bei Ihren Kunden?
Früher haben Unternehmen KI als etwas Magisches gesehen – etwas, das all ihre Probleme auf magische Weise lösen und aus dem Nichts einen Nutzen generieren kann. Oder als eine Art schwarze Magie, die Arbeitsplätze kostet und Kunden diskriminiert. Dieses Bild von KI entstand, als es sich noch um eine Zukunftstechnologie handelte, die in Innovationslaboren erprobt wurde, aber keinen Einfluss auf das Tagesgeschäft hatte.

Inzwischen hat es sich deutlich verändert: KI ist im Alltag angekommen. Laut einer Umfrage von NewVantage Partners ziehen heute 92,1 Prozent der Unternehmen einen geschäftlichen Nutzen aus ihren Investitionen in Daten und KI, 91,7 Prozent wollen ihre Investitionen in den Bereich erhöhen.

Diese Entwicklung hat sich für uns bereits frühzeitig abgezeichnet, da unsere Kunden aus Branchen mit vielen Daten, Interaktionen und Prozessen kommen, etwa aus dem Banking, der Telekommunikation, dem Versicherungswesen und der Produktion. Dort gibt es einen enormen Bedarf an spezifischen Anwendungen für One-to-One-Marketing und einen intelligenten, proaktiven Kundenservice, aber auch an einer Optimierung alltäglicher Geschäftsprozesse, die weit über simple Automatisierungen hinausgeht.

Warum startet KI gerade jetzt durch?
Schwer zu sagen, aber sieht so aus, als seien die Innovationen rund um KI und der verstärkte Einsatz von KI-Anwendungen eher einem Paradigmenwechsel als schrittweisen Veränderungen im Allgemeinen zu verdanken. Sicherlich hilft, dass wir Verbraucher uns an die Nutzung von KI-basierten Services gewöhnt haben – von der Google-Suche über Spotify-Playlists bis zur Navigation im Straßenverkehr. KI ist für uns etwas Alltägliches wie Elektrizität geworden. Dazu kommt, dass die Corona-Pandemie viele Unternehmen gezwungen hat, ihre digitale Transformation hin zu autonomeren, selbst optimierenden Geschäftsabläufen voranzutreiben.

Schlauen Algorithmen wird immer noch mit Skepsis begegnet, auch weil sie nicht immer durchschaubar sind. Welche Grundsätze im Umgang mit KI benötigt es für einen dauerhaft produktiven Einsatz?
Eine transparente KI ist ein ehrenwertes Ziel, aber trotz der vielen Diskussionen um die Gefahren von Black-Box-KI vielleicht weniger wichtig als man denkt. Schließlich sind Menschen auf eine gute Art eher bequem. Wenn es ein einfach zu nutzendes Produkt, einen Service oder eine Technologie gibt, die unser Leben in einem Bereich nachweislich besser macht, dann werden wir sie auch nutzen. Menschen, die KI nicht vertrauen, werden sie irgendwann akzeptieren und dann verwenden. So wie wir eine Aspirin nehmen oder an Bord eines Flugzeugs gehen und nicht mehr wissen wollen, wie diese Dinge funktionieren.
Nun können wir uns über uns selbst als faule Wesen lustig machen, die zu bequem sind, um eine kritische Haltung gegenüber einer Technologie einzunehmen. Doch der wichtige Punkt ist, dass KI das Vertrauen von Kunden, Bürgern und Mitarbeitern wert sein sollte. Sie muss ihnen zugutekommen und nicht nur dem Unternehmen. Keine noch so große Transparenz kann helfen, die Akzeptanz eines KI-Systems zu verbessern, wenn es egoistisch ist.

Peter van der Putten: „Am wichtigsten ist, dass KI nutzbringend, empathisch und altruistisch ist. Sie kommt allen Beteiligten zugute und richtet keinen Schaden an. Erst danach kommen andere Prinzipien ins Spiel, etwa dass durch KI gefällte Entscheidungen transparent und erklärbar sind.“

Wenn Transparenz gar nicht so wichtig ist – worauf kommt es dann an?
Am wichtigsten ist, dass KI nutzbringend, empathisch und altruistisch ist. Sie kommt allen Beteiligten zugute und richtet keinen Schaden an. Erst danach kommen andere Prinzipien ins Spiel, etwa dass durch KI gefällte Entscheidungen transparent und erklärbar sind. Dabei geht es nicht um vollständige oder völlig korrekte, sondern sinnvolle Erklärungen für bestimmte Zielgruppen. Ebenso müssen automatisierte Entscheidungen fair und nicht diskriminierend sein, sollten möglichst wenig unerwünschten Bias aufweisen und die Privatsphäre respektieren; sie sollten genau und zuverlässig sein. Und schließlich ist es sinnvoll, wenn Unternehmen auch für vollständig automatisierte Entscheidungen rechenschaftspflichtig sind. Sie sollen sich nicht damit herausreden können, dass es die KI war, die eine Entscheidung getroffen hat.

Es gibt derzeit viele Versuche, einen regulatorischen Rahmen für KI zu schaffen. Welche Initiativen sehen Sie als besonders geeignet an, um das Thema sachlich voranzutreiben?
Insbesondere auf europäischer Ebene machen wir Fortschritte bei der Ausarbeitung von Regularien, die einen vertrauenswürdigen Einsatz von KI sicherstellen können. Im April des vergangenen Jahres hat die EU den Entwurf einer KI-Verordnung vorgelegt, der auf den Vorarbeiten einer Expertengruppe aufbaut. Diese hatte Definitionen und Grundsätze wie Fairness, Transparenz, Rechenschaftspflicht und Robustheit für KI vorgeschlagen. Allerdings reicht es nicht, Vorgaben für KI als allgemeine Technologie zu machen, da sie sowohl für gute als auch für schlechte Zwecke eingesetzt werden kann. Der EU-Entwurf erweitert die Vorschläge deshalb und besagt beispielsweise, dass wir Ziele und Zwecke spezifischer KI-Systeme bewerten müssen – etwa, ob sie mit den Zielen der Nutzer, Verbraucher und Bürger übereinstimmen und wie hoch das Risiko ist, Schaden anzurichten. Auf dieser Grundlage sind bestimmte Anwendungen von KI gänzlich verboten, während andere als hochriskant eingestuft werden und einer strengeren Kontrolle unterliegen, zum Beispiel durch eine zentrale Registrierung und eine Meldepflicht bei Vorfällen.

Wie weit ist die Gesellschaft bei der Akzeptanz von KI?
Die Gesellschaft steht KI kritischer gegenüber als früher, aber das ist nichts Schlechtes und man kann es als Zeichen dafür sehen, dass KI in unserem Leben eine größere Rolle spielt und ausgereifter ist. Hin und wieder flackern einige der alten „Roboter, die die Welt übernehmen“-Geschichten auf, doch das zeugt eher von unserer Angst und Faszination für „Hollywood-KI“. Ein gutes Beispiel dafür ist die mediale Aufregung um den Google-Entwickler, der behauptet hat, der Chatbot LaMDA sei empfindungsfähig geworden.
Auch wenn LaMDA beeindruckend ist, so gibt es doch viele solcher Sprachmodelle, die lediglich auf Korrelationen zwischen Wörtern und nicht auf tiefem Verständnis beruhen. Außerdem brauchen wir keine empfindungsfähige KI oder eine technologische Singularität, um nützliche KI-Anwendungen zu entwickeln. Die Kunden hätten ohnehin viel lieber einen Chatbot, der einfach nur gut funktioniert – so etwas zu bauen, macht mehr als genug Arbeit.
Es mag die Sorge vor einer hypothetischen Hollywood-KI geben, doch die Angst vor der KI, die wir täglich nutzen, ist viel kleiner. Insofern ist die Akzeptanz von KI in der Gesellschaft vielleicht viel höher als wir denken – solange die Technologie zum Wohle der Verbraucher eingesetzt wird und nicht zum alleinigen Nutzen von Unternehmen oder Regierungen.

Der wichtige Punkt ist, dass KI das Vertrauen von Kunden, Bürgern und Mitarbeitern wert sein sollte.

Peter van der Putten

Die Technologie ist soweit, dass auch der Missbrauch aus den unterschiedlichsten Motiven höchst attraktiv ist. Worauf müssen sich Unternehmen in diesem Zusammenhang einstellen?
Die Möglichkeiten, KI für schlechte Zwecke einzusetzen, sind tatsächlich sehr vielfältig, allerdings sehen wir eine derartige KI-Nutzung durch Betrüger und andere Kriminelle gar nicht so oft – häufiger ist der Versuch, KI bewusst zu manipulieren, durch sogenannte Adversarial Attacks.
So werden KI-Systeme beispielsweise sehr intensiv genutzt, um Spam-Mails zu erkennen, Fehlinformationen in sozialen Medien aufzuspüren, Cyberangriffe zu entdecken sowie um Geldwäsche und Klickbetrug zu verhindern. Hier ist es ein kontinuierlicher Kampf zwischen den „guten Jungs“ und den „bösen Jungs“, weil die bösen Jungs ständig versuchen, verbesserte Erkennungsalgorithmen zu umgehen. KI muss deshalb stetig lernen und sich in Echtzeit anpassen, um neue Taktiken, die eine Erkennung verhindern sollen, aufzuspüren. Das ist nicht einfach, dennoch kann man auf KI in diesen Bereichen nicht verzichten – sie ist kein Nice-to-Have, sondern schlicht ein Muss.
Ein anderes Beispiel für Missbrauch ist kreative KI, die alle Arten von Inhalten wie Texte und Bilder generieren kann. Kriminelle könnten sie für Deep Fakes verwenden, um sich als jemand anders auszugeben und Identitäten zu missbrauchen. Daher ist es wichtig, sich über den Stand der Technik in diesen Bereichen auf dem Laufenden zu halten, denn wir werden Informationen nicht mehr uneingeschränkt vertrauen können, ohne sie zu überprüfen.


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.