Künstliche Intelligenz in der Verbrechensbekämpfung
Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI
Staffel I – 3. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.
In dieser Folge über die Verbrechensbekämpfung mit Hilfe von künstlicher Intelligenz wird erörtert, ob Science Fiction schon Teil der Gegenwart geworden ist.
Die Zukunft ist vorhersehbar und Morde können durch Künstliche Intelligenz verhindert werden: Polizeibeamte stürmen an einen Tatort, noch bevor der Täter eintrifft und ziehen ihn aus dem Verkehr: Das ist der Stoff für den Science-Fiction-Thriller „Minority Report“ mit Tom Cruise. Doch Pre-Policing ist längst nicht mehr reine Zukunftsvision aus Hollywood: Die auf Künstlicher Intelligenz basierenden Ermittlungsmethoden sind Teil alltäglicher Polizeiarbeit.
Als Vorreiter gilt die Polizei von Chicago. Zusammen mit einer Gruppe von Datenanalyst/innen wurde 2013 eine sogenannte „Heatlist“ erstellt. 400 Menschen, von denen wahrscheinlich eine Gefahr ausgeht oder die selbst in Gefahr geraten könnten, rückten in den Fokus. Die Datenanalyst/innen programmieren einen mathematischen Algorithmus der mit den Rohdaten polizeibekannter Personen arbeitet: Varoon Bashyakarla studiert damals Statistik und Ökonomie an der Yale-Universität und gehört zum Team.
Varoon Bashyakarla: „Unser Job war es dem Department dabei zu helfen seine Modelle zu verbessern um Gewaltverbrechen vorherzusagen. Das Chicago Police Department weiß, dass manche Nachbarschaften eine höhere Kriminalitätsrate haben als andere. Und das Department weiß auch, dass Kriminalität vom Faktor Zeit abhängt: Die Kriminalität in Chicago ist im Sommer viel schlimmer als im Winter. Wir entschieden uns auf das Phänomen der Schnittmenge von Ort und Zeit zu schauen. Wir haben folgendes herausgefunden: wenn wegen Gewalt Verurteilte aus dem Gefängnis wieder entlassen wurden und an ihre alte Meldeadresse zurückkehrten, dann stieg in manchen Nachbarschaften nach einer Zeit die Gewaltrate wieder an.“
In welcher Nachbarschaft wohnt eine Person? Mit wem wurde sie verhaftet? wurden diese Personen später selbst Opfer von Gewaltverbrechen? Mit diesen Rohdaten füttern Informatiker/innen und Statistiker/innen wie Varoon Bashyakarla die Datenbanken. Heute kann die Polizei in Chicago in wenigen Sekunden eine Linkanalyse ihrer potentiellen Gefährder/innen erstellen. Inklusive Adresse, Soziolversicherungsnummer, Vorstrafenregister, Telefon- Kontakten, Facebook-Freunden, Familienangehörigen. Waren es 2013 noch 400, so sind es 2017 bereits 1600 Namen auf der Heatlist des Chicago Police Departments. Pre Policing-Methoden gibt es heute in mehreren Städten der USA und Großbritanniens. Auch in Deutschland werden Verfahren der Künstlichen Intelligenz bei der Polizeiarbeit erprobt. Die Programme tragen Namen wie HanchLab, Matrix oder Pred Pol.
Varoon Bashyakarla: „Pred Pol basiert auf der Routine-Activity-Theorie: Es wird angenommen, das unser Alltag von Routine geleitet ist. Wenn ich mit meinem Fahrrad von der Arbeit nach Hause fahre, dann nehme ich stets den selben Weg. Die Annahme ist, dass dies für alle zutrifft: Für Kriminelle und Nicht-Kriminelle. Und wir können dieses Verhaltensmuster benutzen um vorherzusagen wo Menschen hingehen werden.“
Ein Algorithmus ist ein Modell, das Rohdaten interpretiert und weiterverarbeitet. Die Routine-Activity-Theorie entstammt ursprünglich einem Algorithmus aus der Seismographie um Erdbeben vorherzusagen. Heute benutzen Sicherheitsbehörden diesen Algorithmus auf ganz unterschiedlichen Feldern: Grenzsicherung, Gewalt-Kriminalität oder im Kampf gegen moderne Sklaverei.
Varoon Bashyakarla: „Die Idee basiert auf geographischen Eigenschaften eines Ortes. Es wird angenommen, dass manche Gegenden einer Stadt aus bestimmten Gründen mehr zu Kriminalität neigen als andere. Wenn es einen Anstieg von Kriminalität in einer Gegend gibt, dann könnte das zu mehr Kriminalität führen. So wie ein Erdbeben auch Nachbeben auslösen kann. Das ist kontrovers und darum ist die Heatlist in Chicago kontrovers. Denn die identifizierten Menschen scheinen manchmal einfach nicht auf diese Liste zu gehören. Menschen die scheinbar völlig unschuldig sind, aber möglicherweise Opfer von Gewalt werden könnten. Soziale Netzwerke spielen bei diesem vorausschauenden System auch eine Rolle.“
Die Juristin und Essayistin Yvonne Hofstetter ist Geschäftsführerin der Teramark Technologies GmbH. Das Unternehmen entwickelt Systeme der künstlichen Intelligenz sowohl für staatliche Einrichtungen als auch für Wirtschaft und Industrie; Sie ist seit Jahren auf die Auswertung großer Datenmengen mit lernenden Maschinen spezialisiert.
Ihr Bestseller „Sie wissen alles“ beschäftigt sich mit der Überwachung durch Big Data im Zeitalter der Digitalisierung. Künstliche Intelligenz – kurz KI – nennt Yvonne Hofstetter eine Risikotechnologie:
Yvonne Hofstetter: „Weil sie – wenn sie in Bezug auf den Menschen eingesetzt wird – massiv gegen Grundrechte verstößt. Standard-Aufgabe der KI ist die Klassifizierung. Klassifizierer nimmt sich eine Gruppe von Objekten – in diesem Fall vielleicht Menschen, und segmentiert die. Also diese KIs die haben sogenannte Diskriminierungsfähigkeit. Diese KIs müssen diese Gruppe beispielsweise aufteilen in kriminelle, nicht Kriminelle, Terroristen, nicht Terroristen, guter Bürger, schlechter Bürger. Das heißt: Wir kommen hier über diese KIs, über diese Mechanismen zu einem Selektionsmechanismus, zu einer Selektionsmethode. Und dadurch, dass diese selektionsmethodisch statistisch arbeitet, sind hier inherent auch Fehler die passieren. Also kann es sein, dass Sie der Gruppe schlechter Bürger zugeordnet werden, aber eigentlich sind Sie guter Bürger.
So können heute Systemimanente Fehler, die in der Statistik normal sind, über menschliche Schicksale entscheiden. Wenn ich als Mann auf Facebook die Sängerin Britney Spears like, bin ich für den Algorithmus des Sozialen Netzwerks zu 67% homosexuell. Aber was ist wenn ich mich über Donald Trums Muslim Ban, oder gegen den geplanten Mauerbau an der Grenze zu Mexiko bin, und mich auf Sozialen Netzwerken darüber auslasse?
Yvonne Hofstetter: „Es kann sein dass sie einfach auf eine Liste kommen. No Fly-List, Terroristen- Liste, was auch immer, strategische Liste die schlimmsten Kriminellen in Chicago. Und dann kommen Sie von dieser Liste nicht mehr. Eine Maschine hat sie dort oben drauf getan, wenn Sie so wollen. Das ist schon ein Risiko für die Menschen, weil wir im Grunde genommen überhaupt keine Transparenz haben wie diese Mechanismen funktionieren, wie die Modelle ausschauen die dahinter liegen ob die Daten auch richtig, vollständig, neu, sauber sind auf denen diese Entscheidungen getroffen werden.“
Wer programmiert die Pre-Crime-Algorithmen und wie transparent sind sie? Die Antwort auf diese Fragen ist aus juristischer Perspektive erschreckend. Denn die Informatiker/innen und Daten-Analst/innen, die Pre-Crime Algorithmen mit Rohdaten füttern, kennen sich weder in Krimonologie noch Soziologie aus. Sie verstehen wenig von Verbrechensursachen und können rechtlich nicht haftbar gemacht werden. Das bemängelt auch Statistiker Varoon Bashyakarla.
Varoon Bashyakarla: „Pred Pol ist ein kommerzielles Produkt. Sein Algorithmus ist Eigentum und der Öffentlichkeit nicht zugänglich. Eigentlich kennt niemand seine Formel. Niemand weiß mit welchen Rohdaten es gefüttert wird, wie diese evaluiert werden und wie sie das individuelle Kriminalitätsrisiko einschätzen. Wir können nicht sehen wie die inneren Abläufe sind, wir können sie nicht kritisieren und nicht verbessern. Selbst wenn wir es wollten.“
Yvonne Hofstetter kritisiert bei Pre-Policing- Modellen nicht nur die fehlende Transparenz:
Yvonne Hofstetter: „Die größte Kritik die ich als gelernte Juristin habe, ist: da landen Leute auf einer Liste, die überhaupt kein Verbrechen begangen haben oder kein Vergehen begangen haben. Das ist völlig gegen das Rechtsstaatsgebot. Zumindest nach unserem europäischen Verständnis. Der Rechtsstaat setzt voraus, dass jemand ein Verbrechen, ein Vergehen begangen haben muss, und dann wird dieses entsprechend strafrechtlich verfolgt und bestraft. Und wenn sie diese Heatlists aufbauen und die Menschen die auf dieser Liste stehen bedrohen über die Polizei, und sagen: „Okay wenn du dich nicht komform (verhältst) in den nächsten drei Monaten, dann wird dich der Arm des Gesetzes mit voller Wucht treffen.“ Dann ist das überhaupt nicht mit unserem Rechtsstaatgebot zu vereinbaren.“
Doch genau das tun die Behörden in Chicago und London: Die potentiellen Gefährder/innen- erhalten Hauspost oder sogar Hausbesuche von ihrer lokalen Polizeidienststelle. Sie werden darüber unterrichtet, dass sie auf dem Radar der Behörden sind und sich lieber an Recht und Gesetz halten sollten. Andernfalls hätten sie mit harten Strafen zu rechnen. Überdurchschnittlich oft erhalten diese Vorab-Verwarnungen junge, dunkelhäutige Männer. Kritiker sagen darum, dass Pre-Policing-Modelle Racial Profiling sogar verstärken. Also die auf Stereotypen und äußerliche Merkmale, wie enthnische Zugehörigkeit, basierenden Polizeikontrollen.
Yvonne Hofstetter: „… ein sehr schönes Beispiel für technologischen Rassismus dieses Beispiel der Polizei in Chicago. Wir wissen in Chicago ist es so dass die weißen weniger oft verhaftet werden als Schwarze. Und natürlich schlägt sich nieder in den normalen Datenbanken der Polizeibehörden. Da steht drin 80 Prozent der Schwarzen sind kriminell. Nur 20 Prozent Weiße sind kriminell. Aber vielleicht ist es ja anders. Vielleicht ist es das nicht das Abbild der Realität. Sie haben also schon in den Roddaten dieses Vorurteil mit enthalten. Und dieses Vorurteil dass wir eigentlich durch die KI noch verschärft, weil sie diskriminiert. Wir haben keine Lösung dafür als Technologen. Wir wissen nicht wie wir diese Vorurteile aus den Rohdaten rauskriegen sollen.“
Pre-Policing verstärkt also den instritutionellen Rassismus. Der Statistiker Varoon Bashyakarla spricht in diesem Zusammenhang von sich selbst reproduzierenden Feedback-Schleifen. Damit bricht Pre Policing mit dem Grundsatz der Gleichberechtigung:
Varoon Bashyakarla: „Wenn es in Nachbarschaften in denen Minderheiten leben, eine erhöhte Polizeipräsenz gibt, dann werden dort auch mehr Straftaten registriert. Wenn diese Informationen ins System eingespeist werden, dann heißt es: Schau: Diese Nachbarschaft neigt zu erhöhter Kriminalität. Wir müssen dort mehr in unsere Ressourcen investieren. In diesem Kontext kann das algorithmische System sich selbst reproduzierenden Feedback-Schleifen schaffen. Aber sie basieren auf systematischer Ungleichbehandlung. Darum sagen viele Kritiker, dass Systeme wie Pred Pol gar nicht vorhersagen wo Verbrechen passieren werden. Sie sagen nur vorher wo Verbrechen gemeldet werden. Wenn algorithmische Systeme mit historischen Daten gefüttert werden, dann sagen sie eine Zukunft voraus die auf Trends aus der Vergangenheit basiert.“
Massenüberwachung. Diskriminierung. Unsaubere Rohdaten. Intransparente Algorythmen: Die Cyber-Polizei wirkt im aktuellen Zeitpunkt nicht besonders vertrauenserweckend. Auch in Deutschland wird in mehreren Großstädten mit Hilfe Künstlicher Intelligenz ermittelt. Allerdings schützen hierzulande strengere Datenschutzrichtlinien die Bürger/innen, erklärt Yvonne Hofstetter.
Yvonne Hofstetter: „In Deutschland wird nicht mit personenbezogenen Daten gearbeitet, dort gibt es nur einen bestimmten Einsatzbereich von Precrime. Und zwar ist es die Vorhersage oder Erstellung von Heat-Maps in Bezug auf Einbrüche. Und dann geht die Polizei auf öffentlich verfügbare Daten beispielsweise des Statistischen Bundesamts zurück und schaut sich an: Wo sind denn in München gehobene Wohngegenden wo besonders viele Rentner leben oder besonders viele verrentete Juweliere leben. Man zeigt ihm auf der Map wo diese Gebiete sind. Diese Information geht an den Analyst der hier die Einsatzplanung macht. Für die Bestreifung dieser Wohngegenden wird es hier vielleicht mehr Streifen einsetzen. Das ist alles.“
Für Konstantin von Notz, netzpolitischer Sprecher der Fraktion Bündnis 90/Die Grünen, ist die Sache klar: Der Rechtsstaat muss auch in Zukunft beim Thema Pre Crime die personenbezogenen Daten seiner Bürger schützen.
Konstantin von Notz: „…erst einmal gilt der Grundsatz, dass das Individuum die Herrschaft über die Informationen die es betrifft, ausüben können muss; zu allen Zeiten. Das heißt: Es darf keine Verselbständigung dieser Informationen geben, die dann zwangsläufig zu Diskriminierungen bzw. Privilegierung führen. Und keine Diskriminierung ohne Privilegierung und umgekehrt. Insofern muss der Anspruch da sein über seine eigenen Daten und die daraus zu generieren Informationen verfügen zu können.“
Ist Deutschland also eine Bastion von Freiheitsrechten und sicheren Daten? Werden Freiheitsrechte nur jenseits des Atlantiks verletzt? Wohl kaum. Seit den Enthüllungen von Whistleblower Edward Snowden ist bekannt, das amerikanische und britische Geheimdienste die Telekommunikation und insbesondere das Internet unter dem Vorwand der Terrorabwehr global und verdachtsunabhängig überewachen. Die gewonnenen Daten werden auf Vorrat gespeichert. Was bedeutet das für unser Demokratieverständnis?
Konstantin von Notz: „Ein Mensch der beobachtet wird, ist nicht frei. Insofern muss man das im Hinblick auf diese Möglichkeit dass alle Verhaltensweisen und bis hin zu unseren Gedanken und Erwägungen und Entscheidungsprozessen eben alles digitale Spuren erzeugt, muss man schon gucken wohin die Reise geht. Ich selbst bin fest davon überzeugt, dass man eigentlich nicht mehr unterscheiden kann zwischen privatem und staatlichem Datensammeln. Zumindest solange der Staat keine eisenharte Linie zieht zwischen diesen zwei Bereichen. In den letzten Jahren hat er das Gegenteil getan. Er hat diese Mauern eingerissen. Er hat durch die Vorratsdatenspeicherung von Kommunikationsdaten Unternehmen verpflichtet für ihn Daten vorzuhalten.“
Das sieht Yvonne Hofstetter ähnlich: Sie drückt sich allerdings weniger diplomatisch aus.
Yvonne Hofstetter: „Die Totalüberwachung ist mit dem Demokratieverständnis nicht vereinbar. Die Idee dass ein Staat ein Sicherheitsparadies herstellen will, wird zum totalen Staat. Sie sehen schon die ersten Schritte in die totale Überwachung. Ein Problem ist, dass wir eigentlich gar nicht mehr klar trennen können zwischen Privaten die uns überwachen und dem Staat der uns überwacht: die Daten konvergieren nämlich, das heißt sie kommen in einem Platz zusammen. Und ich sag mal so: Wenn Herr Trump ein Dekret unterschreibt Google und Facebook mir immer alle Daten an die NSA oder die CIA zu übertragen, dann wird das passieren.“
Die erste, auf Künstlicher Intelligenz basierenden, Totalüberwachung ist keine distopische Zukunftsvision mehr- 2020 soll ich China das Social Credit System „Citizen Score“ an den Start gehen. Ein Punktesystem für so gut wie alle Belange des gesellschaftlichen Lebens. Der Staat bewertet seine Bürger/innen auf der Grundlage ihrer Datenspuren: Wer sich Online gesundes Essen bestellt, bekommt Pluspunkte, wer hingegen Pornos schaut, muss mit Abzügen rechnen.
Yvonne Hofstetter: „Citizen Score in China ist durchaus auch eine globale Bedrohung. China ist wie ein Pulverfass oder wie ein Dampf-Kochtopf: da ist der Deckel feste drauf und jetzt ist es eben so dass der mächtigste Mann Chinas sagt, er möchte nicht den Deckel lüften, sondern er möchte den Deckel fester drauf halten und zwar unter Einsatz von Künstlichen Intelligenzen, die Menschen kontrollieren und kleinhalten, aussteuern. Ich halte das für eine ganz gefährliche Sache.“
Am Ende rutschen alle Bürger/innen in eine Kategorie- wie bei einer Rating-Agentur: Wer die Bewertung AAA erhält, darf mit vergünstigte Krediten oder einer guten Krankenversicherung rechnen. Wer in die Kategorie D rutscht, muss fürchten seinen Job zu verlieren. Neben Behörden sollen auch Banken, Arbeitgeber/innen, Vermieter/innen, Einkaufsplattformen oder Fluggesellschaften Einsicht in die Bewertung erhalten. Es ist die totale Kontrolle des gläsernen Bürgers.
Sky-Net ist ein fatales Beispiel das zeigt, was passieren kann wenn Künstliche Intelligenz im Bereich der Kriegführung eingesetzt wird: Es ist das gemeinsam von CIA und NSA entwickelte Programm zur Klassifizierung von Terroristen in Pakistan. In der zweiten Amtszeit von Barack Obama wurden damit die Telefongespräche und das Internetverhalten von 50 Millionen Pakistanern überwacht.
Yvonne Hofstetter: „Und hat dann eben über dieses Data-Analytics- Programm klassifiziert wer Terrorist ist und wer nicht und hat dann Drohnen in den Einsatz gebracht um diese Ziele zu neutralisieren. Darunter waren sehr viele unschuldige Menschen. Das heißt hier entscheiden Maschinen über Leben und Tod. Das ist eine ähnliche Frage wie bei Pre-Crime: Die Maschinen kommen hier auf eine Liste als kriminell. Oder komme ich da nicht hin. Das entscheidet eine Maschine und das ist tatsächlich schon Fakt. Da sind wir noch nicht soweit gegangen dass die Drohne selbst entscheidet ob sie schießt oder nicht. Aber dieser Schritt ist natürlich klein. Aus technologischer Sicht ist natürlich auch bereits heute möglich.“
—
Folge 1: Was ist Künstliche Intelligenz
Folge 2: Wie verändert Künstliche Intelligenz den Verkehr?
In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.
Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.
➨ Alle Podcast-Folgen zur Künstlichen Intelligenz
Dieser Podcast ist ein Produkt des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski.
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer.
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger.
Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0
Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay
Kommentare sind deaktiviert.