Was ist Künstliche Intelligenz?
Eine Podcast-Serie der Heinrich Böll Stiftung zum Thema KI
Staffel I – 1. Teil >>> alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.
Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction-Romane und Filme aus Hollywood. Doch was ist wirklich möglich? Was ist eigentlich Künstliche Intelligenz? Wer denkt da? Wo wird künstliche Intelligenz eingesetzt und welche Probleme gibt es?
„Hallo Siri.
Moin. Moin.
Wie ist das Wetter heute?
Hier ist die Vorhersage für heute.
Wird es regnen?
Ja, es wird vermutlich etwas regnen.“
Siri in unserem Iphone sagt uns wie das Wetter wird. Alexa, die Software von Amazon, kann unseren Backofen vorwärmen. Und Samsungs Sprachassistent Bixby kann Gegenstände, die vor die Kamera gehalten werden, erkennen und im Netz recherchieren. Schöne smarte Welt: intelligente Maschinen und smarte Assistenten können immer mehr Dinge, die bisher nur Menschen konnten: Lesen, schreiben, interagieren und – mehr oder weniger – verstehen.
Was bedeutet das für unser Leben? Und wie wird künstliche Intelligenz die Art und Weise verändern wie wir kommunizieren, arbeiten, lernen und konsumieren? Über diese Fragen wurde geredet bei der Konferenz „Netzregeln 2017“, veranstaltet von der Heinrich-Böll-Stiftung und dem Branchenverband Bitkom. Und das wollen wir jetzt vertiefen in diesem Böll-Spezial – in der 4-teiligen Podcast-Serie werden wir uns auseinandersetzen mit Visionen und Vorurteilen und eine Bestandsaufnahme machen.
Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction-Romane und -filme aus Hollywood: Terminator, Blade Runner, Her, Odysee 2001 – meist spielen sie mit der Idee einer superintelligenten Maschine, eines Roboters außer Kontrolle, einer Welt, in der Maschinen fühlen können. Doch was ist wirklich möglich? In Folge 1 dieser Podcast-Reihe geht es darum, die Grundlagen zu klären. Was ist eigentlich Künstliche Intelligenz? Wer denkt da? Wo wird Künstliche Intelligenz eingesetzt und welche Probleme gibt es?
Was ist Künstliche Intelligenz?
Aljoscha Burchhardt: Bei der künstlichen Intelligenz ist die Idee mal ganz platt gesprochen, dass wir Software-Systeme, die entweder auf unserem Smartphone oder Computer oder auch auf einem Roboter sind, ‚aufschlauen’, sodass sie ihre Aufgaben so erledigen, als wären sie ein Stück weit intelligent.
Aljoscha Burchhardt forscht seit 10 Jahren am Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin.
Intelligenz ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit eines Menschen. Aber was das genau meint, ist schon beim Menschen nicht so ganz leicht zu sagen: Meint es die analytischen Fähigkeiten? Gehören auch die emotionalen dazu?
Joachim Fetzer: Künstliche Intelligenz wie sie heute in der Praxis und in der Wirtschaft stattfindet, sind Technologien, bei denen Maschinen irgendwie so ähnlich werden, dass wir Menschen das Gefühl haben, da sei was intelligent – was wir manchmal übrigens auch bei Hunden oder bei Tieren denken.
Joachim Fetzer ist Wirtschaftsethiker und setzt sich mit philosophischen und ethischen Fragen rund um die Digitalisierung auseinander.
Wann denken wir bei Maschinen sie seien intelligent und was macht ihre Intelligenz aus?
Mirko Knaack: Darum ist meine Definition wahrscheinlich am ehesten: eine Maschine ist genau dann intelligent, wenn sie etwas tut, wozu ein Mensch Intelligenz bräuchte.
Mikro Knaack ist Informatiker und leitet das Digital Lab der IAV Gmbh, die selbstfahrende Autos programmiert. Er kommt auch in Folge 2 unserer Podcast-Serie zu Wort, wenn wir uns ausführlich mit der Frage beschäftigen, wie Künstliche Intelligenz unsere Mobilität verändert.
Autos sind so ein Beispiel: eine Maschine lernt, was bisher nur Menschen zu können glaubten. Und ist darin sogar nachweislich mindestens genauso gut, wenn nicht besser.
Jeanette Hofmann: Ich spreche zurzeit von „machine learning“ und das finde ich tatsächlich eine sehr interessante Entwicklung, weil hier Maschinen anhand von Trainingsdaten, die ihnen Beispiele vorgeben, auf klar definierte Ziele hin lernen, eigenständig Handlungen auszuführen, die bislang entweder von Menschen ausgeübt wurden oder so gar nicht möglich waren.
Jeanette Hoffman ist Professorin für Internetpolitik an der Freien Universität Berlin.
Man kann es also so sagen: Ein künstliches System lernt aus Beispielen und kann diese verallgemeinern, wenn die Lernphase beendet ist. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. Diese Erkenntnisse generiert die Maschine mit Hilfe eines Algorithmus.
Ein Algorithmus gibt eine Vorgehensweise vor, um ein Problem zu lösen. Anhand dieses Lösungsplans werden dann in kleinen Schritten Eingabedaten in Ausgabedaten umgewandelt. Ein Algorithmus gilt dann als Künstliche Intelligenz, wenn er lernt. Yvonne Hofstetter, IT-Unternehmerin und Buchautorin:
Yvonne Hofstetter: Wenn wir erst mal von der Informationstechnologie ausgehen, dann sind künstliche Intelligenzen Maschinen, die einen Reasoning-Mechanismus haben, also etwas beobachten, etwas wahrnehmen können. Die daraus lernen können, also lernfähig sind. Damit sind wir beim Thema neuronale Netze, Reinforcement-Learning angekommen. Und die sind in der Lage strategische oder taktische Entscheidungen unter Unsicherheit zu treffen: Das ist unsere Definition in der IT.“
Diese Technologie begegnet uns derzeit in vielen Bereichen, prominentes Beispiel ist etwa Google Translate. Was „Lernen“ in diesem Zusammenhang bedeutet, erklärt Aljoscha Burchhardt vom DFKI:
Aljoscha Burchhardt: Wenn ihr an ein Übersetzungssystem denkt, so wie Google-Übersetzer oder so, das wird mit Daten gefüttert. Eingabesatz Deutsch, Ausgabesatz Englisch und davon Hunderttausende. Und dann lernt dieses System auf eine mathematische Art und Weise Regularitäten. Welches Wort man in welches Wort übersetzen muss. Und dann kann es die Übersetzungsleistung erbringen.
Aber letztlich ist das System dabei komplett dumm. Das weiß nichts von Linguistik, das weiß nichts von Kulturen, das weiß nicht was rot bedeutet – aber es kann rot eben in ‚rouge’ übersetzen und es weiß auch, dass rotes Auto ‚voiture rouge’ werden muss. Dass ich also sozusagen Adjektive und Nomen verdrehen muss, aber nicht auf linguistischer Basis oder so, sondern es kann es einfach tun. Das heißt: Es ist eigentlich ein vollkommen interessanter Fachidiot, ein autistisches System.
Warum aber dieser Hype um Maschinelles Lernen und Künstliche Intelligenz jetzt? Schließlich gilt eine Konferenz im Jahr 1956 am Dartmouth College in New Hampshire als Geburtsstunde der Künstlichen Intelligenz. Sie ist also mehr als 60 Jahre alt. Doch erst in den 1980er Jahren wurden die ersten künstlichen neuronalen Netze entwickelt, wie wir sie heute kennen. Diese Netze bilden das Neuronennetz des menschliche Gehirns nach und haben die viel versprechende Eigenschaft, ihre Regeln von Grund auf selbst zu lernen.
Aljoscha Burchhardt: Damals fehlte es aber noch an Daten und Computpower. Und so hat man erst mal mit anderen Verfahren gearbeitet die letzten 20 Jahre und das sind dann eben diese Verfahren, die heute eigentlich den großen Hype gebracht haben. Wir haben Daten, wir haben Computpower, wir können übersetzen, wir können ein Auto steuern, wir können Menschen im Go schlagen.
Künstliche neuronale Netze bestehen aus sehr einfachen, dafür aber extrem vielen miteinander vernetzten mathematischen Funktionen. Im Laufe des Trainings, nach Ansicht von unzähligen Beispielen, lernen sie etwa, was ein Gesicht ausmacht oder was eine Katze definiert.
Mit jedem neuen Training erhält das Netz Feedback und justiert daraufhin seine Parameter neu. Mit den drastisch gefallenen Speicherkosten der vergangenen Jahre und der exponentiell gestiegenen Leistungsfähigkeit der Computer haben sich auch die Möglichkeiten künstlicher neuronalen Netze weiterentwickelt.
Und vor allem liefern wir alle die Daten, die Künstliche Intelligenz zum Lernen braucht. Wir laden Bilder ins Internet, schreiben Nachrichten in den sozialen Netzwerken, wir benutzen die Spracherkennung unserer Smartphones. Jeanette Hofmann von der Freien Universität Berlin:
Jeanette Hoffmann: Wir können uns etwa denken, dass im Zusammenhang mit Big Data sehr viele Möglichkeiten der Analyse entstehen, die wir so bisher gar nicht gehabt haben. Das kann beispielsweise Krankheitsbilder betreffen, aber auch natürlich Methoden des Behandelns von solchen Krankheiten, auch da gibt es sehr viele Fortschritte. Dann im Bereich Spracherkennung wird sich extrem viel tun. Das heißt, wir haben im Verhältnis zwischen Menschen und digitalen Geräten eine neue Schnittstelle, die sehr wichtig werden wird.
Das, was wir ja jetzt schon im Smart Home Bereich sehen, dass man faktisch sprachlich Anweisungen geben kann, da passiert sehr viel. Dann selbstfahrende Fahrzeuge wird ein großer Bereich. Überhaupt denke ich, dass im Anschluss an das Internet der Dinge sehr viel weiter automatisiert werden wird. Das heißt, wir erzeugen einerseits sehr viele Daten und mit Maschinen Learning entwickeln wir auch neue Analyse-Kapazitäten.
Je mehr wir smarte Anwendungen nutzen, desto besser kann das System lernen und desto besser werden auch die Anwendungen funktionieren. Der Preis ist allerdings, dass wir immer gläserner werden und unsere Daten privatwirtschaftlichen Unternehmen überantworten.
Ein aufsehenerregendes Beispiel dafür was Künstliche Intelligenz leisten kann, ist 2016 das Programm Alpha Go, vom Google Labor Deepmind entwickelt. Das Programm Alpha Go hat gegen den besten Go-Spieler der Welt gewonnen. Das Brettspiel Go galt lange als zu komplex für Computer, weil es dabei auch auf Intuition ankommt.
Deepmind fütterte das Programm erst mit mehreren Dutzend Millionen Zügen aus menschlichen Partien Meister. Dann spielt die Software Millionen Spiele gegen sich selbst – und analysiert, welche Züge sie ans Ziel bringen – nämlich jene Züge, die Menschen mit großer Wahrscheinlichkeit nicht spielen würden.
Inzwischen gibt es ein weiteres System Alpha Go Zero – das System hat das Spiel selbst gelernt und zwar nur aufgrund der Spielregeln. Ihm wurden also keine menschlichen Spielpartien als Datenbasis gegeben. Alpha Go Zero ist damit um Längen besser geworden, als die Vorgänger Version Alpha Go. Das System hat also eigenständig gelernt und sich immer weiter verbessert.
Wo wird Künstliche Intelligenz eingesetzt und welche Probleme könnten auftauchen?
Künstliche Intelligenz gilt vielen Unternehmen als die Zukunftstechnologie. Alle großen Tech-Firmen arbeiten mit Künstlicher Intelligenz: Amazon, Google, Microsoft, Facebook, IBM. In Asien sind es Samsung, Aliababa und Tencent. Deutsche Firmen wie Volkswagen und BMW experimentieren mit Künstliche Intelligenz im Bereich des autonomen Fahrens. Aber auch Bosch und Siemens arbeiten damit – Bosch hat gerade angekündigt bis 2021 300 Mio. Euro in KI-Forschung zu investieren, weil bald kein Produkt mehr ohne auskomme.
Die Verheißungen sind also groß und es gibt viele Beispiele, wo KI das Leben von Menschen verbessert. So gibt es eine Software, mit der blinde Menschen in Indien mit Hilfe der Linse ihres Smartphones die Welt vor sich aufnehmen können und das Smartphone sagt ihnen, wenn sich Menschen, Gegenstände oder Hindernisse in ihrer Nähe befinden. Oder in der Altenpflege in Japan werden bereits jetzt Roboter eingesetzt, die mittels KI gesteuert werden.
Jeanette Hofmann: Es wird ja schon sehr viel Maschinen Learning eingesetzt. Das ist uns vielleicht gar nicht überall bewusst. Im Bereich der Spracherkennung, im Bereich von Suchmaschinen, überhaupt in sehr vielen Empfehlungs-Algorithmen steckt bereits Machine-Learning drin aber auch ein öffentliches Überwachungssystem. Etwa an Flughäfen wird überall schon Machine-Learning eingesetzt – dass man das wieder zurückdrehen kann, glaube ich nicht. Ich glaube auch gar nicht, dass die Bilanz von Vor und Nachteilen so ausfällt, dass man das derzeit rechtfertigen könnte.
An den Versprechen beispielsweise, dass der Straßenverkehr künftig sicherer wird, wenn Autos nicht mehr von Menschen gesteuert werden sondern von Maschinen, ist langfristig womöglich sogar etwas dran. Ich wüsste jedenfalls von keiner Studie, die das Gegenteil empirisch belegen könnte. Also ich würde nicht ausschließen, dass wir als Gesellschaft auch sehr stark davon profitieren.
Doch KI stellt unsere Gesellschaft auch vor viele Herausforderungen. Etwa weil die die Daten mit denen die intelligenten Maschinen trainiert werden, nicht neutral sind. Sie stammen oft aus dem Internet und reproduzieren damit die Vorurteile und Klischees, die auch im Netz kursieren. Ebenso wie die programmierten Algorithmen keine objektiven sind, sondern widerspiegeln was ihre Programmierer/innen denken.
Wenn ich etwa in der Bildersuche im Netz nach einer Hand suche, dann spuckt der Algorithmus fast nur weiße Hände aus. Wenn ich in der Websuche das Wort „liebevoll“ eingebe, dann vervollständigt Googles Textsoftware das mit „Frau“. Bei „durchsetzungsstark“ folgt „Mann“. Warum das so ist, erklärt Aljoscha Burchhardt vom DFKI.
Aljoscha Burchhardt: Das ist eben so, weil in den Texten, die diese Systeme im Internet finden, eben Männer durchsetzungsstark und visionär und Frauen eben liebevoll und gutaussehend sind. Das ist eben leider das, wie unsere Welt beschrieben worden ist. Und jetzt eben so ein System, das aus Daten diese Dinge gelernt hat, so ein System normativ umzubauen und zu sagen: „Pass mal auf Freundchen, soll aber nicht so sein, dass Frauen hübsch sind und Männer willensstark und es soll aber nicht so sein, dass Farbige eine höhere Wahrscheinlichkeit haben wieder straffällig zu werden als Weiße.“ Im Moment haben wir hier eigentlich ganz große Last auf den Data Scientists – als auf den Leuten, die sich darum kümmern, die Daten aufzubereiten.
Die Systeme werden von unserem Verhalten im Netz geprägt – und da ist relativ schnell zu sehen, wo die Grenzen von KI liegen wie das Beispiel eines Twitter-Bots von Microsoft gezeigt hat. Tay hieß der Bot, mit dem Microsoft 2016 junge US-Amerikaner/innen zwischen 18 und 24 erreichen wollte. Tay lernte von den User/innen im Netz – und sonderte innerhalb eines Tages statt freundlicher Tweets rassistische, antifeministische und rechtsextreme Tweets ab.
Das Beispiel zeigt, wie eine lernende künstliche Intelligenz sehr schnell entgleisen kann. Wie problematisch die Diskriminierung durch Daten werden kann, das beleuchten wir auch in Folge 3 unserer Reihe, wenn es um Pre-Crime Software geht, die künftige Kriminelle errechnen oder gefährdete Zonen identifizieren soll.
Eine weitere Herausforderung und eine der Ängste, die immer im Zusammenhang mit KI formuliert werden: Was ist eigentlich, wenn die Maschinen so schlau werden, dass kein Mensch sie mehr versteht? Wer kontrolliert sie dann? Existiert künstliche, lernende Superintelligenz erst einmal, gibt es dann eine Möglichkeit für uns, sie zu bändigen?
Mit Hilfe von Künstlicher Intelligenz werden wir zu fantastischen Lösungen kommen – doch wir wissen eigentlich nicht, wie die Systeme das gemacht haben, weil wir es intellektuell nicht mehr verstehen. Müssen wir also darauf vertrauen, dass die Maschinen schon die richtige Lösung gefunden haben?
Die Buchautorin Yvonne Hofstetter ist skeptisch:
Yvonne Hofstetter: Also diese KIs, die haben sogenannte Diskriminierungsfähigkeit. Diese KIs müssen diese Gruppe beispielsweise aufteilen in Kriminelle, nicht Kriminelle, Terroristen, nicht Terroristen, guter Bürger, schlechter Bürger. Das heißt: Wir kommen hier über diese KIs, über diese Mechanismen zu einem Selektionsmechanismus, zu einer Selektionsmethode.
Und dadurch, dass diese selektionsmethodisch statistisch arbeiten, sind hier auch Fehler inhärent, die passieren. Also kann es sein, dass Sie der Gruppe schlechter Bürger zugeordnet werden aber eigentlich sind Sie guter Bürger. Aber das ist halt einfach so. Das ist systemimmanent. Wir arbeiten mit Statistik, wenn es heißt Sie sind männlich und Sie liken bei Facebook Britney Spears, sind Sie mit 67 Prozent Wahrscheinlichkeit homosexuell. Naja, dann besteht die Möglichkeit, dass Sie mit 33 Prozent nicht homosexuell sind.
Und Sie haben hier also diese Unschärfe. Das ist schon ein Risiko für die Menschen, weil wir im Grunde genommen überhaupt keine Transparenz haben, wie diese Mechanismen funktionieren, wie die Modelle ausschauen, die dahinterliegen, ob die Daten auch richtig, vollständig, neu, sauber sind, auf denen diese Entscheidungen getroffen werden.
Aljoscha Burchhardt vom DFKI meint, wir sollten Künstliche Intelligenz nicht dämonisieren.
Aljoscha Burghardt: Also die haben keine eigenen Antriebe, die wollen nichts erreichen, die wollen uns nicht irgendwie Intelligenz-mäßig ablösen oder irgendetwas. Woher sollten sie? Die sind genau für ihre Aufgabe von uns gemacht und die erledigen sie. Diese Hollywood-Fantasie kann ich mit den heutigen Systemen überhaupt nicht teilen. Und das sind auch alles Insel-Begabungen – das System spielt Go, das andere fährt Auto das dritte übersetzt, aber dass die drei sich jetzt plötzlich zusammentun und sagen „Hey, ich bin der autofahrende, Go-spielende, SUPER-Übersetzer“ – und morgen die ganze Welt, das sehe ich nicht kommen.
Wie intelligent und menschlich Maschinen werden können, wird aber durchaus diskutiert- wenn auch kontrovers. Was ist einzigartig am Menschen und was unterscheidet ihn von der Maschine? Diese Frage ist für den Wirtschaftsethiker Joachim Fetzer eine Leitfrage für die Zukunft, der Mensch bleibt für ihn der zentrale Bezugspunkt.
Joachim Fetzer: Es gibt so eine empirisch schwer zu greifende innere Welt, die auch die Hirnforschung nicht erdacht hat, die aber – egal ob es sie gibt oder nicht – für unsere Kultur so wesentlich ist, dass es eine Subjektivität mit einer Geschichte oder wie auch immer man das ausdrücken kann, gibt. Das ist die Basis für Rechtssysteme und für viele andere Punkte und dieses Element von Menschsein, das für die Freiheit wesentlich ist, ist in dieser KI einfach mal nicht enthalten.
Wie also wollen wir in unserer Gesellschaft mit den Möglichkeiten der Künstlichen Intelligenz umgehen?
Sie könnte in vielen Bereichen einen großen Fortschritt bringen: in der Medizin, in der Pflege, im Verkehr. Auf der anderen Seite birgt sie Risiken, die wir heute noch nicht absehen können.
In Folge 3 diskutieren wir dann Pre-Crime-Software und Social-Scoring.
In Folge 4 geht es um die Frage, wie KI von Politik und Gesellschaft kontrolliert werden kann.
>>>
Alle Folgen dieser Podcast-Serie können Sie auf Spotify, Deezer und Soundcloud hören, oder als Podcast abonnieren.
➨ Alle Podcast-Folgen zur Künstlichen Intelligenz
Dieser Podcast ist eine Produktion des Audiokollektivs.
Autoren und Autorinnen: Anna Bilger, Vanessa Löwel, Lukasz Tomaszewski.
Redaktion Heinrich-Böll-Stiftung: Michael Stognienko und Lukas-C. Fischer.
Musik: frametraxx. Gesprochen haben: Lukasz Tomaszewski und Anna Bilger.
Dieser Beitrag steht unter folgender Urheberrechtslizenz: CC-BY-SA 3.0
Kommentare sind deaktiviert.