Im Risikomanagement die Stärken von KI nutzen
von Frank Romeike
Die „künstliche Intelligenz“ zählt zu den Top-Themen der digitalen Wirtschaft. Und ein Blick auf die kontroversen Diskussionen zeigt, dass das Thema voller Emotionen, Ängste und vor allem Halbwissen und Hoffnungen steckt. Viele der heute diskutierten Ängste resultieren primär aus Unwissenheit oder Halbwissen. Nur wenige „Experten“ haben tatsächlich schon einmal in die Werkzeugkiste der „künstlichen Intelligenz“ hineingeschaut oder gar Methoden angewendet.
Diese Irrungen beginnen bereits beim Begriff „künstliche Intelligenz“. Der englische Begriff „Artificial Intelligence“ (AI) wird nur allzu häufig mit „künstlicher Intelligenz“ übersetzt und suggeriert somit eine Konkurrenz zur menschlichen Intelligenz, beispielsweise in Form eines Homunculus oder Cyborg.
Dabei bedeutet „Intelligence“ vor allem Informationsverarbeitung und Aufklärung. Die „Central Intelligence Agency“ (CIA) heißt ja auch nicht so, weil die so gescheit sind, sagt der österreichische Artificial-Intelligence-Experte und emeritierter Universitätsprofessor Robert Trappl. AI beschäftigt sich im Kern mit der Nachbildung menschenähnlicher Entscheidungsstrukturen durch Algorithmen, nicht mehr und nicht weniger. Das heißt, ein Computer wird so programmiert, dass er eigenständig Probleme bearbeiten kann, beispielsweise Auto fahren, Texte übersetzen oder Go spielen.
Ein Blick in die Vergangenheit zeigt, dass Technologien sich immer dann durchgesetzt haben, wenn die Risiken und Chancen transparent gemacht wurden. So warnte Dionysus Larder (1793 bis 1859), Professor für Naturphilosophie und Anatomie am University College London, eindringlich vor Bahnreisen mit Hochgeschwindigkeit. Die Passagiere könnten nicht atmen und würden somit den Erstickungstod erleiden, so seine eindringliche Warnung…
Den kompletten Beitrag finden Sie im Open-Content-Buchprojekt „Handbuch Künstliche Intelligenz“ veröffentlicht.
Lesen Sie hier mehr…