Fünf KI-Trends für 2025

Von Scott Zoldi, KI-Visionär und Chief Analytics Officer bei FICO
1. Erkenntnis in Unternehmen reift: Nicht jede KI ist eine GenAI
Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.
Auch wenn Unternehmen nun über einen ganzen Werkzeugkasten an KI-Tools verfügen – sie sollten nicht versuchen, eine Holzschraube mit einem Gummihammer einzuschlagen. Für die Auswahl der richtigen KI-Tools sind Datenwissenschaftler erforderlich, die die jeweiligen geschäftlichen und operativen Anforderungen verstehen, kritisch durchleuchten und die Stärken und Schwächen von KI oder GenAI einschätzen können. „Human in the loop“-Prozesse bewerten, ob ein Geschäftsproblem deterministische Entscheidungen, interpretierbares maschinelles Lernen, Überprüfbarkeit oder sonstige operative Anforderungen erfordert. Die Wahl des richtigen KI- oder GenAI-Pfads wird immer mehr derSchlüssel zu erfolgreichen KI-Investitionen.
2. Datenbereichsspezifische GenAI-Anwendungsfälle florieren
Unternehmen, die Large Language Models (LLMs) und andere generative Techniken auf verantwortungsvolle, wertorientierte Weise nutzen wollen, werden dies auf der Grundlage von Responsible AI tun – und das beginnt mit der Beherrschung der eigenen Daten. Damit Unternehmen KI gut nutzen können, brauchen sie genaue, relevante und gut strukturierte Daten – dafür bedarf es wiederum Fachkräfte, die diese Daten zu interpretieren wissen.
GenAI-Programme basieren immer mehr auf aktiv kuratierten Daten, die für bestimmte Geschäftsbereiche relevant sind. Unternehmen kuratieren und bereinigen Daten, aus denen das LLM lernen soll, und entfernen große Mengen an Daten, die es nicht verwenden soll. Dies ist ein erster Schritt zur verantwortungsvollen KI-Nutzung und zur Erzielung eines geschäftlichen Nutzens. Die Schulungsdaten müssen repräsentativ für die Entscheidungen sein, die auf ihnen beruhen. Durch ihre Datenstrategien für die LLM-Erstellung können sich Unternehmen wertvolle Differenzierungsmerkmale verschaffen – denn ein LLM ist nur ein Abbild der Daten, auf denen es basiert.
3. Unternehmen erstellen ihre eigenen kleinen und fokussierten Sprachmodelle und sorgen so für die Legitimierung von Agentic-AI
Immer mehr Unternehmen erstellen ihre eigenen kleinen Sprachmodelle (SLMs). Wir erleben einen Anstieg von fokussierten Sprachmodellen (FLMs), die den am meisten unterminierenden Aspekt von LLMs – Halluzination – mit spezifischen Domain-Daten und Wissensankern adressieren. So stellen sie sicher, dass aufgabenbasierte FLM-Antworten auf der Wahrheit beruhen. Diese FLMs werden dazu beitragen, Agentic AI-Anwendungen zu legitimieren, die noch in den Kinderschuhen stecken, aber fokussierte und aufgabenspezifische LLMs erfordern, die mit einem hohen Maß an Genauigkeit und Kontrolle arbeiten.
Der weit verbreitete Einsatz von FLMs kann ein weiteres positives Ergebnis bringen: die Verringerung der Umweltauswirkungen von GenAI. Branchenschätzungen zufolge verbraucht eine einzige ChatGPT-Anfrage zwischen 10 und 50 Mal mehr Energie als eine Google-Suchanfrage. Der jüngste Bericht der Vereinten Nationen über die Digitalwirtschaft legt nahe, dass allein die von Google, Amazon, Meta, Apple und Microsoft (GAMAM) betriebenen Rechenzentren mehr als 90 Terawattstunden an Energie verbrauchen – mehr als einzelne Länder wie Finnland, Belgien, Chile oder die Schweiz. Da Unternehmen nach Möglichkeiten suchen, ihre Nachhaltigkeitsziele auf andere Weise als durch den Kauf von Emissionszertifikaten zu erreichen, können FLMs hier an Bedeutung gewinnen und einen wertvollen Beitrag leisten.
Sie sind für spezifische Aufgaben optimiert, erfordern weniger Rechenleistung als große, generelle Modelle wie ChatGPT und tragen somit dazu bei, den Energieverbrauch signifikant zu senken.
4. AI-Trust-Scores machen es einfacher, GenAI zu vertrauen
AI-Trust-Scores, wie jene, die mit FLMs assoziiert sind, machen es einfacher, GenAI zu vertrauen. Sekundäre, unabhängige, risikobasierte AI-Trust-Scores und darauf basierende Strategien ermöglichen es, GenAI in großem Umfang und mit messbarer Genauigkeit operativ einzusetzen.
AI-Trust-Scores reflektieren dabei drei Punkte:
– Die Wahrscheinlichkeit, dass wichtige kontextbezogene Daten (z. B. Produktdoku-mentationen), auf denen das aufgabenspezifische FLM trainiert wurde, für die Antwort verwendet werden.
– Das Vertrauen des AI-Trust-Modells, dass der Output des FLM auf ausreichender statistischer Relevanz beruht. LLMs arbeiten mit Wahrscheinlichkeitsverteilungen. Wenn es nicht genügend Trainingsdaten gibt, um eine statistisch signifikante Verteilung oder eine Anzahl von brauchbaren Alternativen zu erstellen, wird der AI-Trust-Score kein Vertrauen in die Antwort haben.
– Die Ausrichtung auf echte Fakten im Gegensatz zu Daten. Wahrheit vs. Daten ist eine der hartnäckigsten Herausforderungen von LLM-Technologie und KI insgesamt.
AI-Trust-Scores können in einem risikobasierten System effektiv eingesetzt werden, um Unternehmen bei der Entscheidung zu unterstützen, ob sie der Antwort eines FLMs vertrauen können
5. Der operative Einsatz von KI wird zunehmend einfacher
Abstrakte konzeptionelle Ideen in messbare Ergebnisse umzuwandeln, wird systematisch erreicht, wenn KI- und GenAI-Systeme auf wiederholbare, messbare Weise implementiert werden – durch eine optimierte Kombination von Menschen, Prozessen und Technologie.
Bisher wussten viele Unternehmen nicht, wie sie KI operativ einsetzen oder wo sie anfangen sollen. Fünf Voraussetzungen bilden den Rahmen für jede KI-Implementierung:
– Ein Weltklasse-Team: Der Einsatz von KI muss von erstklassigen Data-Science-Experten strategisch geplant und durchgeführt werden, die nicht nur über die passenden akademischen Qualifikationen, sondern auch über die praktische Erfahrung verfügen. Nur so löst KI Herausforderungen im Business, die in der Regel komplexer sind, als sie auf den ersten Blick erscheinen.
– KI muss eine Zielbranche ansprechen oder einen Bedarf erfüllen: Neben dem Data-Science-Team sollte das gesamte Unternehmen KI-Lösungen für eine Zielerreichung mit Mehrwert nutzen. Dazu muss zunächst der Business-Need ermittelt werden. Seine Erfüllung erfordert oft neue Algorithmen.
– KI-Algorithmen so entwickeln, dass eine effiziente Softwarebereitstellung möglich ist: Für einen erfolgreichen Einsatz von KI müssen Experten für maschinelles Lernen und KI in den Softwareentwicklungsprozess einbezogen werden. Denn sie verstehen die Anforderungen und die auf ihre Algorithmen angewendeten Beschränkungen.
– Niedrige Latenzzeiten und hohe Durchsatzraten in Echtzeit: Auf der Basis gut konzipierter Cloud-Computing-Ressourcen können KI-Lösungen entsprechend der Anforderungen am besten operativ arbeiten. Insbesondere die Anforderung in Echtzeit Ergebnisse zu liefern, erfordert ein sorgfältiges Verständnis der gesamten Kette von Datenfluss, Vorverarbeitung, Streaming-Analysen, NoSQL-Speichern, Systemredundanz und anderen Ressourcen.
– Verantwortungsbewusste KI: Damit KI einen geschäftlichen Nutzen bringt, muss sie ethisch vertretbar, erklärbar und überprüfbar sein. Das sind die Schlüsselkonzepte verantwortungsvoller KI mit einer Reihe von Prinzipien und Praktiken, um mit KI innerhalb wichtiger ethischer und rechtlicher Grenzen wirkungsvolle Geschäftsergebnisse zu erzielen.
Rechenschaftspflicht und Erklärbarkeit sind für verantwortungsvolle KI von zentraler Bedeutung und können durch den Einsatz unveränderlicher Blockchain-Technologie erreicht werden, um jeden Aspekt der KI-Modellentwicklung zu kodifizieren. Dieselbe KI-Governance-Blockchain kann verwendet werden, um KI im Einsatz zu überwachen. So lässt sich auch außerhalb des Data-Science-Labors ein Mehrwert erzielen.