KI Risiko für Marken: Warum detaillierte Lügen oft stärker wirken als vage Wahrheiten
Künstliche Intelligenz gilt vielen als Abkürzung zur Wahrheit: schnell fragen, schnell verstehen, schnell entscheiden. Doch ein Experiment des SEO-Analyseanbieters Ahrefs zeigt, wie leicht sich KI-Antwortsysteme manipulieren lassen – und wie schnell daraus Desinformation über Marken werden kann. Die zentrale Erkenntnis: Wenn im Netz Informationslücken existieren, füllen manche Systeme sie nicht mit „Ich weiß es nicht“, sondern mit plausibel klingenden Geschichten. Und besonders gefährlich wird es, wenn diese Geschichten detailliert sind.
Ahrefs ging noch einen Schritt weiter und baute für den Test nicht nur eine kleine Falschmeldung, sondern eine ganze künstliche Realität auf – inklusive fiktiver Produktwelt, Unternehmensstory und widersprüchlicher Legenden. Das Ergebnis ist ein Warnsignal für Kommunikation, PR und Markenführung in Zeiten von KI-Suche.
Das Experiment: Eine Luxusmarke, die es nie gab
Für den Versuch erfand Ahrefs eine komplett nicht existierende Luxus-Briefbeschwerer-Firma. Die Marke hatte keine Historie, keine Presse, keine echten Kunden – sie existierte nur als digitaler Dummy, inklusive Website und einem offiziellen FAQ-Bereich.
Im nächsten Schritt streute Ahrefs absichtlich drei widersprüchliche Fake-Geschichten über externe Plattformen ins Netz – unter anderem über Reddit, Medium und einen Blogbeitrag. Ziel war es, typische Muster zu simulieren, wie Gerüchte im Web entstehen: mal als scheinbar glaubwürdiger Erfahrungsbericht, mal als „Investigativ“-Stück, mal als Community-Post.
Anschließend stellte Ahrefs mehreren KI-Systemen Fragen zu dieser Marke. Der Test sollte zeigen, ob und in welchem Umfang KI-Modelle die widersprüchlichen Informationen übernehmen – oder ob sie skeptisch bleiben und Unsicherheiten signalisieren.
Das Ergebnis: KI übernimmt Fake-Fakten erschreckend oft
Das Resultat ist brisant: Nachdem die falschen Quellen im Netz platziert waren, übernahmen mehrere KI-Systeme diese Informationen in einem erheblichen Teil der Antworten als vermeintliche Fakten. Teilweise wurden die Behauptungen sogar in einem sicheren Tonfall formuliert, obwohl sie keinerlei reale Grundlage hatten.
Besonders kritisch: Einzelne Systeme begnügten sich nicht damit, die Fake-Storys zu wiederholen, sondern bauten daraus „logische Ergänzungen“ – etwa über Absatzentwicklung, Promi-Bezug oder Marktposition. Genau hier zeigt sich das Kernproblem generativer Systeme: Wenn ein Teil „wahr genug“ klingt, entsteht daraus schnell ein stimmiges Gesamtbild – unabhängig davon, ob es faktisch korrekt ist.
Warum einige Systeme robuster waren
In der Auswertung zeigte sich, dass manche KI-Modelle deutlich stabiler reagierten: Sie griffen häufiger auf offizielle Informationen zurück, relativierten Unsicherheiten oder verweigerten spekulative Aussagen. Andere Systeme dagegen folgten eher dem Muster, die scheinbar plausibelsten, detailliertesten Erzählungen zusammenzuführen.
Für Unternehmen ist das eine entscheidende Botschaft: Selbst wenn ein Teil der Modelle vorsichtiger agiert, bleibt das Grundrisiko bestehen – denn in der Praxis greifen Nutzer je nach Kontext auf unterschiedliche KI-Tools zurück. Damit können falsche Antworten schnell in Umlauf geraten.
Die eigentliche Lehre: KI liebt Details – selbst wenn sie gelogen sind
Der wichtigste Befund lautet: Detaillierte Lügen schlagen vage Wahrheiten.
Viele Unternehmen kommunizieren online bewusst defensiv:
-
keine konkreten Zahlen („wir veröffentlichen keine Produktionsmengen“)
-
keine eindeutigen Aussagen („in der Regel“, „typischerweise“, „kann variieren“)
-
keine klaren Abgrenzungen („wir kommentieren Gerüchte nicht“)
Im KI-Zeitalter wird diese Vorsicht zur Schwäche. Denn Modelle bevorzugen Inhalte, die konkret, konsistent und zitierfähig wirken. Wenn irgendwo im Netz „634 Stück pro Monat“ steht, wirkt das für Systeme oft belastbarer als „keine Angabe“. Genau an dieser Stelle entsteht ein neues Problem: Aus Mutmaßungen werden in KI-Antworten scheinbar verlässliche Fakten.
Warum das ein neues Risiko für Marken ist
In der klassischen Suche konnte eine Marke Inhalte über die eigene Website, seriöse Presse oder Enzyklopädien stabilisieren. KI-Suche verändert dieses Prinzip:
-
Inhalte werden aus vielen Quellen gesammelt
-
KI erzeugt eine fertige Antwort statt einer Linkliste
-
KI wählt häufig die „wahrscheinlichste Story“
-
KI formuliert oft mit hoher Sicherheit, selbst wenn Unsicherheit angebracht wäre
Das Risiko: Falschinformationen können sich verselbstständigen – und zwar schneller als klassische PR-Prozesse reagieren.
Mögliche Folgen:
-
Bewerber erhalten falsche Infos über Arbeitgeber
-
Kunden glauben an Features, Skandale oder Standorte, die es nicht gibt
-
Analysten übernehmen falsche Kennzahlen
-
Medien greifen KI-Antworten auf – und verstärken den Effekt
Damit wird Desinformation nicht mehr nur ein Social-Media-Problem. Sie wird zum Problem der Informationsversorgung in KI-Systemen.
Was Unternehmen jetzt tun müssen: Informationslücken schließen (GEO/AI-SEO)
Die Konsequenz ist eindeutig: Marken müssen Themen, Zahlen und Narrative aktiver selbst besetzen – sonst werden sie irgendwann von außen erzählt. Dabei helfen fünf konkrete Maßnahmen:
1) Offizielle „Single Source of Truth“ etablieren
Eine eigene, zitierfähige Wissensbasis:
-
FAQ-Hub / Knowledge-Base
-
Pressebereich mit Factsheets
-
Unternehmensprofil (Zahlen, Standorte, Führung)
-
klare Aussagen („nicht Teil von…“, „nie verkauft“, „keine Übernahme“)
2) Kommunikationsstil an KI-Logik anpassen
Nicht weichspülen – sondern konkret werden:
-
klare Zahlen, Jahreszahlen, Zeiträume
-
eindeutige Aussagen statt Floskeln
-
direkte Negationen („Es gibt keine Produktionsangaben“, „Es gab keine Übernahme“)
3) Strukturierte Daten & Entitäten pflegen
Damit Systeme Inhalte sauber zuordnen:
-
strukturierte Daten (Organization, Product, FAQ)
-
konsistente Schreibweisen von Marke/Produkten/Personen
-
gepflegte Unternehmensprofile auf wichtigen Plattformen
4) KI-Antworten aktiv monitoren
Neue Pflichtdisziplin:
-
regelmäßige Abfragen in mehreren KI-Tools
-
Fehler dokumentieren und bewerten
-
Gegenmaßnahmen durch offizielle Updates und Klarstellungen
5) Krisenkommunikation neu denken: „KI-Richtigstellung“
Wenn Falschinfos kursieren, reicht ein Statement in Social Media oft nicht. Korrekturen müssen:
-
auffindbar, dauerhaft, detailreich sein
-
als offizielle Faktenquelle dienen
-
in Formaten erscheinen, die KI leicht nutzen kann (FAQ, Factsheet, Glossar)
Fazit: Die KI erfindet nicht nur – sie optimiert Geschichten
Das Experiment zeigt: KI ist kein Lexikon, sondern ein Wahrscheinlichkeits-Erzählapparat. Wo Fakten fehlen, gewinnt oft nicht das Wahre, sondern das Konkrete.
Für Marken bedeutet das: Schweigen ist im KI-Zeitalter keine Neutralität mehr, sondern ein Risiko. Wer Informationslücken lässt, bekommt irgendwann eine Geschichte – nur nicht unbedingt die eigene.
Quellen
-
Ahrefs: I Ran an AI Misinformation Experiment. Every Marketer Should See This (10.12.2025)
-
PPC Land: What Ahrefs’ fake brand experiment proved about AI search (28.12.2025)
-
Search Engine Journal: Ahrefs’ Experiment Exposes AI Search Vulnerabilities (Dezember 2025)
-
Reddit / Community-Diskussion: Reaktionen und Thread zum Ahrefs-Test (Dezember 2025)
Lizenzhinweis:
Dieser Text ist als journalistischer Originalbeitrag für trendreport.de erstellt.
Creative Commons CC BY-ND 4.0 (Namensnennung – Keine Bearbeitungen)
Lizenz: https://creativecommons.org/licenses/by-nd/4.0/deed.de






![2_3_bitkom_akademie_schmuckbild_web-1[1]](https://trendreport.de/wp-content/uploads/2019/12/2_3_bitkom_akademie_schmuckbild_web-11-180x180.png)





