Begriffe

Maschinenunterscheidbarkeit

Die Fähigkeit eines KI-Systems, eine Marke im relevanten Szenario verlässlich als die richtige Entität zu erfassen.

Praktische Bedeutung: Mehr als bloße Namensbekanntheit.

funktionale Sichtbarkeit

Die Beteiligung einer Marke am konkreten Entscheidungsmoment: in der engeren Auswahl, in einer Empfehlung oder in einem Vergleich.

Praktische Bedeutung: Eine Marke kann bekannt und dennoch funktional unsichtbar sein.

Quellenkontur

Die Gesamtheit eigener, externer, nutzergenerierter und strukturierter Quellen, aus denen ein System seine Einschätzung einer Marke bildet.

Praktische Bedeutung: Zentraler Gegenstand eines Audits.

Erwähnung

Die Tatsache, dass der Name einer Marke oder eine Entität in einer Antwort erscheint.

Praktische Bedeutung: Die schwächste Stufe der Präsenz.

Zitation

Eine Situation, in der eine Marke oder eine mit ihr verbundene Quelle zur Beleggrundlage einer Antwort wird.

Praktische Bedeutung: Stärker als eine bloße Erwähnung.

Einfluss

Die Fähigkeit einer Marke, den Rahmen einer Antwort zu setzen: Kriterien, Kategorie, Liste von Alternativen, Sprache des Vergleichs.

Praktische Bedeutung: Die wertvollste und zugleich seltenste Stufe.

Update-Verzögerung

Die Verzögerung zwischen einer Änderung eines Fakts über eine Marke und seinem stabilen Erscheinen in der maschinellen Antwort.

Praktische Bedeutung: Setzt sich aus mehreren Stufen zusammen.

Maschinenlesbarkeit

Der Grad, in dem sich Eigenschaften von Marke und Produkt zuverlässig aus strukturierten und synchronisierten Daten extrahieren lassen.

Praktische Bedeutung: Besonders wichtig für kommerzielle Szenarien.

Kategoriesubstitution

Die Verschiebung einer Marke in einen fremden Entscheidungsrahmen oder der Ersatz ihres Marktes durch eine andere Aufgabenkategorie.

Praktische Bedeutung: Passiert häufig vor dem direkten Vergleich von Marken.

Verlust vor dem Klick

Der entgangene Anteil einer Marke an der Formung der Auswahl noch vor dem Besuch der Website.

Praktische Bedeutung: Eine neue ökonomische Analyseeinheit.

Antwortumgebung

Ein Interaktionsmodus, in dem ein KI-System keine Dokumentenliste zurückgibt, sondern unmittelbar eine synthetisierte Antwort auf die Frage des Nutzers formuliert.

Praktische Bedeutung: Gerade in der Antwortumgebung konkurriert eine Marke nicht um eine Position in der Trefferliste, sondern um einen Platz innerhalb der fertigen Antwort.

GEO (Generative Engine Optimization)

Ein Bündel von Praktiken, die darauf abzielen, dass eine Marke in Antworten generativer KI-Systeme häufiger und präziser erscheint. Es unterscheidet sich vom klassischen SEO dadurch, dass nicht die Position in einer Linkliste, sondern die Beteiligung an der synthetisierten Antwort optimiert wird.

Praktische Bedeutung: Ein Marktbegriff, der bereits von Wettbewerbern und Kunden verwendet wird. Es ist nützlich, ihn zu kennen; wichtig ist jedoch, sich daran zu erinnern, dass hinter der Abkürzung dieselbe Aufgabe steht — Maschinenunterscheidbarkeit.

LLMO (Large Language Model Optimization)

Ein Synonym für GEO, das die Optimierung speziell für Sprachmodelle betont und nicht für Suchsysteme mit KI-Erweiterung.

Praktische Bedeutung: In Marktmaterialien kommt der Begriff seltener vor als GEO, beschreibt aber dieselbe Aufgabe.

RAG (Retrieval-Augmented Generation)

Ein architektonischer Ansatz, bei dem ein Sprachmodell vor der Generierung einer Antwort relevante Dokumente aus einer externen Quelle (Websuche, Wissensbasis, Katalog) abruft und sie als Kontext verwendet.

Praktische Bedeutung: Gerade RAG erklärt, warum Web-Quellen und strukturierte Daten die Antwort eines Modells in Echtzeit beeinflussen und nicht nur über das Training.

Zero-Click (zero-click)

Eine Situation, in der ein Nutzer direkt in der Oberfläche eines Such- oder Antwortsystems eine ausreichende Antwort erhält und auf keine externe Website wechselt.

Praktische Bedeutung: Im Zero-Click wirkt eine Marke entweder an der Formung der Antwort mit oder verliert den Kontakt zum Nutzer vollständig.

Wissensgraph (Knowledge Graph)

Eine strukturierte Datenbasis aus Entitäten und ihren Beziehungen, die von Such- und Antwortsystemen zur Identifikation, Klassifikation und Beschreibung realer Objekte verwendet wird.

Praktische Bedeutung: Die Präsenz einer Marke in einem Wissensgraphen (etwa im Google Knowledge Graph oder in Wikidata) erhöht die Wahrscheinlichkeit, dass die Entität in einer Antwort korrekt identifiziert wird.

Entitäts-Disambiguierung (entity disambiguation)

Die Fähigkeit eines Systems, eine Entität von einer anderen zu unterscheiden, wenn sich Namen, Kategorien oder Kontexte überschneiden oder ähneln.

Praktische Bedeutung: Wenn ein Markenname mehrdeutig ist oder mit einem Gattungsbegriff zusammenfällt, kann das Modell ihn systematisch mit einer anderen Entität verwechseln.

AI Overview

Ein Block mit einer synthetisierten Antwort, den Google über den gewöhnlichen Suchergebnissen anzeigt. Er wird von einem KI-Modell auf Basis von Web-Quellen generiert.

Praktische Bedeutung: Für viele Kategorien ist AI Overview bereits der erste Kontaktpunkt des Nutzers mit Informationen. Eine Marke erscheint entweder in diesem Block oder landet darunter.

Halluzination (hallucination)

Eine Situation, in der ein Sprachmodell eine Behauptung generiert, die nicht durch Quellen gestützt ist oder faktisch falsch ist, aber überzeugend klingt.

Praktische Bedeutung: Eine Halluzination kann einer Marke nützen (das Modell „erfindet“ einen Vorteil, den es nicht gibt) oder schaden (es schreibt ihr einen fremden Nachteil zu). Beides ist gefährlich.

Antwortblase

Ein Effekt, bei dem dieselbe Marke in den Antworten verschiedener KI-Systeme deutlich unterschiedlich erscheint, weil sich Trainingsdaten, Abrufarchitektur und Syntheselogik unterscheiden.

Praktische Bedeutung: Eine einheitliche KI-Sichtbarkeit gibt es nicht. Die Diagnose muss über mehrere Plattformen hinweg erfolgen.

agentische Wahl

Ein Szenario, in dem ein KI-Agent selbstständig sucht, vergleicht und für den Nutzer entscheidet — ohne zwischenzeitlich eine Liste von Optionen anzuzeigen.

Praktische Bedeutung: Im agentischen Szenario konkurriert eine Marke nicht um menschliche Aufmerksamkeit, sondern um maschinelle Präferenz. Dies ist die nächste Schwelle nach der Antwortumgebung.

Konfidenzgrad (Confidence Grade)

Eine interne Bewertung der Qualität einer Ausführung. Sie wird aus der Breite des Konfidenzintervalls, dem Anteil fehlgeschlagener prompts und der Streuung zwischen Szenariofamilien berechnet. Grade: A (hoch) — enges Intervall, stabiles Ergebnis. B (gut) — verlässliches Ergebnis mit moderater Variation. C (moderat) — spürbare Sensitivität gegenüber der Zusammensetzung des Korpus. D (explorativ) — das Ergebnis ist instabil; eine Wiederholung der Ausführung wird empfohlen.

Praktische Bedeutung: Der Konfidenzgrad zeigt, wie stabil die Messung ist. Bei C und darunter wird vor Entscheidungen eine Wiederholung der Ausführung empfohlen.

nativer Modus

Ein Modus, in dem das Modell ausschließlich aus Trainingsdaten antwortet, ohne Zugang zum Internet. Er zeigt, wie stark eine Marke im Grundwissen des Modells verankert ist.

Praktische Bedeutung: Wenn der Score im nativen Modus hoch ist, ist die Marke bereits im Modell verankert. Wenn er niedrig ist, kennt das Modell die Marke ohne externe Hinweise nicht.

Web-Modus

Ein Modus, in dem das Modell vor der Antwort zusätzlich im Internet nach Informationen sucht. Er zeigt, inwieweit externe Quellen die Position einer Marke stärken oder schwächen.

Praktische Bedeutung: Die Differenz zwischen Web-Modus und nativem Modus zeigt, ob die Website und das externe Umfeld einer Marke helfen oder schaden.

Visibility Language Field (VLF)

Phänomen, bei dem ein KI-Modell je nach Sprache der Prompts ein unterschiedliches Wettbewerbsumfeld für eine Marke zusammensetzt. Beim Wechsel der Sprache verschwinden manche Wettbewerber aus den Antworten, andere tauchen auf, und das Ranking verschiebt sich radikal. Für eine dominante Marke der Kategorie schwankt der Gesamtscore moderat, aber für weniger sichtbare Wettbewerber kann die Spannweite Dutzende von Punkten betragen — bis hin zur vollständigen Unsichtbarkeit in bestimmten Sprachen. VLF entsteht durch die Asymmetrie der Trainingsdaten, Unterschiede in den Webquellen und die Bildung separater assoziativer Graphen für jede Sprache. Das Modell kann eine Marke in allen Sprachen gleich gut kennen, sie aber unterschiedlich empfehlen: in einer Sprache an die erste Stelle setzen und in einer anderen einem Wettbewerber weichen, der in der ersten Sprache überhaupt nicht existierte.

Praktische Bedeutung: Markenkenntnis garantiert keine Empfehlung. Eine Marke kann dem Modell in fünf Sprachen gleich gut bekannt sein, aber nur in zweien auf die Shortlist kommen. Auch die Wettbewerber unterscheiden sich — eine Strategie, die gegen ein bestimmtes Konkurrenzfeld funktioniert, kann in einer anderen Sprache wirkungslos sein. Empfohlen wird eine separate Studie für jede Sprache des Zielmarkts.

Verwandte Materialien

Leitfaden 4 Min.

Vorwort und Leitfaden zum überarbeiteten ai100-Korpus

Wie die AI100-Forschungsbibliothek aufgebaut ist: Artikelstruktur, Materialtypen, Schwierigkeitsstufen, Leserouten und Navigation.

Material öffnen →
Grundlagentext 7 Min.

Warum eine starke Marke für KI-Systeme unsichtbar sein kann

Erklärt das zentrale Paradoxon: Eine Marke kann bei Menschen bekannt und zugleich für KI im Moment der realen Auswahl schlecht unterscheidbar sein.

Material öffnen →
Nächster Schritt

Wie das in der Praxis mit AI100 zusammenhängt

Wenn Sie nicht einen Überblick, sondern eine spezifische Diagnose für Ihre Marke brauchen, können Sie mit AI100 prüfen, wie das Modell das Unternehmen in neutralen Auswahlszenarien wahrnimmt, welche Wettbewerber höher positioniert sind und welche Verbesserungen die Sichtbarkeit am ehesten steigern.

Beispielbericht ansehen