Rankings, organischer Traffic, CTR - das sind die Metriken, die SEO-Teams seit Jahrzehnten messen. Sie haben ihren Platz. Aber sie messen nicht, was passiert, wenn ein Nutzer ChatGPT fragt welcher Anbieter für Buchhaltungssoftware empfehlenswert ist und Ihr Unternehmen nicht in der Antwort erscheint. KI-Sichtbarkeit braucht eigene Metriken - und ein Verständnis davon, was diese Metriken tatsächlich messen und was nicht. Dieser Artikel beschreibt die vier Ebenen des AI-Visibility-KPI-Frameworks und erklärt, wo traditionelle Attribution an ihre Grenzen stößt.
AI-Visibility-Metriken lassen sich in vier Ebenen strukturieren, die aufeinander aufbauen. Ebene 1 - Technische Datenqualität: Diese Metriken messen, ob die Voraussetzungen für KI-Sichtbarkeit überhaupt gegeben sind. Schema-Vollständigkeit gibt an, wie viele der relevanten Schema.org-Felder für Ihre Entities befüllt sind. Ein Product-Schema mit 4 von 12 möglichen Feldern ist technisch valide, aber inhaltlich arm - KI-Systeme haben weniger Kontext zur Verfügung. robots.txt-Konformität für KI-Crawler: Blockieren Sie unbeabsichtigt Crawler wie GPTBot, ClaudeBot oder PerplexityBot? llms.txt-Validität: Ist die Datei syntaktisch korrekt und verlinkt auf crawlbare Ressourcen? Crawl-Erfolgsrate: Wie viele Ihrer relevanten Seiten sind für KI-Crawler erreichbar? Ebene 2 - AI-Sichtbarkeit, das Herzstück des Frameworks: Mention Rate misst, wie oft Ihr Unternehmensname in KI-Antworten zu relevanten Suchanfragen erscheint, geteilt durch die Gesamtzahl der Abfragen. Eine Mention Rate von 35 Prozent bedeutet: Bei 100 relevanten Fragen erscheint Ihr Unternehmen in 35 Antworten. Citation Rate ist spezifischer: Wie oft wird Ihre Website explizit als Quelle zitiert? Citation ist stärker als Mention, weil sie Vertrauen signalisiert. Recommendation Rate misst aktive Empfehlungen: Eine Empfehlung ist wertvoller als eine bloße Erwähnung. Share of Voice setzt Ihre Mentions in Relation zu Wettbewerbern: Wenn 5 Unternehmen in einer Antwort genannt werden und Sie einer davon sind, ist Ihr Share of Voice 20 Prozent. Ebene 3 - Antwortqualität: Was wird über Sie gesagt? Halluzinationsrate: Wie viele der KI-Aussagen über Ihr Unternehmen sind faktisch falsch? Sentiment-Score: Positiv, neutral oder negativ? Quellenqualität: Aus welchen Quellen generieren KI-Systeme Antworten über Sie? Ebene 4 - Business Impact: AI-Referral-Traffic in Google Analytics 4, Conversion Rate dieser Besucher im Vergleich zu organischen Besuchern, Lead-Qualität: Leads aus KI-Empfehlungen zeigen in frühen Beobachtungen eine höhere Intent-Rate - der Nutzer hat bereits durch die KI-Antwort vorqualifiziert.
Direkt testen
Prüfen Sie Ihren GEO Score in 60 Sekunden - kostenlos, ohne Account. 42 Faktoren analysiert.
Die vier dominanten KI-Systeme funktionieren technisch unterschiedlich - und das beeinflusst, wie und warum Sie in deren Antworten erscheinen. ChatGPT (OpenAI) unterscheidet zwischen Basis-Antworten aus dem Trainingskorpus und Browse-Antworten, bei denen aktuelle Webdaten abgerufen werden. Im Standard-Modus sind Antworten auf den Trainings-Cutoff begrenzt - für Produktpreise und aktuelle Verfügbarkeit ein erhebliches Problem. Mit aktiviertem Browse sind Antworten aktueller, aber die Quellenauswahl ist nicht transparent. ChatGPT zitiert Quellen nur im Browse-Modus; im Standard-Modus gibt es keine expliziten Quellenangaben. Für Ihre KPI-Messung bedeutet das: Mention Rate in ChatGPT ohne Browse misst vor allem, wie verbreitet Ihre Marke im Trainingskorpus war. Perplexity ist strukturell anders: Es ist eine RAG-Suchmaschine, die für jede Anfrage aktuelle Webdaten abruft und diese in Echtzeit zu einer Antwort synthetisiert. Perplexity zitiert Quellen standardmäßig - das macht Citation Rate direkt messbar. Änderungen in Ihren Quelldaten wirken bei Perplexity schneller als bei ChatGPT. Claude (Anthropic) nutzt in der Standard-Version keine Websuche, sondern antwortet aus dem Trainingskorpus. Claude Citations erlauben es, Antworten mit Quelldokumenten zu verknüpfen - aber das betrifft vor allem API-Anwendungen. Suchmaschinenbasierte KI-Antworten k?nnen in Ergebnisfl?chen integriert sein und nutzen typischerweise bestehende Index- und Crawling-Infrastruktur. Rich Snippets, Schema.org-Daten und konsistente Unternehmensinformationen k?nnen in solche Antwortsysteme einflie?en. Citation Rate in suchbasierten KI-Antworten korreliert stark mit Schema-Qualit?t und strukturierten Daten. Der praktische Rat: Messen Sie KPIs plattformspezifisch. Eine hohe Mention Rate bei Perplexity und eine niedrige bei ChatGPT haben unterschiedliche Ursachen - und erfordern unterschiedliche Maßnahmen. Aggregierte Durchschnittswerte über alle Plattformen sind wenig aussagekräftig.
Das größte Problem bei AI-Visibility-KPIs ist Attribution: Wie viel des Geschäftserfolgs lässt sich auf KI-Sichtbarkeit zurückführen? Die ehrliche Antwort ist: Nur ein Teil. Und dieser Teil wird in klassischen Analysetools wie Google Analytics 4 systematisch unterschätzt. Der Attribution-Gap entsteht aus mehreren Gründen. Erstens, direkte Eingaben: Ein Nutzer sieht Ihren Namen in einer ChatGPT-Antwort und gibt ihn direkt in die Browser-Adressleiste ein. GA4 wertet das als Direct - der KI-Einfluss ist unsichtbar. Zweitens, Datenschutz-Browser und Ad-Blocker: Sie blockieren Referrer-Daten. Ein Klick von Perplexity sieht in GA4 oft aus wie Direct. Drittens, App-zu-Web-Traffic: Wer die ChatGPT-App nutzt und dann zu Ihrer Website wechselt, hinterlässt keinen Referrer-Header. Beobachtungen aus frühen Analysen deuten darauf hin, dass nur 10 bis 20 Prozent der tatsächlichen KI-Effekte in GA4 sichtbar werden. Der Rest versteckt sich im Direct-Traffic. Der Krokodil-Maul-Effekt beschreibt ein Phänomen, das in einigen Märkten mit früher AI-SEO-Adoption beobachtet wird: Das Lead-Volumen sinkt - manchmal um 10 bis 15 Prozent - weil KI-Systeme viele informative Fragen direkt beantworten, ohne dass Nutzer auf eine Website klicken müssen. Gleichzeitig steigt der Revenue erheblich, weil die Leads, die ankommen, bereits durch die KI-Antwort vorqualifiziert sind und eine deutlich höhere Conversion Rate haben. Das bedeutet: Wer AI-Visibility-Erfolg nur an Traffic-Wachstum misst, misst falsch. Die relevanten Metriken sind Revenue pro Lead und Conversion Rate, nicht Gesamtzahl der Besucher. Praktische Empfehlung: Implementieren Sie UTM-Parameter für alle strukturierten AI-Traffic-Quellen. Analysieren Sie den Direct-Traffic auf Verhaltensänderungen nach AI-SEO-Maßnahmen. Nutzen Sie Server-Side-Analytics als Ergänzung zu GA4. Und: Betrachten Sie AI-Visibility-KPIs als komplementäre Schicht zu SEO-Metriken - nicht als Ersatz.
KI-Sichtbarkeit nach klassischen SEO-Metriken zu messen ist wie Radfahren nach der Reisegeschwindigkeit eines Zuges zu beurteilen - die Messung passiert, aber sie ist für den falschen Kontext konzipiert. Mention Rate, Citation Rate, Share of Voice und Halluzinationsrate sind die Metriken, die tatsächlich abbilden, was in KI-Antworten passiert. Der Attribution-Gap ist real und wird unterschätzt. Wer versteht, dass Direct-Traffic heute auch AI-Traffic sein kann, hat einen analytischen Vorsprung. Und wer die Conversion-Rate statt des reinen Volumens misst, erkennt den tatsächlichen Business Impact von AI-Sichtbarkeit.
GEO Score kostenlos prüfenMarvin Malessa
Gründer, Beconova
Gründete Beconova 2025 in Deutschland, um Shops und Dienstleistern den Weg in KI-Suchmaschinen zu öffnen. Schreibt über GEO, KI-Sichtbarkeit und die Zukunft der Suche.
Starten Sie mit Beconova und werden Ihre Daten für ChatGPT, Claude und Gemini messbar auswertbar.
Jetzt starten