Kein Black-Box-Score. Hier ist genau aufgeschlüsselt, welche 42 Faktoren in sieben Kategorien den GEO-Score bilden - mit Gewichtung, Datenbasis und ehrlichen Grenzen.
Sieben Kategorien. 42 gewichtete Hauptfaktoren, plus ~18 Sub-Checks pro Faktor (insgesamt 60 Detail-Prüfungen). Jeder Faktor entspricht einem echten Backend-Check des Scoring-Systems.
Nicht alle Faktoren sind gleich wichtig. Strukturierte Daten und technische Grundlagen tragen am stärksten zum GEO-Score bei.
Die Gewichtungen basieren auf empirischen Beobachtungen aus 9 AI-Engines (ChatGPT, Claude, Perplexity, Gemini, Copilot, DeepSeek, Grok, Z.AI, Kimi) über mehrere Monate. Strukturierte Daten (25%) und technische SEO (20%) dominieren, weil AI-Systeme primär maschinenlesbare Daten verarbeiten - nicht natürlichsprachige Texte. Der Business-Datenlayer (5%) ist bewusst niedrig gewichtet: Fehlende Feeds kosten Punkte, perfekte Feeds heben den Score jedoch kaum an.
Ehrlichkeit ist Teil der Methodik. Hier sind die tatsächlichen Grenzen unseres Systems.
Wir haben keinen privilegierten Zugang zu den internen Ranking-Algorithmen von OpenAI, Anthropic oder Google. Unsere Messung basiert auf beobachtbarem Output-Verhalten der Modelle.
Ein hoher GEO-Score erhöht statistisch die Wahrscheinlichkeit der Zitierung - er garantiert sie nicht. AI-Antworten sind nicht-deterministisch.
Wir messen Domain-Level-Sichtbarkeit. Keine Nutzerprofile, kein Tracking von Endkunden - datensparsam umgesetzt.
AI-Engine-Abfragen erfolgen typischerweise im 24-Stunden-Polling-Rhythmus. Realtime-Sichtbarkeit ist technisch nicht messbar - keine Plattform bietet dafür eine API.
Von technischer Datenqualität bis zu messbarem Business Impact - vier Ebenen, die zusammen ein vollständiges Bild ergeben.
Fundament: Sind die Daten maschinenlesbar, vollständig und frisch?
Wird das Unternehmen in AI-Antworten erwähnt, zitiert, empfohlen?
Wie korrekt und positiv sind die AI-Aussagen über das Unternehmen?
Führt AI-Sichtbarkeit zu messbarem Traffic, Leads und Umsatz?
Der GEO-Score ist nicht aus dem Bauch gegriffen. Diese Publikationen bilden die empirische Basis.
Aggarwal et al.
Erste systematische Studie zur Optimierung für generative Suchmaschinen. Definiert Citations, Impressions und Share of Voice als primäre GEO-Metriken - Grundlage unserer Faktor-Kategorisierung.
Stanford Human-Centered AI Institute
Halluzinations-Raten nach Modell und Domäne. Basis für unseren Halluzinations-Score und die Kalibrierung unserer 9-Engine-Testmatrix.
Patronus AI / IBM Research
Detection-Benchmarks für faktische Fehler in LLM-Ausgaben. Methodik für unsere 8-Layer-Halluzinations-Erkennung übernommen (Layer 9 = optionaler AI-Semantic-Check).
Google LLC
Offizielle Spezifikation für strukturierte Daten. Definiert, welche Schema-Typen Google (und damit Gemini) zur Antwortgenerierung nutzt.
Beconova ist kein akademisches Forschungsinstitut. Die genannten Quellen belegen die theoretischen Grundlagen - die praktischen Gewichtungen entstammen eigener Mess-Empirie über 6+ Monate Produktionsdaten.
Wenn etwas an unserer Methodik unklar ist, sprechen Sie uns direkt an. Keine Buzzwords, keine Ausweichmanöver.