Im September 2024 schlug Jeremy Howard, Mitgründer von fast.ai, einen neuen Standard vor: llms.txt - eine Datei, die Websites KI-Systemen gegenüber in strukturierter Form vorstellen soll. Die Idee ist einleuchtend, die Diskussion seitdem lebhaft. Inzwischen haben rund 844.000 Websites eine llms.txt implementiert. Gleichzeitig hat Google-Sprecher John Mueller öffentlich erklärt, dass aktuell kein KI-System llms.txt aktiv nutzt. Was stimmt? Und lohnt es sich trotzdem?
llms.txt ist eine Plaintext-Datei, die im Stammverzeichnis einer Website unter /llms.txt abgelegt wird. Sie enthält eine strukturierte, KI-lesbare Zusammenfassung der Website: Was bietet die Seite an? Welche Bereiche sind für KI-Systeme relevant? Wo liegen die wichtigsten Inhalte? Der Vorschlag orientiert sich konzeptionell an robots.txt - einem Standard, den alle Suchmaschinen kennen und respektieren. Der Grundgedanke: Statt dass KI-Crawler sich durch Millionen von Unterseiten arbeiten müssen, bekommt die KI eine Art Visitenkarte. 'Hier ist, wer wir sind, was wir tun, und was für euch relevant ist.' Das soll die Effizienz der Indexierung verbessern und sicherstellen, dass KI-Systeme die eigentlich wichtigen Inhalte finden. Die Adoption ist respektabel für einen so jungen Standard: Laut Daten von Cloudflare haben Stand Anfang 2025 rund 844.000 Domains eine llms.txt implementiert - ein Anteil von etwa 10 % gemessen an allen analysierten Domains. Das entspricht ungefähr der Adoption von Schema.org in den ersten zwei Jahren nach dessen Einführung. Es ist ein Anfang, kein Massenphänomen. Ein wichtiger Unterschied zu robots.txt: robots.txt ist technisch verbindlich - Crawler, die das Protokoll respektieren, folgen den Anweisungen. llms.txt ist dagegen ein Angebot, kein Protokoll. Es gibt keine Spezifikation, die KI-Anbieter verpflichtet, die Datei zu lesen oder ihre Empfehlungen zu berücksichtigen.
Direkt testen
Prüfen Sie Ihren GEO Score in 60 Sekunden - kostenlos, ohne Account. 42 Faktoren analysiert.
Hier ist die ehrliche Bestandsaufnahme, ohne Schönfärberei. Was llms.txt aktuell NICHT tut: Es beeinflusst nicht KI-Antworten in Suchergebnissen. John Mueller hat im Frühjahr 2025 auf der SearchLiaison-Plattform klargestellt: 'No AI system currently uses llms.txt.' Das bezieht sich auf Google-Systeme - Google verarbeitet llms.txt nicht als Rankingsignal für KI-Antworten in Suchergebnissen. Auch OpenAIs GPTBot folgt llms.txt nicht in dem Sinne, dass die Datei das Crawl-Verhalten oder die Ranking-Entscheidungen direkt steuert. Es ist kein Ersatz für robots.txt, kein Schema.org-Äquivalent und keine 'KI-Sitemap', die automatisch in KI-Antworten führt. Was llms.txt aktuell tun kann: Es dient als strukturierter Orientierungspunkt für KI-Systeme, die explizit nach maschinenlesbaren Zusammenfassungen suchen. Einige kleinere KI-Crawler und Multi-Agent-Frameworks - etwa AutoGPT-basierte Systeme und spezialisierte Recherche-KIs - lesen llms.txt aktiv aus. Für diese Systeme (die zunehmend für Business-Research und automatisierte Entscheidungsprozesse eingesetzt werden) kann llms.txt ein echter Vorteil sein. Es ist auch eine Zukunftsinvestition. Der Standard ist jung. Wenn sich llms.txt ähnlich entwickelt wie robots.txt oder Schema.org - von einem Nischenvorschlag zu einem De-facto-Standard - profitieren Early Adopter. Das ist jedoch eine Wette, keine Gewissheit. Fazit für die Abwägung: llms.txt ist kein Grund, andere Maßnahmen zu priorisieren. Es ist ein sinnvolles Add-on mit vertretbarem Implementierungsaufwand und positivem Erwartungswert - aber kein Treiber für messbare Sichtbarkeitsverbesserungen in den großen KI-Plattformen im Jahr 2026.
Wenn llms.txt das neue Experiment ist, dann ist JSON-LD der bewährte Standard. JSON-LD (JavaScript Object Notation for Linked Data) in Kombination mit Schema.org-Vokabular ist das Format, das Google, Microsoft/Bing, Apple Siri und die meisten KI-Systeme aktiv verarbeiten. Es ist kein Vorschlag - es ist gelebte Praxis seit über zehn Jahren. Für die Praxis ergibt sich eine klare Prioritätenreihenfolge: Erstens vollständiges JSON-LD implementieren - Product, LocalBusiness, Organization, FAQ, Review, BreadcrumbList. Das hat unmittelbaren Effekt auf Google Rich Results, KI-Antworten in Suchergebnissen und alle KI-Systeme, die strukturierte Daten auswerten. Zweitens GPTBot, ClaudeBot, PerplexityBot in robots.txt erlauben - was geblockt ist, kann nicht indexiert werden. Drittens llms.txt bereitstellen - als zukunftssicheres Signal, mit realistischen Erwartungen. Viertens einen maschinenlesbaren Produkt- oder Service-Feed anbieten - das ist für Plattformen wie Perplexity relevanter als llms.txt. Ein konkretes Beispiel für den Aufwandsvergleich: Ein vollständiges JSON-LD-Setup mit zehn Schema-Typen kostet ein Entwickler-Team drei bis fünf Tage. llms.txt kostet ein bis zwei Stunden. Beides sollte gemacht werden - aber in dieser Reihenfolge. Transparenz-Hinweis: Beconova generiert automatisch maschinenlesbare Datenfeeds aus Ihren Produkten und Dienstleistungen - das schließt JSON-LD-Feeds ein, die KI-Crawler direkt konsumieren können. llms.txt kann optional ergänzt werden - wir empfehlen es, aber wir versprechen keine spezifischen Ergebnisse, die über den aktuellen Adoptionsstand des Standards hinausgehen.
llms.txt ist ein guter Standard mit bescheidenem aktuellem Impact. Er lohnt sich als Low-Cost-Maßnahme, die möglicherweise in zwei bis drei Jahren deutlich relevanter wird. Wer llms.txt implementiert, macht nichts falsch - aber wer glaubt, damit allein seine KI-Sichtbarkeit zu sichern, irrt. JSON-LD, robots.txt-Konfiguration und vollständige strukturierte Daten haben 2026 deutlich mehr Hebelwirkung. Machen Sie beides - aber priorisieren Sie richtig.
GEO Score kostenlos prüfenMarvin Malessa
Gründer, Beconova
Gründete Beconova 2025 in Deutschland, um Shops und Dienstleistern den Weg in KI-Suchmaschinen zu öffnen. Schreibt über GEO, KI-Sichtbarkeit und die Zukunft der Suche.
Starten Sie mit Beconova und werden Ihre Daten für ChatGPT, Claude und Gemini messbar auswertbar.
Jetzt starten