llms.txt ist ein vorgeschlagener Standard, vergleichbar mit sitemap.xml oder robots.txt. Eine simple Markdown-Datei im Root einer Domain, die KI-Modellen einen kuratierten Überblick über die wichtigsten Inhalte gibt – ohne sie durch tausende Seiten Webseiten-HTML kämpfen zu lassen.
Was die Datei enthält
- Eine Kurzbeschreibung des Unternehmens oder der Website.
- Eine kuratierte Liste der wichtigsten Seiten mit Beschreibungen.
- Optional: Hinweise zur Nutzung, Lizenz oder Kontaktdaten.
Wo sie liegt
Im Root der Domain unter /llms.txt – also analog zu /robots.txt oder /sitemap.xml. Manche Implementierungen verweisen zusätzlich aus der robots.txt auf die Datei.
Welche Modelle sie nutzen
Stand April 2026 ist llms.txt noch nicht universell etabliert. Anthropic, OpenAI und Perplexity haben Interesse signalisiert, eine offizielle Spezifikation ist von verschiedenen Seiten in Arbeit. Vorhandene Dateien werden bereits ausgelesen, der Effekt auf Zitationen ist messbar – wenn auch noch nicht riesig.
Pragmatische Empfehlung
Eine llms.txt anzulegen kostet eine halbe Stunde und schadet nichts. Wer eine Website mit klarem Profil hat, kann den frühen Aufwand investieren – die Wahrscheinlichkeit, dass sich der Standard etabliert, ist hoch.





