LLM-Optimierung·5 min Lesezeit·Von Nedim Hasani

llms.txt: Die kommende Standard-Datei für KI-Suchmaschinen erklärt

llms.txt ist das, was sitemap.xml für Google war: ein simpler, kuratiertes Inhaltsindex – aber für KI-Modelle. Was drin steht, wo es hingehört, und welche Wirkung es schon zeigt.

llms.txt ist ein vorgeschlagener Standard, vergleichbar mit sitemap.xml oder robots.txt. Eine simple Markdown-Datei im Root einer Domain, die KI-Modellen einen kuratierten Überblick über die wichtigsten Inhalte gibt – ohne sie durch tausende Seiten Webseiten-HTML kämpfen zu lassen.

Was die Datei enthält

  • Eine Kurzbeschreibung des Unternehmens oder der Website.
  • Eine kuratierte Liste der wichtigsten Seiten mit Beschreibungen.
  • Optional: Hinweise zur Nutzung, Lizenz oder Kontaktdaten.

Wo sie liegt

Im Root der Domain unter /llms.txt – also analog zu /robots.txt oder /sitemap.xml. Manche Implementierungen verweisen zusätzlich aus der robots.txt auf die Datei.

Welche Modelle sie nutzen

Stand April 2026 ist llms.txt noch nicht universell etabliert. Anthropic, OpenAI und Perplexity haben Interesse signalisiert, eine offizielle Spezifikation ist von verschiedenen Seiten in Arbeit. Vorhandene Dateien werden bereits ausgelesen, der Effekt auf Zitationen ist messbar – wenn auch noch nicht riesig.

Pragmatische Empfehlung

Eine llms.txt anzulegen kostet eine halbe Stunde und schadet nichts. Wer eine Website mit klarem Profil hat, kann den frühen Aufwand investieren – die Wahrscheinlichkeit, dass sich der Standard etabliert, ist hoch.

Nesani — Projekt anfragen

Ein Thema betrifft Sie? Dann sprechen wir.

Wenn einer dieser Beiträge zu Ihrer Situation passt, freuen wir uns auf ein Erstgespräch – kurz, konkret und ohne Vertriebsschleife.