Steuern Sie, wie Suchmaschinen-Bots Ihre Website crawlen. Verbergen Sie sensible Ordner, geben Sie Ihre Sitemap an und schützen Sie Ihr SEO-Ranking.
Robots.txt ist eine einfache Textdatei im Stammverzeichnis Ihrer Website. Sie teilt Suchmaschinen-Crawlern mit, welche Teile Ihrer Website gescannt werden sollen und welche nicht. Sie ist ein Eckpfeiler der technischen SEO.
Dieser Befehl zielt auf "Alle Bots" ab. Jede Regel darunter, wie `Disallow: /admin/`, gilt für jeden Besucher-Bot, von Google bis Yandex.
Das Hinzufügen von `Sitemap: https://...` am Ende Ihrer robots.txt ermöglicht es Google, neue Inhalte auf Ihrer Website viel schneller zu entdecken. Auch ohne Search Console finden Bots Ihre Karte hier.