Что такое robots.txt?
Robots.txt — это инструкция для поисковых роботов, обычно хранящаяся в корневой папке сайта. С её помощью можно контролировать поведение роботов — например, запретить им индексировать определённое содержимое сайта.
При посещении сайта поисковик запрашивает robots.txt в первую очередь.
Рассмотрим на примере.
Имеется файл robots.txt, в котором записано:
User-agent: *
Disallow: /tmp/
Disallow: /cgi-bin/
- Знак «*» после User-agent сообщает об общем доступе к содержимому robots.txt — им может воспользоваться любой поисковой робот. Вместо этого знака также можно вписать название конкретного робота.
- Disallow запрещает роботу индексировать один из разделов. Так, если в robots.txt прописано «Disallow: /» - значит, роботу запрещено индексировать весь сайт.
Запретить индексацию можно и при помощи атрибута nofollow и тега noindex, но поисковые системы негативно относятся к этим запретам.
Rookee — простой способ поднять сайт в ТОП поисковых систем
Рекомендуемые статьи
- SEO-оптимизация сайта – что это и каковы ее этапы?
- Перелинковка – что это такое и как ее сделать?
- Что такое Яндекс.Метрика?
- Что такое Яндекс.Директ?
- Что такое зеркало сайта и как правильно его настроить?
- Что такое пассаж?
- Что такое метатеги?
- Как настроить 301 редирект на веб-сервере Apache?
- Что такое Яндекс.Вебмастер? Зачем Яндекс.Вебмастер нужен для продвижения?
- Что такое «внутренние ссылки»? Каких видов бывают внутренние ссылки?