Файл robots.txt — текстовый файл в формате .txt, указывающий поисковым роботам, к какому содержимому у них есть доступ на сервере, а к какому нет. Как определение, robots.txt — это стандарт исключений для роботов, который был принят консорциумом W3C 30 января 1994 года, и который добровольно использует большинством поисковых систем.
Robots.txt, содержит важную для поисковых систем информацию, которую они проверяют, перед сканированием всех страниц сайта. Это помогает им более эффективно проводить процесс сканирования по каждому конкретному сайту. Необходимо отметить, что файл robots.txt, не является сто процентным указанием для поисковых систем, а служит лишь как рекомендательная информация.
Основные правила, которым необходимо следовать при создании и размещении файла robots txt на сервере, это:
Стоит отметить, что написание файла robots.txt, не отличается в зависимости от CMS, на которой написан сайт. Будь то NespiCMS, OpenCart, Wordpress или Joomla, файл robots.txt, всегда будет написан одинаково.
Самое время, более подробно поговорить о том, что включает в себя содержимое файла robots.txt.
Содержимое robots – это директивы и указания поисковым роботам.
Например:
User-agent: *
Disallow: /control/
Host: https://www.mysite.com
В данном примере, Вы запрещаете индексацию папки /control/ на сайте (www.mysite.com) всем поисковым роботам (*).
Давайте подробнее разберем пример:
Второй пример:
User-agent: Yandex
Disallow: /myimages/
Host: www.mysite.com
Запрет индексации для поискового робота Yandex, индексации папки /myimages/ сайта www.mysite.com.
Третий пример:
User-agent: SomeBot
Disallow:
User-agent: *
Disallow: /
В данном примере, сайт разрешен к индексированию только одним ботом (SomeBot), остальным ботам индексирование запрещено.
Главное, при создании файла robots.txt, не запретить индексирование Вашего сайта всем ботам. В этом случае, позиции сайта, очень быстро просядут, и Вам придется потратить большое количество времени для их восстановления.