Файл & nbsp; robots.txt & nbsp; & mdash; текстовий файл у форматі .txt, який вказує пошуковим роботам, до якого вмісту у них є доступ на сервері, а до якого немає. Як визначення, robots.txt & nbsp; & mdash; це стандарт винятків для роботів, який був прийнятий консорціумом W3C 30 січня 1994 року, і який добровільно використовує більшістю пошукових систем.
Robots.txt, містить важливу для пошукових систем інформацію, яку вони перевіряють, перед скануванням всіх сторінок сайту. Це допомагає їм ефективніше проводити процес сканування по кожному конкретному сайту. Необхідно відзначити, що файл robots.txt, не є сто відсотковим зазначенням для пошукових систем, а служить лише як рекомендаційна інформація.
Основні правила, яких необхідно дотримуватися при створенні і розміщенні файлу robots txt на сервері, це:
Варто відзначити, що написання файлу robots.txt, не відрізняється в залежності від CMS, на якій написаний сайт. Будь то NespiCMS, OpenCart, Wordpress або Joomla, файл robots.txt, завжди буде написаний однаково.
Саме час, більш докладно поговорити про те, що включає в себе вміст файлу robots.txt.
Вміст robots – це директиви і вказівки пошуковим роботам.
Наприклад:
User-agent: *
Disallow:/control/
Host:https://www.mysite.com</ p>
В даному прикладі, Ви забороняєте індексацію папки / control / на сайті ( www.mysite.com ) всіх пошукових роботів (*).
Давайте докладніше розберемо приклад:
Другий приклад:
User-agent: Yandex
Disallow:/myimages/
Host:www.mysite.com
Заборона індексації для пошукового робота Yandex, індексації папки /myimages/ сайту www.mysite.com .
Третій приклад: </ strong>
User-agent: SomeBot
Disallow:
User-agent: *
Disallow:/
В даному прикладі, сайт дозволений до індексування тільки одним ботом (SomeBot), іншим роботам індексування заборонено.
Головне, при створенні файлу robots.txt, чи не заборонити індексування Вашого сайту всім роботам. В цьому випадку, позиції сайту, дуже швидко просядуть, і Вам доведеться витратити велику кількість часу для їх відновлення.