
1 шаг. Файл robots.txt
Закрываем сайт от поисковых систем в файле robots.txt
, расположенном в корне сайта.
Для этого указываем User-Agent: *
для всех роботов, далее задаем значение Disallow: /
, запрещающее индексировать все разделы и страницы сайта.
Дополнительно указывается главное зеркало сайта:
Host: https://original-name-site.ru/
.
Если есть SSL-сертификат, то указываем с https://
, если обычный протокол, то: Host: original-name-site.ru
В итоге у нас должно получиться следующее содержимое файла robots.txt
:
User-Agent: *
Disallow: /
Host: https://original-name-site.ru
2 шаг. Метатег noindex
В хедере сайта вставляем сразу после тега <head>
следующее содержимое:
<meta name="robots" content="noindex"/>
К примеру, в Битрикс в файле: /bitrix/templates/название_шаблона/header.php