Золотой сертифицированный партнер - 1С Битрикс
Оставить заявку
WEB CENTER

Зачем скрывать внутренние технические ссылки атрибутом rel=nofollow?

Ускоряем обход сайта поисковыми роботами
,

У каждого сайта есть свой краулинговый бюджет - лимит на обход страниц на сайте поисковым роботом за определенный промежуток времени.

Чтобы робот не тратил свои ресурсы на обход ненужных технических и мусорных страниц, можно их закрыть тремя способами:

1. Закрыть url таких страниц в robots.txt

Страницы, закрытые таким путем, выпадают из обхода.

Минусы метода:

  • Google может игнорировать директивы из этого файла и индексировать содержимое;
  • Яндекс и Гугл используют страницы в обходе, если на них стоят внутренние или внешние ссылки.

2. Закрыть внутренние ссылки атрибутом rel="nofollow"

Атрибут nofollow позволяет поисковым системам указать, что переходить по ссылке не нужно.

Сами поисковые системы Яндекс и Google рекомендуют такой способ.

Минусы метода:

  • Закрыть абсолютно все ссылки, ведущие на страницу невозможно, т.к. она может быть уже проиндексирована, либо на неё уже ссылаются внешние dofollow-ссылки.

3. Закрыть страницы мета-тегом "noindex"

Страницы, содержащие такой тег, перестанут индексироваться.

Минусы метода:

  • Не всегда и не всё можно закрыть данным мета-тегом;
  • Ссылки не закрытые в robots.txt, либо атрибутом rel=nofollow.

Комбинация robots.txt + rel="nofollow" + meta "noindex"

Такой подход позволяет убрать из обхода страницы ненужные сайта.

Пример

К примеру, страница интернет-магазина с параметрами сортировки.

  1. Если её не закрыть в robots.txt, страницы проиндексируются и создаются дубликаты с похожим содержимым (конкуренция с разделом, к которому относиться сортировка).
  2. Если не закрыть внутренние ссылки на такую сортировку с помощью атрибута rel=nofollow, то робот будет использовать их в обходе, невзирая даже на запреты в robots.txt.
  3. Если страница закрыта перечисленными двумя способами, но кто-то поставил внешнюю индексируемую ссылку с другого сайта, то страница может индексироваться поисковым ботом Google.

Что происходит после закрытия внутренних ссылок в rel=nofollow?

Если в отчете вебмастера Яндекс ("Индексирование" => "Страницы в поиске" => "Исключенные") присутствует ошибка: "Запрет в robots.txt (страница)", то после внедрения данной рекомендации их количество должно значительно уменьшиться.

Скриншот на примере одного нашего клиента, которому выполнялась данная работа:

Закрываем внутренние ссылки в rel=noffolow

Было заблокированных в robots.txt: 1 958 599 стр. После внедрения атрибута nofollow стало: 1 083 страницы.

Такая методика позволяет значительно увеличить скорость обхода и индексирования на любом сайте, особенно это чувствуется на сайтах с большим количеством страниц.

Мы занимаемся разработкой и доработкой действующий сайтов любой сложности.

Вы можете оставить заявку для получения дополнительной информации по вашему сайту.


Укажите, пожалуйста, свои контактные данные и мы свяжемся с вами в ближайшее время