Акция! Бесплатный аудит!
+7 (812) 907 27 91
sozdanie.spb.ru
Полезные статьи

Как дубли страниц сайта влияют на его продвижение

Как дубли страниц сайта влияют на его продвижение

Давайте сначала разберемся что такое дубли страниц. Дубли представляют собой повторения контента страницы или его части на других страничках веб-ресурса, имея при этом разный URL. Дубли страниц чаще всего создаются автоматически CMS сайта, но и сам веб-мастер может по невнимательности создать дубликат, например, прописав одинаковый Титл и Дескрипшен у разных страниц.

Влияние дублей на продвижение

Все поисковики очень жестко борются с дублями страниц на сайте, и чаще всего, сайты, содержащие дубли, хуже ранжируются в выдаче. Опасность дублей страниц для ранжирования:

  • Страница может сменить свою релевантность на дубль
  • Замедление индексации страниц ресурса
  • Уменьшение ссылочного веса
  • Сайт может попасть под фильтр ПС
  • Снижение позиций в выдаче по запросам

Как можно обнаружить дубли страниц?

Это можно сделать вручную. Этот способ прост и доступен каждому. Нужно всего лишь вбить в поисковики комбинации:

  • Yandex: host:mysite.ru | host:www. mysite.ru
  • Google: site:mystite.ru | site:mysite.ru

Где mysite.ru – это ваш сайт.

Затем нужно просмотреть какие странички выдал поисковик. Если в выдаче присутствуют странички, которых не должны были индексироваться, то перед вами дубли. Перейдите по ссылки, чтобы в этом убедиться.

Что делать с дублями?

Существуют несколько методов решения подобных проблем

  • Настройка редиректа HTTP-301, то есть перенаправления с одного вида страниц на другие с помощью hitacces/CMS. Применяется очень часто: склейка страниц со слэшом на конце и без него, настройка зеркал главной страницы, склейка страничек с www и без, склейка и переадресация ненужных страниц на нужные.
  • Атрибут rel=”canonical” тега <link>. Указывает каноническую ссылку. Чаще всего применяется при пагинации страниц. После употребления этого тега пользователи смогут просматривать все страницы, но индексироваться будет только одна, на которую указан канонический URL.
  • Запретить страницы для индексации в файле robots.txt
  • На конкретной странице прописать в Хедере такую комбинацию: <meta name="robots" content="noindex">
  • Ошибка 404. Просто нужно сделать 404 ошибку на ненужном адресе

Для успешной работы сайта и нахождения его в топ выдачи, необходимо постоянно мониторить и проверять ресурс на наличие дублей и своевременно реагировать на их появление.


Автор: Максимов Артём

calendar01.04.2018, 538 просмотров.

Отправить заявку
Закрыть