+38 (067) 641 31 01 +38 (067) 240-31-01

Чем опасны дубли страниц сайта?

Стоит ли повторяться? Алгоритмы Google и Яндекс считают, что не стоит, и поэтому негативно относятся к такому явлению, как дубли страниц на сайте. Небольшая и не слишком заметная для посетителей сайта недоработка, может стать причиной больших проблем при SEO-продвижении, сведя на нет все старания оптимизаторов, устаивая «качели» и снижая позиции веб-ресурса в поисковой выдаче.
Дубли страниц – это веб-страницы с разными URL-адресам, но с одинаковым или частично одинаковым тематически наполнением. Условно их делят на две категории: и частичные дубликаты, то есть со схожим наполнением, но с небольшими отличиями и полные дубликаты, то есть одинаковые страницы сайта с разными уникальными адресами. Типичный пример – совпадающие описания на карточках товаров и в каталоге.

дубли страниц на сайте

Как дублирующие страницы вредят продвижению?

Основная опасность этого явления лежит в области SEO. Оставаясь незамеченными, дубли страниц сайта приводят к таким проблемам в продвижении:

  • снижение релевантности. Поисковые боты не могут определить, – какой из дублей оптимально подходит под запрос пользователя, что вызывает падение или скачки позиций в поиске.
  • проблемы с индексацией дубликатов, из-за чего ведущие веб-страницы могут вообще не попасть в индекс и не отображаться в выдаче.
  • критическое снижение ссылочной массы за счет ошибок. Посетители и тематические ресурсы могут создавать ссылки на дубликаты, а не на непосредственно продвигаемые элементы.
  • увеличение бюджета. Дубли на сайте увеличивают количество страниц, и поисковому боту потребуется больше времени для сканирования страниц.

Как найти и исправить дубль страницы?

Дублирующая страница редко появляется в результате оплошности веб-мастера, хотя такое тоже случается, например, если товар представлен сразу в нескольких группах или категориях. Чаще она является результатом автоматической генерации CMS сайта, возникает при изменении структуры сайта или при присвоении новых адресов.
Для обнаружения проблемы есть несколько подходов. Специалисты часто используют программы NetPeak Spider или Xenu, сервисы Serpstat, Search Console Google или Панель Вебмастера Яндекс, а так же поисковые операторы «inurl» и «site». Если сайт небольшой, то можно найти копии вручную.
Что бы исключить дублирующие страницы используется запрет на их сканирование и индексацию (robots.txt) и переадресация посредством 301-редиректа. Для страниц пагинации, url-меток, сортировок и фильтров товаров более удобен атрибут rel="canonical". Самостоятельно выполнить этот комплекс действий сложно, так как необходим опыт и понимание работы инструментов поиска.