+38 (067) 641 31 01 +38 (067) 240-31-01

ЧИМ НЕБЕЗПЕЧНІ ДУБЛІ СТОРІНОК САЙТУ?

Чи варто повторюватись? Алгоритми Google і Яндекс вважають, що не варто, тому негативно ставляться до такого явища, як дублі сторінок на сайті. Невелика і не надто помітна для відвідувачів сайту недоробка, може стати причиною великих проблем при SEO-просуванні, звівши нанівець усі старання оптимізаторів, влаштовуючи гойдалки та знижуючи позиції веб-ресурсу в пошуковій видачі.

Дублі сторінок – це веб-сторінки з різними URL-адресами, але з однаковим або частково однаковим тематичним наповненням. Умовно їх поділяють на дві категорії: і часткові дублікати, тобто зі схожим наповненням, але з невеликими відмінностями і повні дублікати, тобто однакові сторінки сайту з різними унікальними адресами. Типовий приклад - збігаються описи на картках товарів та в каталозі.

ЯК ДУБЛЮЮЧІ СТОРІНКИ ШКОДУЮТЬ ПРОСУВАННЯ?

Основна небезпека цього явища лежить у сфері SEO. Залишаючись непоміченими, дублі сторінок сайту призводять до таких проблем у просуванні:

  • зниження релевантності. Пошукові боти не можуть визначити, який із дублів оптимально підходить під запит користувача, що викликає падіння або стрибки позицій у пошуку.
  • проблеми з індексацією дублікатів, через що провідні веб-сторінки можуть взагалі не потрапити до індексу та не відображатися у видачі.
  • критичне зниження маси посилань за рахунок помилок. Відвідувачі та тематичні ресурси можуть створювати посилання на дублікати, а не на елементи, що безпосередньо просуваються.
  • збільшення бюджету. Дублі на сайті збільшують кількість сторінок, і пошуковому боту буде потрібно більше часу для сканування сторінок.

ЯК ЗНАЙТИ ТА ВИПРАВИТИ ДУБЛЬ СТОРІНКИ?

Дублююча сторінка рідко з'являється в результаті помилки веб-майстра, хоча таке теж трапляється, наприклад, якщо товар представлений відразу в кількох групах або категоріях. Найчастіше вона є результатом автоматичної генерації CMS сайту, що виникає при зміні структури сайту або при наданні нових адрес.

Для виявлення проблеми є кілька підходів. Фахівці часто використовують програми NetPeak Spider або Xenu, сервіси Serpstat, Search Console Google або Панель Вебмайстра Яндекс, а також пошукові оператори "inurl" та "site". Якщо сайт невеликий, можна знайти копії вручну.

Щоб виключити дублюючі сторінки використовується заборона на їх сканування та індексацію (robots.txt) та переадресація за допомогою 301-редиректу. Для сторінок пагінації, url-міток, сортувань та фільтрів товарів зручніший атрибут rel="canonical". Самостійно виконати цей комплекс дій складно, оскільки необхідний досвід та розуміння роботи інструментів пошуку.