На сайте найдены страницы-дубли с разными GET-параметрами

Дубли страниц на Webasyst с разными GET-параметрами: причины и решения

Обнаружение дублирующихся страниц на сайте Webasyst с различными GET-параметрами – распространенная проблема, которая может негативно сказаться на SEO, ухудшить индексацию сайта поисковыми системами и рассеять ссылочный вес. В этой статье мы разберем причины возникновения этой проблемы и предложим эффективные способы ее решения.

Почему появляются дубли страниц с GET-параметрами?

GET-параметры – это переменные, передаваемые в URL после знака вопроса (?). Они используются для различных целей, таких как:

  • Пагинация: /?page=2 - отображение второй страницы каталога.
  • Сортировка: /?sort=price_asc - сортировка товаров по возрастанию цены.
  • Фильтрация: /?color=red&size=L - фильтрация товаров по цвету и размеру.
  • Отслеживание (UTM-метки): /?utm_source=google&utm_medium=cpc - отслеживание источников трафика.
  • Параметры сессии/идентификации: Иногда используются для отслеживания пользователя (хотя это не рекомендуется).

Проблема возникает, когда страницы с разными значениями GET-параметров, но с идентичным контентом индексируются поисковыми системами как отдельные страницы. Это создает дублированный контент, что негативно влияет на SEO.

Наиболее вероятные причины появления дублей на Webasyst:

  1. Неправильная настройка модуля "SEO-фильтр" (если используется): Этот модуль, предназначенный для создания SEO-friendly URL-ов для фильтров, может генерировать дубли, если неправильно настроен или если у него есть ошибки.
  2. Некорректная обработка параметров сортировки и пагинации в шаблоне: Если Webasyst не обрабатывает параметры сортировки и пагинации правильно, это может привести к созданию новых URL-ов с дублированным контентом.
  3. Активное использование UTM-меток без контроля индексации: UTM-метки полезны для отслеживания трафика, но их бездумное добавление ко всем ссылкам может создать множество URL-ов с идентичным контентом, индексируемых поисковиками.
  4. Неправильная настройка canonical URL: Canonical URL указывает поисковым системам, какая версия страницы является предпочтительной. Если canonical URL не настроен или настроен неправильно, это может привести к индексации дубликатов.
  5. Особенности работы плагинов: Некоторые плагины могут добавлять GET-параметры в URL-ы без явной необходимости, создавая дубли.
  6. Технические ошибки в шаблонах: Ошибки в коде шаблонов Webasyst могут приводить к некорректной генерации URL-ов.

Как исправить дубли страниц с GET-параметрами на Webasyst?

Решение проблемы зависит от ее причины, но существует несколько общих шагов:

1. Анализ проблемы:

  • Идентифицируйте дубли: Используйте инструменты SEO-анализа (Screaming Frog, Ahrefs, Semrush) для сканирования сайта и выявления страниц с одинаковым контентом, отличающихся только GET-параметрами.
  • Определите, какие параметры создают дубли: Выясните, какие именно GET-параметры приводят к генерации дублированного контента. Это могут быть параметры пагинации, сортировки, фильтрации, UTM-метки и т.д.
  • Проверьте код шаблонов: Внимательно изучите шаблоны Webasyst (особенно файлы, отвечающие за отображение каталогов, товаров и других страниц, подверженных проблеме) на предмет некорректной генерации URL-ов.

2. Основные методы решения:

  • Использование тега <link rel="canonical">: Добавьте тег <link rel="canonical"> в <head> каждой страницы. Этот тег должен указывать на каноническую версию страницы. Например, если /product/123?color=red и /product/123?color=blue – дубли, укажите в обеих canonical URL /product/123.
    • В Webasyst это можно сделать через редактирование шаблонов (design/themes/[ваша_тема]/[тип_страницы].html): Используйте Smarty для динамической генерации canonical URL. Часто это делается на основе константы {$wa->rootUrl} и текущего URL без GET-параметров. Пример:
    <link rel="canonical" href="{$wa->rootUrl}{$wa->currentUrl|strstr:'?':true}">
    

    Важно: Этот пример предполагает, что базовая версия URL (без GET-параметров) является канонической. В некоторых случаях может потребоваться более сложная логика.

  • Настройка robots.txt: Используйте файл robots.txt для запрета индексации страниц с определенными GET-параметрами. Например:
    User-agent: * 
    Disallow: /*?sort=* 
    Disallow: /*?page=* 
    Disallow: /*?utm_* 

    Важно: Этот метод не предотвращает сканирование страниц. Он лишь указывает поисковым системам не индексировать их. Он подходит для параметров, которые точно не должны индексироваться (например, UTM-метки).

  • Использование мета-тега robots: Добавьте мета-тег robots с атрибутом noindex, follow на страницы, которые не должны индексироваться. Это более гибкий способ, чем robots.txt, так как позволяет указывать правила для отдельных страниц.
    • В Webasyst это также делается через редактирование шаблонов, аналогично canonical URL:
    {if $wa->get('page') > 1}
        <meta name="robots" content="noindex, follow"> 
    {/if}
    

    Пример: В этом примере страницы пагинации (начиная со второй) будут помечены как noindex, но ссылки на них будут по-прежнему отслеживаться.

  • Настройка 301 редиректов: Если определенные URL-ы с GET-параметрами были проиндексированы и вы хотите перенаправить трафик с них на каноническую версию, используйте 301 редиректы.
    • В Webasyst это можно сделать через плагины или напрямую в .htaccess (если используется Apache): Например, плагин "Redirect Manager" или создание правил в .htaccess для перенаправления URL-ов с UTM-метками на версию без них. Однако, этот метод сложнее в реализации и может привести к проблемам, если не настроен правильно.
  • Настройка модуля "SEO-фильтр" (если используется): Внимательно изучите настройки модуля "SEO-фильтр". Убедитесь, что он настроен правильно и не создает дубли страниц. Если возникают проблемы, попробуйте обновить модуль до последней версии или обратитесь в поддержку разработчика.
  • Настройка Webasyst для корректной обработки параметров сортировки и пагинации: Проверьте настройки Webasyst, связанные с пагинацией и сортировкой. Убедитесь, что они настроены так, чтобы не создавать дублированный контент.

3. Дополнительные советы:

  • Регулярный мониторинг: Регулярно сканируйте свой сайт на наличие дублированного контента и других SEO-проблем.
  • Анализ лог-файлов сервера: Изучайте лог-файлы сервера, чтобы увидеть, какие URL-ы сканируют поисковые роботы. Это поможет выявить проблемные страницы.
  • Консультация со специалистом: Если вы не уверены, как исправить проблему, обратитесь к SEO-специалисту или разработчику Webasyst.

В заключение:

Дубли страниц с GET-параметрами – серьезная проблема, требующая внимания. Правильная настройка canonical URL, robots.txt, мета-тегов robots, редиректов и Webasyst, а также регулярный мониторинг помогут вам избежать этой проблемы и улучшить SEO вашего сайта. Помните, что подход к решению проблемы может быть индивидуальным и зависеть от конкретной ситуации на вашем сайте.

Не нашли ответа на сайте?

Заполните контактную форму и наша дружная команда свяжется с вами в ближайшее время

— или —

Оставьте заявку

Нажимая на кнопку, Вы соглашаетесь с Политикой конфидециальности и даете согласие на обработку персональных данных.