Критичные проблемы

Раздел содержит решения часто встречающихся проблем категории «Критичные», выявленных при диагностике сайта в Вебмастере. Проблемы этой группы могут вести к исключению отдельных страниц или всего сайта из результатов поиска.
Совет. Отслеживайте и исправляйте ошибки в кратчайшие сроки. Вы можете настроить уведомления о результатах проверки сайта.
  1. Долгий ответ сервера
  2. Некорректная настройка SSL-сертификата
  3. Найдены страницы-дубли с GET-параметрами

Долгий ответ сервера

Сообщение означает, что во время обхода сайта поисковым роботом среднее время ответа страниц превысило 3 секунды. Проблема могла возникнуть из-за долгого ответа, возвращаемого сервером при обращении робота к некоторым страницам сайта. Примеры таких страниц можно увидеть в самом сообщении.

Долгий ответ сервера может привести к задержкам при индексировании сайта. Если на данный момент ответ сервера быстрый, то на сообщение не надо обращать внимание. Оно исчезнет при следующем обходе сайта поисковым роботом.

Как ускорить переиндексирование страниц роботом см. Как добавить сайт в поиск. Проверить время ответа сервера можно при помощи инструмента Проверка ответа сервера.

Некорректная настройка SSL-сертификата

Сообщение отображается в следующих случаях:

  • Истек срок действия сертификата.
  • Сертификат выдан на другой домен или выписан не на все поддомены, на которых используется. Например,сертификат выписан на домен example.com, но используется на домене www.example.com.
  • Cертификат Удостоверяющего центра отсутствует в браузерах пользователей или отозван.
  • Используется самоподписанный сертификат.
При проблемах с SSL-сертификатом браузер оповещает о них пользователя. Пользователь может не перейти на небезопасный сайт. Ниже представлен пример сообщения в Яндекс Браузере.
Пример


Чтобы устранить ошибку, проверьте SSL-сертификат и настройки сервера. Для этого обратитесь к вашему хостинг-провайдеру.

Робот Яндекса узнает об изменениях при очередном посещении сайта. Если он не обнаружит ошибку, сообщение о ней перестанет отображаться в Вебмастере.

Найдены страницы-дубли с GET-параметрами

Дублирующими считаются страницы с одинаковым контентом, но доступные по разным адресам. Ссылки с GET-параметрами также могут считаться дублями, так как робот Яндекса считает их разными страницами. Такие страницы объединяются в группу дублей.

Если на сайте есть страницы-дубли:

  • Из результатов поиска может пропасть нужная вам страница, так как робот выбрал другую страницу из группы дублей.

    Также в некоторых случаях страницы могут не объединяться в группу и участвовать в поиске как разные документы. Таким образом конкурировать между собой. Это может оказать влияние на сайт в поиске.

  • В зависимости от того, какая страница останется в поиске, адрес документа может измениться. Это может вызвать трудности при просмотре статистики в сервисах веб-аналитики.
  • Индексирующий робот дольше обходит страницы сайта, а значит данные о важных для вас страницах медленнее передаются в поисковую базу. Кроме этого, робот может создать дополнительную нагрузку на сайт.
Примечание. Если вы недавно добавили директивы в Clean-param, запретили дубли для обхода в robots.txt или разместили атрибут rel="canonical", может потребоваться несколько дней, чтобы эти изменения были учтены в Диагностике Вебмастера и уведомление перестало отображаться.

Чтобы указать Яндексу, какая страница должна участвовать в поиске и избавиться от дублей, добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал параметры в URL.

Совет. Директива Clean-Param является межсекционной, поэтому может быть указана в любом месте файла. Если вы указываете другие директивы именно для робота Яндекса, перечислите все предназначенные для него правила в одной секции. При этом строка User-agent: * будет проигнорирована.
Пример директивы Clean-param
#для адресов вида:
example.com/page?utm_source=instagram&utm_medium=cpc
example.com/page?utm_source=link&utm_medium=cpc&utm_campaign=new

#robots.txt будет содержать:
User-agent: Yandex
Clean-param: utm /page
#таким образом указываем роботу, что нужно оставить в поиске адрес https://example.com/page

#чтобы директива применялась к параметрам на страницах по любому адресу, не указывайте адрес:
User-agent: Yandex
Clean-param: utm

Чтобы ваш вопрос быстрее попал к нужному специалисту, уточните тему:

Если вы следовали рекомендациям, но ошибка продолжает отображаться в Вебмастере, заполните форму:

Если вы недавно добавили директивы в Clean-param, запретили дубли для обхода в robots.txt или разместили атрибут rel="canonical", может потребоваться несколько дней, чтобы эти изменения были учтены в Диагностике Вебмастера и уведомление перестало отображаться.

Если спустя время ошибка продолжает отображаться в Вебмастере, заполните форму: