Закрыть
Ваше имя
Контактный телефон
Удобное время звонка

Google обновил поисковое руководство для сайтов на JavaScript

Представитель Google опубликовал обновление рекомендаций для сайтов, построенных на JavaScript, Ajax и Progressive Web Apps.

Инженер отдела качества поиска Google Джон Мюллер опубликовал обновленное руководство для ресурсов, развернутых на основе Progressive Web Apps, JavaScript и Ajax.

Специалисты поисковой системы Google советуют всем вебмастерам не пытаться обмануть Googlebot с помощью клоакинга. Чтобы сделать свой ресурс более доступным для пользователей, следует применять методы progressive enhancement и feature detection.

Кроме этого лучше избегать редиректов, поддержка которых не реализована в современных браузерах. Или использовать для частичной эмуляции спецификаций HTML5 и CSS3 polyfill-скрипты, которые помогают в отображении контента. Также отмечается, что сейчас Googlebot не поддерживает такие интерфейсы и сценарии, как Fetch API, Promises, Service Workers и requestAnimationFrame.

Согласно обновленной инструкции рекомендуется использовать атрибут rel со значением «canonical» (rel=canonical) для отображения канонических гиперссылок при размещении контента на нескольких URL-адресах.

Также следует избегать применения символа «#» при написании адресов, поскольку такие ссылки поисковый робот индексирует редко. Стандартный URL должен включать в себя путь, имя файла и параметры (переменные) запроса.

Кроме того рекомендуется отказаться от устаревшей схемы при сканировании новых сайтов на AJAX. А также не использовать тег "meta fragment" на страницах, содержащих тег "escaped fragment". Чтобы убедиться, что Googlebot правильно «видит» ваш ресурс, нужно проверять его видимость с помощью «Сканера Google для сайтов», реализованного в рамках Serch Console. Но при этом необходимо помнить, что этот инструмент не воспринимает гиперссылки, содержащие символ «#».

Кроме всего прочего с помощью этого инструмента можно проверить, что все запрашиваемые ресурсы доступные для индексирования. В том числе сторонние API, скрипты и ответы сервера.

В том случае если ваш сайт отображается не полностью, следует уменьшить количество запрашиваемых страниц. Это связано с тем, что большое число запрашиваемых URL-адресов приводит к истечению максимально возможного времени ожидания ответа от сервера.

Также следует помнить, что в Google реализована поддержка использования JavaScript для предоставления мета описаний, заголовков и мета тегов robots. Но другие поисковые системы могут не поддерживать эту технологию или использовать другие принципы индексации страниц.