Гугл планирует отказаться от прежней схемы сканирования AJAX

7 дек 2017, 15:32
124

Долгожданные изменения будут реализованы уже в наступающем году. AJAX-страницы стали распознаваться поисковыми системами несколько лет назад.

До этого алгоритмы Google не могли отображать страницы, на которых реализован асинхронный javascript, даже если на них были куплены хорошие статьи на сайт. Специальный набор инструментов для сканирования подобных сайтов поисковыми роботами сумел изменить ситуацию к лучшему.

Однако время не стоит на месте, и разработчики Гугл приняли решения отказаться от использования предыдущей схемы и приступить к прямой обработки сайтов на AJAX. Поисковые системы будет рендерить #! URL без постороннего вмешательства, а вебмастерам теперь не нужно будет предоставлять сканированную версию страницы. Специалисты Google заверяют своих пользователей, что эти изменения не окажут какого-либо сильного влияния на ранжирование AJAX-сайтов.

Для быстрой адаптации к новой системе веб-разработчики советуют придерживаться следующих правил:

  • использовать Google Search Console для подтверждения владения ресурсом и получения доступа к возможностям и расширениям сервиса, а также для прямой связи с мастерами в случае появления вопросов и проблем;
  • пользоваться сканером Гугл при поисковых запросах, который расположен в Search Console. Это дает возможность находить объективные различия между результатами для экранированного URL и #! URL;
  • для индексирования выбранного контента употреблять конвертирование в javascript или HTML (касается страниц, которые содержат материалы с использованием плагиновых технологий);
  • не забывать про функцию Inspect Element для подтверждения наличия HTML-элемента в запрашиваемых ссылках.

Комментарии

Полезные сервисы