Google внёс изменения в руководство для веб-мастеров, согласно которым поисковые роботы будут обращать внимание на файлы стилей (CSS) и скриптов (JavaScript). Для корректной индексации страниц необходимо в файле roots.txt снять ограничения на доступ к перечисленным элементам, если таковые имеются, иначе позиции сайта в поисковой выдаче могут упасть.
Необходимость обновления вызвана внедрением новой технологии индексирования, которая заключается в рендеринге (визуализации) распознаваемых страниц, пришедшей на смену прежним принципам работы систем индексирования, идентичным текстовым веб-браузерам (например, Lynx). По заявлениям представителей компании, это больше соответствует понятию «современный веб-браузер».
Также в Google выделили ряд пунктов, о которых нельзя забывать. Например, поисковой движок, который осуществляет рендеринг страниц, может не поддерживать некоторые технологии веб-дизайна, которые могут использованы на «просматриваемой» странице. В связи с этим разработчикам рекомендуется следовать концепции прогрессивного улучшения, принципы которой позволяют поисковым системам лучше распознавать содержимое страниц.
Эффективнее всего поисковыми роботами индексируются страницы, которые быстро загружаются, поэтому Google советует обратить внимание при оптимизации страниц на:
Также был обновлён инструмент Fetch as Google, позволяющий веб-мастерам посмотреть на сканирование страниц глазами Googlebot.
Данное обновление было анонсировано разработчиками Google ещё в мае 2014 года. В сообщение говорилось, что до нынешнего момента уделялось внимание лишь текстовому содержимому, а скрипты и стили игнорировались.
Вернуться в список новостей