В прошлом году Google выпустил обновление, которое включало в себя такой фактор ранжирования, как Page Experience – это показатель удобства страницы. Он оценивает следующие параметры:
-
Core Web Vitals.
-
Факторы E-A-T.
Все нововведения Google нацелены на улучшение качества поисковой выдачи. Факторы ранжирования призваны отсортировать всю массу сайтов и сформировать из неё осмысленную выдачу под конкретный пользовательский запрос. При этом, каждый параметр, который учитывается Google, включает в себя комплекс оценочных характеристик, влияющих на качество сайта и его удобство с точки зрения пользователя.
Стремление поисковых систем предоставить пользователям идеальную выдачу предполагает наличие ответов в наиболее простой и удобной форме.
Автоматизированные алгоритмы постепенно перенимают ответственность за оценку качества контента, опубликованного на страницах сайтов. Это и привело к появлению таких параметров, как Экспертность, Авторитетность и Достоверность. Их, в полной мере, можно считать шагом в будущее Глобальной сети.
Разумеется, всё это делает работу SEO-специалистов сложнее и запутаннее, но одновременно с этим и повышает ценность грамотных профессионалов. Ведь ещё каких-то пятнадцать лет назад продвижением сайтов в интернете занимались даже студенты и школьники. Сегодня же это стало уделом опытных оптимизаторов, за которыми охотятся кадровые отделы крупных компаний.
Что такое Core Web Vitals?
Это комплексный параметр, включающий в себя множество различных характеристик. Наиболее примечательные из них следующие три:
-
LCP – Largest Contentful Paint. Скорость загрузки крупного контента.
-
FID – First Input Delay. Показатель скорости и удобства взаимодействия пользователя с сайтом.
-
CLS – Cumulative Layout Shift. Стабильность размещённого контента. Этот параметр отслеживает совокупный сдвиг вёрстки.
В общем и целом, все эти показатели можно охарактеризовать одним словом, как пользовательский опыт. Сюда входит не только скорость загрузки сайта сама по себе. Но и различные параметры, отражающие интуитивность интерфейса и простоту навигационных элементов. Если аудитории сложно отыскать необходимую информацию в рамках вашего сайта, поисковая система начнёт занижать его общую оценку.
Главным достоинством алгоритма Core Web Vitals является его прозрачность. Вы точно знаете каким образом он влияет на ранжирование, как улучшить оценку сайта и какие инструменты для этого потребуются. Подобной информацией ещё никогда разработчики не делились так явно и открыто.
Зачем Google запустил Core Web Vitals?
Главный посыл, который пытается донести до вебмастеров Google, заключается в том, что в основу ранжирования ложится именно качество ресурса, а не какие-то побочные параметры.
В частности, на Web Vitals приходится основная работа по оценке того полезного эффекта, который несёт в себе тот или иной ресурс. Соответственно, бесполезные – не должны попадать в выдачу вовсе, тогда как наиболее качественные и активные – будут расти и собирать всё больше трафика.
Разработчики в Google стремятся таким образом очистить выдачу от ресурсов, которые размещают на своих страницах некачественный контент, не оправдывающий ожиданий посетителей. Тогда как достойные проекты, которые в полной мере закрывают потребности аудитории, должны получать более высокую оценку и ранжироваться лучше.
Как улучшить показатели CWV
Влияние, которое оказывает на позиции сайтов в поисковой системе алгоритм Core Web Vitals, вынуждает работать над технической оптимизацией и юзабилити. Google рекомендует начать с ряда простых шагов, способных обозначить основные направления развития сайта.
Последовательная и настойчивая работа по улучшению качества ресурса неизбежно приведёт к росту его показателей:
-
Проведите полноценный аудит сайта. Таким образом вы сможете проследить за поведением посетителей, перешедших из поиска, и определить ключевые проблемы, которые необходимо устранить. Полноценная детализация позволит исправить технические ошибки, пересмотреть элементы дизайна и навигации, которые интуитивно непонятны для аудитории.
-
Проверьте скорость загрузки страниц вашего сайта. Для этого подойдут такие инструменты, как: Page Speed Insights, Lighthouse или тому подобные. Следите за тем, чтобы показатели находились в зелёной зоне. Для этого может понадобится проведение полноценной ревизии размещённого контента. Используйте универсальные шрифты, специализированные форматы для изображений и видео. Не перегружайте ресурс плагинами и приложениями.
-
Все необходимые инструменты для сбора аналитики и отслеживания эволюции сайта, можно найти на официальной странице алгоритма: web.dev/vitals-tools.
-
Алгоритм Core Web Vitals нацелен на добросовестных вебмастеров, готовых работать и делать собственные сайты лучше изо дня в день. Даже не смотря на свою прозрачность, он не даёт простых ответов на вопрос: как попасть в топ поисковой выдачи. Всё, о чём можно узнать, заглянув за пелену технической информации, так это о необходимости создания полезного контента для людей.
Оптимизируйте LCP
Поработайте над временем отрисовки наиболее объёмной части контента на странице. На эту скорость влияют такие параметры, как:
-
производительность сервера;
-
скорость загрузки контента;
-
рендеринг на стороне посетителя;
-
сторонний софт (JavaScript и CSS), оказывающий влияние на рендеринг или блокирующий его.
Исходя из этих параметров, можно сформировать ряд основных рекомендаций по улучшению сайта и адаптации его структуры и содержимого под требования алгоритма Core Web Vitals:
-
Проведите ревизию процессов, выполняемых на сервере, который вы используете для размещения сайта. Проверьте показатель TTFB, отвечающий за время до первого байта. Именно он является наиболее ярким показателем, наглядно демонстрирующим ошибки в настройке работы сервера.
-
Не пренебрегайте возможностями CDN – Content Delivery Network. Этот инструмент позволяет распределять информацию по различным географическим точкам, в зависимости от их назначения. То есть, если у вас созданы различные посадочные страницы, которые зависят от региона, из которого пришёл посетитель, то и информацию лучше будет загрузить с сервера, который находится ближе к нему. Это особенно актуально для крупных ресурсов, собирающих различный трафик со всего мира и предоставляющий информацию на родном языке для большинства регионов.
-
Кэшируйте на стороне сервера весь HTML-код, который только возможно. Если он статичен, то нет смысла загружать его каждый раз в полном объёме. Это может оказать ощутимое влияние на скорость загрузки страницы.
-
Подключайте сервис-воркеры – они позволяют кэшировать ответы, которые передаются браузеру сервером. Это ещё один способ уменьшить объём передаваемой информации, который позволяет загружать страницы быстрее.
-
По возможности не используйте CSS. Особенно если они не несут в себе критически важной информации или блокируют рендеринг. Если без них не обойтись, всегда можно настроить отложенную загрузку, которая будет происходить уже после отрисовки наиболее важной части контента.
-
Откажитесь и от JavaScript. Весь объёмный софт оказывает невероятное влияние на оценку, которую получает ваш сайт со стороны поисковой системы. Молодым вебмастерам кажется, что всевозможные эффекты и графика позволят привлечь аудиторию. Но если вы окажетесь на самом дне выдачи, то аудитории вам в любом случае не видать.
-
Обрабатывайте все размещаемые изображения. Используйте только оптимизированные форматы, существенно сокращающие объём отображаемых картинок.
-
Настройте приоритетную загрузку для всего критически важного контента на странице. Благодаря этому, посетители смогут намного раньше приступить к потреблению информации, пока на фоне догрузятся все остальные элементы дизайна и навигации.
Сократите показатель FID
FID – First Input Delay или первая задержка ввода. Этот параметр помогает оценить первое впечатление пользователя, перешедшего на ваш сайт. Счёл ли он его достаточно интерактивным и быстрым, или же остался недоволен скоростью загрузки и покинул его.
Измерение FID начинается в тот момент, когда произошло первое взаимодействие со страницей. А заканчивается оно после начала фактической обработки браузером событий, в ответ на совершённое действие.
Задержки, которые при этом возникают, обусловлены загруженностью потока. Это может быть, например, синтаксический анализ или работа над объёмным бандлом. Подобные действия перегружают ширину потока и вызывают задержки при отгрузке наиболее важного контента.
Измерения FID возможны только во время фактического взаимодействия пользователя с сайтом. Первая задержка ввода оказывает существенное влияние на формирование общего впечатления о качестве и надёжности ресурса в целом. А учитывая, что проблемы с интерактивностью возникают именно при первоначальной загрузке страницы, задумайтесь над тем, какое первое впечатление ваш сайт производит на посетителей.
Для улучшения этого показателя необходимо оптимизировать все размещённые элементы JavaScript:
-
Используйте асинхронную загрузки. Благодаря чему можно будет отложить всё, что только возможно, максимально ускоряя процесс начала взаимодействия с контентом.
-
Разбивайте все объёмные задачи JavaScript на короткие, чтобы не отпугивать аудиторию, а быстро добавлять элементы на загружаемую страницу.
-
При помощи веб-воркеров можно загружать все объёмные скрипты в фоновом режиме.
-
Попробуйте поработать с прогрессивной загрузкой кода.
-
Расставьте приоритеты различным процессам. Сделайте собственные сценарии более важным и отведите им время в самом начале загрузки, а сторонний код оставляйте на завершающий этап отображения страницы.
-
Постарайтесь максимально снизить объём данных, которые требуют загрузки на стороне клиента. Таким образом удастся снять нагрузки с устройств, не отличающихся высокой производительностью, переложив всю работу на сервер.
Оптимизируйте CLS
CLS – Cumulative Layout Shift или совокупный сдвиг макета. Этот показатель позволяет получить оценочное значение смещения макета после его визуализации. В общем смысле можно считать, что этот параметр наглядно демонстрирует то, на сколько смещается текст после подгрузки всех элементов дизайна и навигации.
CLS ориентирован на пользователей и наглядно отражает доступность размещённого на странице контента. Ярким примером некачественного Cumulative Layout Shift можно считать сайты, во время загрузки страниц которых возникает смещение положения скрола.
То есть пользователь начал взаимодействовать с контентом, который отгрузился в первую очередь, а потом неожиданно переместился в другой участок страницы. Подобные события оказывают крайне негативное влияние на User Experience и требуют своевременного вмешательства.
CLS зависит от:
-
настройкам размещённых изображений;
-
наличия встраиваемых рекламных блоков и фреймов;
-
использования контента, который должен загружаться асинхронно (это могут быть нестандартные шрифты, видеоролики, объёмные изображения или скрипты);
-
добавления в тело страницы динамического контента, которым бывают рекламные баннеры или нечто похожее, что загружается выше поля с контентом.
Если показатель CLS чрезмерен, необходимо внести определённые коррективы, иначе позиции сайта в поисковой выдаче могут пострадать:
-
Необходимо задать атрибуты width и height для элементов, в которых содержатся видеоролики или изображения. Таким образом получится заранее выделять для них место и предотвратить последующие смещения изначально отгружаемой части страницы.
-
Постарайтесь убрать весь динамический контент, расположенный над основным содержимым страницы. Это один из наиболее критичных советов. Так как именно от него в большинстве случаев зависит чрезмерный сдвиг макета.
-
Вы можете воспользоваться помощью сторонних плагинов, способных самостоятельно перенастроить последовательность загрузки контента на вашем сайте. Для ресурсов на WordPress это может быть, например, Jetpack Boost.
Инструменты для оценки Core Web Vitals
-
Lighthouse – программное решение, которое позволяет измерять различные параметры сайта. Сюда относится скорость загрузки, доступность, интерактивность и тому подобное. Возможностей для эффективного применения данного инструмента предостаточно. Не забывайте прогонять проект после каждого внесённого изменения. Таким образом вы сможете отслеживать общую динамику.
-
CrUX – база данных, содержащая информацию о поведенческих факторах обширного диапазона пользователей. Здесь находится порядка десяти миллионов различных страниц, просматривая которые можно составить представление о том, как должны располагаться элементы навигации и как выглядит эталонный дизайн страницы.
-
PageSpeed Insights – инструмент, сочетающий в себе возможности Lighthouse и CrUX. Прогоняя свой сайт, вы получите исчерпывающую информацию в виде объёмного и подробного отчёта. Всегда удобнее работать с единой базой статистических данных, размещённых в удобном формате.
-
Вы можете найти данные по Core Web Vitals прямо через Google Search Console. Если вы хотите посмотреть все подробности в первоисточнике, то этот вариант будет наиболее быстрым.
-
Chrome Dev Tools – ещё один инструмент, позволяющий отслеживать все основные показатели алгоритма Core Web Vitals: LCP, CLS, TBT.
-
Web Vitals Chrome Extension – плагин, который отслеживает все изменения, вносимые в структуру и содержание сайта, обрабатывая их в реальном времени.
-
Web-vitals.js – виртуальная библиотека весом менее 1 кб. Она может пригодиться для анализа поведенческих факторов и отслеживания эффективности изменения, вносимых вами в дизайн сайта.
-
Screaming Frog – парсер, созданный для проведения комплексных аудиторов. Он способен работать с разнообразными параметрами, влияющими на SEO, но показатели Core Web Vitals инструмент сможет обрабатывать только если вы приобретёте платную версию.
Факторы E-A-T
Не стоит забывать и о второй группе факторов, которые были введены вместе с Core Web Vitals – это Expertise, Authoritativeness и Trustworthiness. Их можно дословно перевести, как Экспертность, Авторитетность и Достоверность. А это, в свою очередь, означает, что поисковые алгоритмы оценивают сайты, основываясь на следующих параметрах:
-
Опыт автора, публикующего контент. То есть молодые проекты будут иметь куда меньший вес в сравнении с долгожителями выбранного направления.
-
Авторитетность издания. Бренд сам по себе может оцениваться поисковыми системами. Если доверенный бренд создаёт новый проект, показатели его авторитетности изначально могут не быть нулевыми, так как он уже знаком поисковику.
-
Соответствие контента поисковым запросам и правилам системы. Если вы размещаете качественную информацию, которая помогает аудитории решать те или иные проблемы, алгоритмы непременно это заметят. Но любые несоответствия неизбежно приводят к штрафам и фильтрам. Если опубликованный контент не соответствует заявленным ключевым вхождениям, показатель отказов начнёт стремительно расти.
Тематика и направленность сайта не имеет никакого значения с точки зрения алгоритма. Это может быть жёлтая пресса, сборники сплетен или народных рецептов. Самое главное – соответствие размещённой информации заявленным ключевикам. Если люди ищут то, что вы размещаете, значит они приходят к вам на страницу и потребяют контент. Это всё, что требуется знать поисковой системе.
E-A-T намного строже проверяет ресурсы с тематиками, относящимися к спорту, здоровью и финансам. От качества информации подобных проектов может зависеть здоровье, благосостояние или даже жизнь человека.
Ресурсы медицинской тематики, располагающие информацию и рекомендации по каким-либо заболеваниям, требуют экспертности автора. То есть он должен обладать медицинским образованием, подтверждающим наличие подходящей квалификации.
Более того, все статьи необходимо регулярно проверять и обновлять, чтобы они соответствовали последним теориям и практикам. Это принципиальное условие, без которого вы попросту не сможете продвинуть подобный сайт в топ поисковой выдачи.
Это же касается и новостников. Вы не сможете обойти сайты, статьи на которые пишут профессиональные журналисты. Ведь они профессионалы и заслуживают большего доверия с точки зрения поисковой системы. Независимо от ниши, дипломированные специалисты всегда имеют больший кредит доверия в сравнении с любителями.
Влияние E-A-T на ранжирование
Разумеется, все три критерия, которыми оперирует алгоритм: экспертность, авторитетность и достоверность – достаточно сложно оценить. Будучи абстрактными понятиями, они не выражаются в цифровом эквиваленте, способном самостоятельно сформировать поисковую выдачу. Тем не менее, внутри уже сформированной последовательности ресурсов, они могут оказать некоторое влияние на сортировку.
Определённую часть работы, с которой не может справиться автоматизированный алгоритм, приходится брать на себя асессорам. Это люди, которые перемещаются по сайтам и проверяют результаты их оценки, произведённой ботом.
Помните о том, что не следует размещать на страницах сайта умышленную дезинформацию. Если ваши действия приведут к тому, что посетители получат неверное представление об интересующем их вопросе, поисковая система не заставит себя ждать и наложит на сайт фильтр. Скорость реакции и серьёзность принятых мер будет зависеть от размера потенциального ущерба, который вы можете нанести.
Выводы: советы по оптимизации сайта
В плане инновационных нововведений и современных технологичных решений Google всегда опережает все остальные поисковые системы. Постоянно дорабатывая собственные алгоритмы ранжирования он всё ближе подходит к получению исчерпывающей модели оценки качества контента и его эффективности.
В идеале пользователи должны получать ответы на свои запросы за минимальное количество действий. То есть ответ должен находиться или в окне поисковой выдачи, или на странице первого, полученного по запросу, результата.
Чтобы оказаться как можно ближе к первому месту по интересующим вас ключевым запросам, необходимо соответствовать требованиям алгоритма Core Web Vitalis. А это значит, что придётся:
-
На регулярной основе заняться отслеживанием показателей Core Web Vitalis. Инструментов в настоящий момент для мониторинга основных параметров предостаточно. Сравнивайте данные, полученные при тестовых и фактических измерениях.
-
Не обходить вниманием возможности, открываемые технологией AMP (Accelerated Mobile Pages). Наличие страниц с технологией быстрой загрузки позволяет вам претендовать на более высокие позиции в поисковой выдаче. Только эффективно используя все доступные инструменты продвижения, можно оказаться в топе по конкурентным запросам.
-
Постоянно сканировать сайт в поисках страниц, на которых возникают проблемы с шаблоном. Их необходимо регулярно оптимизировать в целях исключения возникновения нового негативного опыта.
-
Постараться, по возможности, отказаться от использования JavaScript в коде страницы. Наиболее проблемными, как правило, являются внешние скрипты, которые нередко начинают конфликтовать с различными элементами оформления. Пресекайте потенциально возможную блокировку рендеринга скриптами и CSS.
-
Стремиться довести настройки своего сервера до идеала. С этой целью применяются CDN, сервис-воркеры и веб-воркеры. Основательный подход к работе над настройками сервера – залог успешной жизни в топе поисковой выдачи.
-
Все критически важные JavaScript необходимо оптимизировать. Для этого софт кэшируется, сжимается и настраивается его асинхронная загрузка.
-
Никогда не публиковать изображения в стандартных форматах. Это приводит к существенному утяжелению страниц и продлевает загрузку. Сжатие изображений – процесс быстрый и технически не сложный. Проверяйте старые статьи, просматривайте параметры опубликованных там изображений и видеороликов. Поисковые системы любят, когда владельцы сайтов следят за актуальностью информации и настройками страниц всего сайта, а не только наиболее свежих из них.
-
Настраивать параметры элементов вёрстки. Это касается изображений, видеороликов, различных кнопок, баннеров и тому подобных составляющих страницы. Резервируя пространство под отгрузки всех компонентов страницы, вы пресекаете потенциальные сдвиги макета.
-
Page Experience включает в себя и другие важные параметры. Такие как: пригодность ресурса под работу с мобильными устройствами, доступность версии с защищённым протоколом HTTPS, отсутствие элементов, препятствующих комфортному восприятию информации и вредоносного программного обеспечения.