Органическая выдача формируется на основании ранжирования тех страниц, которые попали в поиск по определённым ключевым вхождениям. Чтобы новая страница попала в индекс, её должен проверить и оценить внутренний алгоритм, а он выносит решения на основании информации, собранной ботами.
Так вот эти боты, перемещающиеся по Глобальной сети и выискивающие новые страницы или изменения, внесённые в содержание старых, называются краулерами. А процесс их функционирования, соответственно – краулингом. Суть их деятельности можно описать несколькими простыми пунктами:
-
Формирование диапазона URL-адресов, соответствующих рассматриваемому ресурсу. Бот может просматривать внутреннюю карту сайта и оценивать набор внешних и внутренних ссылок.
-
Посещение файла robots.txt, в котором содержится перечень рекомендаций по работе с ресурсом. В нём располагается информация о страницах, которые находятся на техническом обслуживании или просто закрыты для посещения извне. Но если вы оставили редиректы или ссылки на скрытые разделы сайта, бот может понять это, как сигнал о необходимости их проверки. Так что будьте предельно внимательны при работе с рекомендациями для поисковых систем и настройкой собственных ресурсов.
-
Теперь приходит время начать сканирование. Правда перед этим все адреса ранжируются в зависимости от степени важности. За одно посещение бот проверяет до ста страниц. И начинает сканирование он с тех из них, которые несут наибольшее количество полезной информации и востребованы у посетителей.
Ограниченность поисковых систем в плане оценки качества сайта вызывает необходимость создания специализированных наборов рекомендаций, на основании которых поисковые боты будут сортировать URL-адреса ресурсов и проверять наиболее важные из них. Образующиеся при этом лимиты, называют – «краулинговые бюджеты». Именно они включают в себя информацию о том, что будет оценено поисковыми алгоритмами при очередном сканировании сайта.
Что такое краулинговый бюджет?
Поисковые системы оперируют огромным объёмом всевозможных параметров, каждый из которых так или иначе влияет на содержание и ранжирование органической выдачи. Одним из этих параметров является краулинговый бюджет. В общем смысле его можно охарактеризовать следующим образом:
Краулинговый бюджет – это специализированная метрика, отвечающая за формирование определённой квоты страниц хоста. На основании это квоты будут проверяться страницы во время очередного посещения краулера.
Иными словами, перспективы на попадание в содержание органической выдачи есть только у тех страниц, которые оказались в краулинговом бюджете. Всем остальным придётся ожидать своей очереди. Это может быть большой проблемой, если речь идёт о масштабных изменениях, происходящих на тяжёлом многостраничном ресурсе.
Причём не важно, получила ли поисковая система информацию о наличии новых страниц, появившихся на вашем сайте. Если они не попадают в ограниченную квоту, шансов на их оценку и включение в индекс попросту нет никаких.
Вообще краулинговый бюджет – параметр строго индивидуальный. Не стоит полагаться на какие-то оценочные анализы его содержимого. Тот факт, что для одного сайта он сработал определённым образом, вовсе не значит, что на вашем ресурсе всё будет происходит точно так же.
Поэтому нет смысла пытаться манипулировать внутренними алгоритмами поисковых систем. Всё, что остаётся вебмастерам – создавать качественные проекты и ожидать ответственного и непредвзятого отношения с точки зрения поисковиков.
Что влияет на краулинговый бюджет?
Индивидуальность в подходе к оценке каждого конкретного сайта, попадающего в поле зрения поисковой системы, неизменно приводит к формированию краулингового бюджета и последующей индексации.
Существует множество различных теорий и предположений относительно того, что же конкретно оказывает влияние на содержание краулингового бюджета. Тем не менее доподлинно известно, что факторов здесь всего два:
-
Авторитетность рассматриваемого сайта – как и следовало бы ожидать, с точки зрения поисковых систем, наибольшего внимания стоят сайты, которые нравятся пользователям. Чем выше индекс качества вашего ресурса, тем больше ресурсов может быть выделено на актуализацию той информации, которую вы публикуете.
-
Возможности сервера – чем больше запросов может обрабатывать сервер без снижения скорости загрузки, тем больше у вас перспектив для быстрой индексации. Дабы не создавать проблем для рядовых пользователей, которые приходят на ресурс в поисках полезной информации, краулер не станет расширять бюджет, если это повлечёт за собой просадки скорости ответа сервера.
Если вы задумались над улучшением показателей краулингового бюджета вашего сайта, то первым делом необходимо понять, что многие факторы, которые продвигаются в Глобальной сети, на самом деле на него не влияют. К их числу можно отнести следующие:
-
Файл sitemap.xml – его содержание никак не влияет на краулинговый бюджет. Что бы вы с ним не делали, увеличить объём проверяемых страниц не удастся. Тогда как снизить может и получится.
-
Файл robots.txt – ещё один яркий пример того, что ваше внутреннее техническое устройство ресурса в общем-то никак не оценивается поисковыми системами. Если всё хорошо, то они не будут обращать на подобные файлы внимание. Разумеется, в случае серьёзных проблем, минимизировать индекс качества сайта будет всё, что не доведено до ума.
В качестве практических рекомендаций по улучшению краулингового бюджета сайта, можно рассмотреть следующие направления развития:
-
Оптимизация скорости загрузки сайта – чем быстрее приходит ответ от сервера на запросы пользователей, тем выше ваши шансы на более быструю индексацию. Ведь краулер увидит, что его анализ не влияет на скорость получения информации обычными пользователями, а значит и причин для снижения количества проверяемых страниц – нет. Использование качественного аппаратного сопровождения открывает для владельцев сайтов возможности по эксплуатации поисковых алгоритмов на максимум.
-
Работа над индексом качества сайта – чем большим авторитетом обладает проект, тем быстрее алгоритмы постараются актуализировать информацию на нём. Ведь намного полезнее обновлять именно тот контент, который пользуется спросом. Тогда как проекты, неинтересные или не полностью соответствующие заявленным ключевым вхождениям, окажутся в конце очереди на проверку.
Таким образом можно составить ряд рекомендаций по техническим модернизациям сайта, которые смогут улучшить ваш краулинговый бюджет и позволят страницам быстрее попадать в органическую выдачу.
Как правило, работа над сайтом начинается с анализа динамики краулингового бюджета. Чем быстрее бот получает необходимую информацию, тем выше ваши шансы на получение более высокого приоритета в очереди на индексацию.
Отследить краулера можно, покопавшись в логах сервера. Разумеется, если никаких просадок в плане скорости загрузки контента или степени доступности сервера не возникает, значит всё работает прекрасно. В противном случае, придётся провести ряд профилактических работ:
-
Просканируйте базу данных вашего ресурса и отследите наиболее медленные запросы, понижающие средние показатели скорости загрузки. Их необходимо исправить, или просто удалить, если это возможно. Не стоит содержать страницы, которые не собирают большие объёмы трафика, если при этом они ещё и на скорость загрузки влияют.
-
В некоторых случаях, скорость ответа сервера может быть ощутимо снижена из-за наличия на страницах JavaScript. В такой ситуации вы можете использовать server side rendering, который позволяет предоставлять краулерам сгенерированные страницы. Это приведёт к существенному снижению нагрузки на сервер и ускорит передачу данных.
-
Если рост упирается в аппаратное обеспечение, то совет может быть только один – смените сервер на технически более совершенный. Вы не сможете получить высокий индекс качества сайта, если будете использовать морально устаревшее оборудование. Большие объёмы трафика поисковые системы предоставляют только тем сайтам, которые могут с ними справиться.
Работа над индексом качества сайта включает в себя различные инструменты и методы. Они включают в себя комплекс действий по улучшению внешней и внутренней оптимизации сайта и работу над ссылочным профилем.
Когда есть смысл заниматься оптимизацией краулингового бюджета?
Основной проблемой плотной работы с краулинговым бюджетом может быть активное попадание в индекс незначительных страниц, содержащих смежные или сторонние ключевые вхождения.
Крупные проекты достаточно часто распространяются на смежные тематики, расширяя таким образом охватываемую аудиторию. Тем не менее, популярность общетематического контента может приводить к снижению внимания к ключевым, в коммерческом плане, страницам.
Среди наиболее часто возникающих проблем, влияющих на квоты краулингового бюджета, можно выделить следующие:
-
Генерация страниц с кодом ответа 200. Это происходит в результате обращений к системе управления сайтом.
-
Генерация множества копий страниц. Как правило, эту проблему вызывают системы фильтрации контента. Необходимо постоянно мониторить подобные проблемы и пресекать их в зародыше.
-
Использование системы тегов, выбирающих варианты со значениями частотности, приближёнными к нулю.
Автоматизация генерации контента, его последующего оформления и публикации неизбежно приводит к возникновению разнообразных проблем. Не стоит полагать, что воспользовавшись автоматическим инструментом для простановки тегов или редактирования изображений, вы сможете добиться качественного результата.
Опытные профессионалы поискового продвижения не просто так высоко оцениваются работодателями и кадровыми агентствами. Глубокая настройка и отладка проекта не только приводит к резкому росту качества ресурса, но и позволяет сохранять положительный эффект на протяжении длительного времени.
Начинающим вебмастерам вообще не стоит задумываться о краулинговом бюджете. Ведь он становится проблемой только в том случае, когда необходимо анализировать и добавлять в индекс сразу большие объёмы страниц с полезной информацией. Если ваш сайт насчитывает менее ста статей, можете вообще не придавать значение этой метрике.
Различные специалисты называют принципиально отличные цифры, которые могут приводить к проблемам с краулинговыми бюджетами.
Кто-то считает, что чёткая структура и продуманная архитектура позволяет ресурсам до пятидесяти тысяч страниц без проблем справляться с краулингом. Другие же считают, что даже десяти тысяч статей вполне достаточно для того, чтобы столкнуться с многочисленными сложностями, если не планировать формирование краулингового бюджета заранее.
Если вы не хотите гадать и находиться в неведении о подробностях взаимодействия вашего сайта с поисковыми алгоритмами, просто проверьте наиболее важные параметры:
-
Проверьте соответствие теоретических показателей количества страниц, которые должны находиться в индексе, и реальных. Если ваши обновления попадают в органическую выдачу слишком медленно, значит есть основания полагать, что у сайта есть определённые проблемы с краулерами.
-
Сравните рассчитанные показатели с данными, которые можно найти в Google Search Console и Яндекс.Вебмастере. Расхождения в этих параметрах явно сигнализируют о наличии сложностей в разработке квот вашего краулингового бюджета.
-
Количество страниц, находящихся вне индекса, у любого приличного сайта должно быть минимальным. У поисковых систем нет никаких весомых причин для того, чтобы обходить вниманием качественные сайты с полезным контентом.
В поисковом продвижении большинство предположений, о наличии тех или иных проблем на сайте, делаются исходя из личного опыта специалиста и тех немногочисленных статистических данных, которые ему доступны.
Поисковые системы не стремяться сделать принципы ранжирования максимально прозрачными и понятными. Поэтому в таких вопросах приходится полагаться только на свои знания и интуицию.