Технический SEO

Краулинговый бюджет

crawl budget

Краулинговый бюджет (crawl budget) — это лимит URL, которые Googlebot обходит на сайте за определённый период. Зависит от скорости сервера и спроса на индексацию страниц.

Краулинговый бюджет (crawl budget) — это лимит URL, которые Googlebot обходит за определённый период; простыми словами, сколько страниц робот успеет посмотреть за визит. Термин ввёл Гэри Илш в блоге Google Search Central в январе 2017 года, объединив два понятия: crawl rate limit и crawl demand.

На сайтах до 10 000 URL краулинговый бюджет почти не ограничивает индексацию — об этом писал John Mueller в 2020 году. Что это значит для крупных проектов: маркетплейсы и СМИ с миллионами страниц теряют до 30% URL из индекса, если сервер отдаёт 5xx или Time to First Byte превышает 600 мс.

§ 01Зачем нужен

Краулинговый бюджет нужен Google для экономии вычислительных ресурсов: серверы Googlebot обходят триллионы URL ежедневно. Для владельца сайта это значит контроль над тем, какие страницы попадут в индекс быстрее. На новостном портале с 500 000 URL разница между обходом за 2 дня и за 2 недели напрямую влияет на трафик. Оптимизация crawl budget критична для e-commerce с фасетной навигацией, где количество комбинаций фильтров достигает миллионов.

§ 02Как настраивается

Настройка краулингового бюджета идёт через robots.txt, директиву noindex и атрибут rel=canonical. В Search Console раздел Settings → Crawl stats показывает среднее число запросов в день и host status. С чего начать: закрыть в robots.txt параметрические URL вида ?sort=, ?utm_, страницы внутреннего поиска. Screaming Frog и Ahrefs Site Audit находят цепочки редиректов длиннее 2 шагов — каждый лишний хоп тратит бюджет.

Кейс e-commerce

обход 18k → 64k URL/сут — Маркетплейс одежды на Shopware с 2.1 млн SKU закрыл фасетные фильтры через robots.txt и схлопнул дубли по canonical. За 8 недель Googlebot стал обходить 64k URL в сутки против 18k. Динамика в логах через Screaming Frog Log Analyser и отчёт Crawl Stats в GSC.

До и после

индексация 41% → 87% — Медиапортал о финансах на WordPress с 12k статей убрал тонкие архивы тегов и поднял TTFB с 1.4 до 0.4 с через Cloudflare APO. Доля проиндексированных URL выросла с 41% до 87% за 4 месяца. Замер по отчёту Pages в Google Search Console.

§ 03Где смотреть результат

Основной отчёт — Crawl Stats в Google Search Console: график Total crawl requests за 90 дней, разбивка по типу файла, response code, цели обхода (Discovery/Refresh). В логах сервера (формат combined) фильтруют User-Agent Googlebot/2.1 и считают уникальные URL за сутки. На сайте с 1 млн страниц здоровый показатель — обход 5–15% URL ежедневно. Резкий спад на 40% за неделю — сигнал проблем с сервером или качеством контента.

§ 04Подводные камни

Краулинговый бюджет тратится на бесполезные URL: дубли с trailing slash, soft 404, старые sitemap с удалёнными страницами. В марте 2024 года Google усилил фильтрацию low-quality content — после Core Update боты стали реже возвращаться на тонкие страницы. Что делает ситуацию хуже: блокировка CSS и JS в robots.txt мешает рендерингу, и Google расходует бюджет повторно. Не путайте crawl budget и index budget — это разные лимиты.

Частые ошибки
01
Расчёт краулингового бюджета как фиксированной квоты. Считают бюджет жёстким лимитом от Google, хотя это динамический баланс crawl rate и crawl demand. В итоге команда теряет время на ручное «выбивание» лимита вместо чистки мусорных URL — страдает индексация важных страниц. Как правильно: Оценивайте бюджет через отчёт Crawl Stats в Search Console. Сравнивайте динамику запросов Googlebot с ростом полезных URL.
02
Открытая индексация фасетов и параметров сортировки. Бот тратит обходы на тысячи дублей вида ?sort=price и ?color=red, а коммерчески важные карточки попадают в очередь сканирования раз в недели. Падает скорость попадания нового ассортимента в выдачу — уходит трафик и выручка. Как правильно: Закройте мусорные параметры через robots.txt и noindex, а ключевые фасеты сделайте статичными URL с уникальным контентом и внутренней перелинковкой.
03
Замер эффекта чистки бюджета через 3 дня после правок. Googlebot пересматривает приоритеты сканирования постепенно: по данным John Mueller, заметная переоценка спроса занимает от 2–4 недель. Преждевременные выводы приводят к откату правильных решений и потере уже достигнутого роста индексации. Как правильно: Замеряйте логи сервера и Crawl Stats за окно 28 дней до и после правок. Сравнивайте долю обходов 200-страниц по сегментам, а не общий объём хитов.
Часто спрашивают

Краулинговый бюджет: ответы на популярные вопросы

Краулинговый бюджет простыми словами — что это?

+

Краулинговый бюджет — это количество URL, которые поисковый бот успевает обойти на сайте за единицу времени. Складывается из двух составляющих: лимита нагрузки на сервер (crawl rate limit) и спроса на индексацию (crawl demand). Для сайтов до 10 000 страниц проблема обычно неактуальна, важна она для крупных проектов от 100 000 URL.

Обход (crawl) — это посещение страницы ботом, а индексация — её добавление в базу Google. URL может быть просканирован, но не попасть в индекс из-за низкого качества, дублей или canonical. По данным Google, до 60% обнаруженных страниц на крупных сайтах остаются за пределами индекса именно после краулинга.

Откройте Google Search Console → отчёт «Статистика сканирования»: там видно число запросов бота за день, средний размер ответа и время загрузки. Дополнительно анализируйте серверные логи через Screaming Frog Log Analyzer или JetOctopus — это покажет, какие разделы Googlebot посещает чаще, а какие игнорирует.

Напрямую — нет, это не фактор ранжирования. Но косвенно влияет: если бот тратит лимит на мусорные URL (фасеты, фильтры, параметры сортировки), важные страницы индексируются с задержкой в 2–4 недели. Для интернет-магазинов с 500 000+ карточек оптимизация обхода критична.

Нет, для проектов до 10 тысяч страниц Google сам подтверждает: тема неактуальна. Сосредоточьтесь на скорости сервера (TTFB до 200 мс), правильном robots.txt и удалении 404-цепочек. Заняться лимитом обхода стоит, когда сайт переваливает за 50 000 URL или активно использует параметризацию.

Не нашли ответ?

Спросите Андрея Гусарова — отвечаю в течение 1-2 рабочих дней.

Нажимая, вы соглашаетесь с обработкой данных.