Технический SEO

Индексация

indexing · добавление страниц в базу поисковика

Индексация (indexing) — это процесс, при котором Google и Яндекс сохраняют страницы сайта в свою базу и делают их доступными в поиске. Без индексации страница не появится в выдаче.

Индексация (indexing) — это процесс, при котором поисковая система добавляет страницу в свою базу данных и делает её доступной в выдаче. Простыми словами: пока URL не попал в индекс Google или Яндекса, он не существует для поиска. Первая массовая индексация веба началась с запуска Googlebot в 1998 году, а в 2018-м Google перешёл на Mobile-first indexing — приоритет отдаётся мобильной версии.

В 2024 году Google обработал триллионы URL, но в индекс попадает лишь часть страниц сайта. Что это значит для бизнеса: новые материалы могут висеть в очереди днями и неделями. Проверить статус индексации страницы можно в Google Search Console через отчёт Pages и в Яндекс.Вебмастере.

§ 01Зачем нужна индексация

Индексация решает простую задачу: связать запрос пользователя со страницей. Googlebot обходит сайт, рендерит HTML и JavaScript, а затем алгоритм решает, достоин ли URL попасть в базу. По данным Ahrefs (2020), около 90,63% страниц в интернете не получают трафика из Google — частая причина именно проблемы с индексацией. Без попадания в индекс бессмысленны и ссылки, и контент, и оптимизация мета-тегов.

§ 02Как настраивается индексация

Управление индексацией строится на трёх инструментах: файл robots.txt запрещает обход, мета-тег <meta name='robots' content='noindex'> запрещает добавление в базу, а sitemap.xml подсказывает роботу приоритетные URL. С 2019 года Google официально игнорирует директиву noindex в robots.txt — её нужно ставить именно в HTML. Канонический тег rel=canonical склеивает дубли и экономит краулинговый бюджет.

Кейс e-commerce

индекс 1 200 → 8 400 URL — Интернет-магазин одежды на Shopify закрыл фасетные дубли через canonical и обновил sitemap.xml с приоритетами. За 4 месяца в индекс Google вошло 8 400 страниц из 9 100. Замер через Google Search Console (отчёт 'Страницы').

Кейс медиа

скорость индексации 14 → 2 дня — Новостной портал на WordPress подключил IndexNow для Яндекса и Google Indexing API для срочных публикаций. Среднее время попадания свежей статьи в выдачу сократилось с 14 до 2 дней за 8 недель. Контроль через логи сервера и Яндекс.Вебмастер.

§ 03Где смотреть результат

Основной отчёт — Google Search Console, раздел Pages (бывший Coverage). Там видно, сколько URL проиндексировано, сколько отклонено и по какой причине: Crawled — currently not indexed, Discovered — not indexed, Duplicate. Для Яндекса аналог — Яндекс.Вебмастер, раздел Страницы в поиске. Оператор site:domain.com даёт грубую оценку. Screaming Frog и Ahrefs Site Audit показывают, какие страницы отдают noindex или закрыты canonical.

§ 04Подводные камни

Главная ловушка — индексация мусора: страниц фильтров, пагинации, UTM-копий. Это размывает краулинговый бюджет, и важные URL попадают в индекс с задержкой. Джон Мюллер из Google неоднократно повторял в 2022–2023: качество сайта влияет на то, какую долю страниц робот берёт в базу. Вторая проблема — JavaScript-рендеринг: если контент подгружается динамически без SSR, Googlebot может проиндексировать пустую оболочку. Проверяйте через Inspect URL в GSC.

Частые ошибки
01
Подмена индексации сканированием в отчётах. Видят страницу в логах робота и считают её проиндексированной, но Googlebot мог обойти URL и не добавить в индекс. Страдает трафик: страница не появляется в выдаче, а команда уверена, что всё в порядке. Как правильно: Сравнивайте отчёт «Страницы» в Search Console с логами краулинга. Считайте проиндексированной только ту, где статус «Проиндексировано».
02
Закрытие страниц от индексации через robots.txt. Disallow в robots.txt запрещает обход, но Google всё равно может показать URL в выдаче без сниппета по внешним ссылкам — а noindex не сработает, потому что роботы не дойдут до мета-тега. Доверие к сайту падает, а ненужные URL всё равно в индексе. Как правильно: Используйте meta robots noindex или HTTP-заголовок X-Robots-Tag. Для robots.txt оставляйте только служебные директории и параметры.
03
Замер скорости индексации через 2–3 дня после публикации. Google после марта 2024 краулит новые страницы пакетами и принимает решение об индексации до 3–4 недель, а Яндекс обновляет базу раз в апдейт. Ранний вывод о провале приводит к лишним правкам и потере бюджета на SEO. Как правильно: Замеряйте окно индексации минимум 21 день через URL Inspection в Search Console и «Переобход» в Яндекс.Вебмастере.
Часто спрашивают

Индексация сайта — частые вопросы

Индексация — что это простыми словами?

+

Индексация — это сохранение страниц сайта в базе Google и Яндекса, после чего они могут показываться в поиске. Робот обходит URL по ссылкам и sitemap.xml, анализирует контент и добавляет в индекс. Без этого этапа страница не появится в выдаче, даже если идеально оптимизирована под запросы.

Обычно 1–3 дня в Яндексе и от нескольких часов до 2 недель в Google. Срок зависит от траста домена, частоты обхода и наличия внутренних ссылок. Ускорить помогает отправка URL через Google Search Console (Inspect URL) и Яндекс Вебмастер (раздел «Переобход страниц», лимит ~30 в сутки).

Сканирование — это обход страниц роботом и скачивание HTML, а индексация — добавление контента в базу поисковика. Страница может быть просканирована, но не проиндексирована: например, при дублях, низком качестве или директиве noindex. В Search Console такие URL попадают в отчёт «Просканировано, но не проиндексировано».

Три рабочих способа: мета-тег <meta name='robots' content='noindex'> в <head>, HTTP-заголовок X-Robots-Tag: noindex или закрытие в robots.txt через Disallow. Важно: robots.txt запрещает обход, но не гарантирует исключение из индекса — для надёжного скрытия используйте noindex и оставьте доступ для робота.

Основные причины: дубли контента, тонкие страницы (<300 слов), запрет в robots.txt или noindex, отсутствие внутренних ссылок, низкое качество по меркам Google Helpful Content. Проверьте URL в Search Console через инструмент проверки, добавьте страницу в sitemap.xml, усильте перелинковку с трастовых разделов и доработайте уникальность контента.

Не нашли ответ?

Спросите Андрея Гусарова — отвечаю в течение 1-2 рабочих дней.

Нажимая, вы соглашаетесь с обработкой данных.