Технический SEO

Sitemap.xml

XML-карта сайта

Sitemap.xml — это файл со списком URL сайта для поисковых систем. Помогает Google и Яндексу быстрее находить и индексировать страницы, особенно на крупных и новых проектах.

Sitemap.xml — это служебный XML-файл со списком URL сайта, который простыми словами подсказывает поисковикам, какие страницы стоит обойти. Стандарт Sitemaps 0.90 появился в 2005 году по инициативе Google, Yahoo и Microsoft, а в 2006-м его поддержал Яндекс.

На проектах от 500 страниц карта сайта (sitemap.xml) ускоряет индексацию в 2–3 раза: Googlebot и YandexBot получают готовый перечень с датами lastmod вместо того, чтобы искать ссылки самостоятельно. Для чего нужно — особенно критично для интернет-магазинов, новостников и SPA, где внутренняя перелинковка слабая.

§ 01Зачем нужен

Карта сайта решает 3 задачи: показывает Googlebot новые URL, передаёт lastmod для приоритизации обхода и обходит ограничения слабой перелинковки. По данным Google Search Central, без sitemap.xml индексация крупного каталога может растянуться на 4–6 недель. Что делает файл ещё полезнее — поддержка изображений, видео и hreflang. John Mueller в 2021 году подтвердил: lastmod реально влияет на расписание краулинга, если дата честная.

§ 02Как настраивается

Файл размещают по адресу /sitemap.xml в корне домена. Лимиты протокола Sitemaps 0.9: до 50 000 URL и 50 МБ в одном файле. Для крупных сайтов делают индексный sitemap со ссылками на под-карты по разделам. В WordPress карту генерируют Yoast SEO или Rank Math, в Bitrix — штатный модуль, для статики подходит Screaming Frog. Путь к sitemap.xml указывают в robots.txt директивой Sitemap: и отправляют через Search Console и Яндекс.Вебмастер.

Кейс e-commerce

индексация 62% → 94% — Маркетплейс одежды на Shopify с 48 000 товарных страниц подключил динамический sitemap.xml с разбивкой по 50k URL и hreflang. За 4 месяца доля проиндексированных страниц выросла с 62% до 94%. Замер через Google Search Console Pages и Ahrefs.

Кейс медиа

скорость индексации 9 → 2 дня — Новостной портал на WordPress с 200 публикациями в неделю внедрил news-sitemap.xml и автообновление через RSS-пинг. Среднее время попадания статьи в Google News сократилось с 9 до 2 дней за квартал. Динамика по GSC Coverage и логам сервера.

§ 03Где смотреть результат

Отчёт Sitemaps в Google Search Console показывает, сколько URL отправлено и сколько проиндексировано — норма для здорового сайта 85–95%. В Яндекс.Вебмастере раздел Индексирование → Файлы Sitemap отображает ошибки парсинга и дату последнего обхода. Screaming Frog в режиме List загружает sitemap.xml и сверяет его с реальным краулом — что это значит на практике: ловит мёртвые URL, редиректы и страницы с noindex, попавшие в карту по ошибке.

§ 04Подводные камни

Главная ошибка — пихать в sitemap.xml всё подряд. Туда не должны попадать страницы с canonical на другой URL, 404, redirect 301 и закрытые в robots.txt. Google в 2023 году подтвердил: грязная карта снижает доверие к lastmod и тормозит обход. Вторая проблема — статичный файл, который генерируется раз в неделю на сайте с ежедневными публикациями. Третья — отсутствие gzip-сжатия для карт > 10 МБ. Карта сайта должна обновляться автоматически при каждой публикации, иначе теряет смысл.

Частые ошибки
01
Включение в карту неиндексируемых URL. В Sitemap попадают страницы с noindex, canonical на другой URL и редиректами. Google расценивает это как противоречивые сигналы — краулинговый бюджет тратится впустую, а индексация приоритетных страниц замедляется. Как правильно: Фильтруйте список перед генерацией: оставляйте только канонические URL со статусом 200 и без noindex.
02
Слепая вера в priority и changefreq. Команды вручную проставляют priority=1.0 всем страницам и changefreq=daily, считая это сигналом важности. Google ещё в 2017 году через John Mueller подтвердил, что эти поля игнорируются — приоритет в индексации не растёт, время на правки потеряно. Как правильно: Используйте только lastmod с реальной датой изменения контента. Поля priority и changefreq можно удалить без потерь.
03
Отсутствие контроля покрытия в Search Console. Sitemap залили один раз и забыли. В отчёте «Страницы» Search Console накапливаются ошибки: discovered-not-indexed, 404, soft 404 — до 30–40% URL выпадают из индекса, а команда узнаёт об этом по падению трафика спустя месяцы. Как правильно: Проверяйте отчёт Sitemaps и Pages в Google Search Console еженедельно. Сравнивайте submitted vs indexed, разбирайте причины расхождений.
Часто спрашивают

Sitemap.xml: ответы на популярные вопросы

Sitemap.xml — что это простыми словами?

+

Sitemap.xml — это текстовый файл в формате XML, где перечислены все важные URL сайта для поисковых роботов. Файл подсказывает Google и Яндексу, какие страницы обходить и как часто проверять обновления. Стандарт sitemaps.org поддерживает до 50 000 ссылок и до 50 МБ в одном файле.

Robots.txt запрещает или разрешает обход разделов, а XML-карта, наоборот, перечисляет страницы для индексации. Эти файлы работают в паре: в robots.txt через директиву Sitemap: указывают путь к карте. Один закрывает мусор, второй открывает приоритетные URL.

Нет, прямого буста позиций файл не даёт — Google официально подтверждал это в 2023 году. Но косвенный эффект есть: новые страницы попадают в индекс на 20–40% быстрее, а краулинговый бюджет тратится эффективнее на крупных проектах от 10 000 URL.

Сгенерируйте файл через плагин (Yoast, RankMath, All in One SEO) или сервис XML-Sitemaps.com — для CMS это занимает 5–10 минут. Затем разместите по адресу /sitemap.xml, добавьте ссылку в robots.txt и отправьте URL в Google Search Console и Яндекс.Вебмастер.

Да, особенно новому: без внешних ссылок роботам сложно найти страницы самостоятельно. Для проектов до 500 URL карта ускоряет первичную индексацию с 2–4 недель до 3–7 дней. По опыту GUSAROV, лендинги без карты теряют до 30% страниц из индекса в первый месяц.

Не нашли ответ?

Спросите Андрея Гусарова — отвечаю в течение 1-2 рабочих дней.

Нажимая, вы соглашаетесь с обработкой данных.