SEO-основы

BERT

Bidirectional Encoder Representations from Transformers

BERT — это алгоритм Google на основе нейросети-трансформера, который понимает контекст запроса целиком, анализируя слова в обе стороны. Запущен в 2019 году для обработки сложных фраз.

BERT (Bidirectional Encoder Representations from Transformers) — это алгоритм Google, который простыми словами читает запрос целиком и понимает связь между словами в обе стороны. Запущен 21 октября 2019 года для английского языка, к декабрю 2019 расширен на 70+ языков, включая русский.

До BERT поисковик дробил фразу на ключевые слова и терял смысл предлогов вроде для, без, к. Как работает обновление: трансформер на 340 млн параметров оценивает каждое слово в контексте соседей. Google заявил, что BERT затронул 10% всех запросов — это крупнейшая перестройка ранжирования со времён RankBrain (2015).

§ 01Что изменилось

BERT перевёл понимание запросов с уровня мешка слов на уровень контекста. Раньше фраза 2019 brazil traveler to usa need a visa воспринималась как набор ключей и Google возвращал результаты для граждан США. После запуска алгоритма BERT в октябре 2019 поисковик корректно понял направление поездки благодаря предлогу to. Что это значит для длинных разговорных запросов: смысл предлогов и порядок слов теперь определяет выдачу.

§ 02На кого влияет

Алгоритм BERT сильнее всего бьёт по сайтам с тонким контентом под short-tail ключи. По данным Google, изменения коснулись 1 из 10 запросов, особенно длинных (от 5 слов) и информационных. Что это значит на практике: страницы FAQ, медицинские справочники, юридические разъяснения и travel-блоги получили перетряску позиций. Голосовой поиск через Google Assistant также опирается на BERT при разборе естественной речи.

Реальный кейс

органика +34% за 8 мес — Медиа-портал о здоровье на WordPress переписал 120 статей под длинные разговорные запросы вида 'можно ли пить кофе при...'. Органический трафик вырос на 34% за 8 месяцев после релиза BERT. Динамика по GA4 Acquisition и Ahrefs Site Explorer.

До и после

показы long-tail +58% — B2B SaaS-платформа для логистики на Webflow перестроила FAQ-блоки под естественные формулировки с предлогами. Показы по long-tail запросам в Search Console выросли на 58% за 5 месяцев. Замер через GSC Performance и сегмент 'queries 5+ words'.

§ 03Как проверить, попали ли вы

Откройте Search Console и сравните CTR и показы за период до 22 октября 2019 и после. Резкое падение CTR при сохранении позиций — сигнал, что страница ранжируется по нерелевантным длинным запросам. В отчёте Эффективность отфильтруйте запросы длиннее 4 слов. Дополнительно прогоните топ-страницы через Ahrefs или SEMrush: если для чего нужно сравнение, смотрите динамику ключей с предлогами и вопросительными словами.

§ 04Что делать

Перепишите тексты под естественные формулировки, а не под подбор ключей из Wordstat. Джон Мюллер в твите от 25 октября 2019 подтвердил: оптимизировать под BERT нельзя, можно только писать ясно. Структурируйте ответы по схеме вопрос → краткий ответ → детали в первых 150 словах. Добавьте FAQPage-разметку Schema.org — это помогает алгоритму сопоставить вопрос пользователя с конкретным абзацем. Откажитесь от переоптимизации анкоров и плотности ключей выше 2%.

Частые ошибки
01
Расчёт BERT как фактора ранжирования по ключам. BERT — это модель понимания запроса, а не сигнал ранжирования страницы. Под него нельзя 'оптимизировать ключи' — теряется бюджет на бессмысленные правки и доверие команды к SEO. Как правильно: Считайте BERT слоем интерпретации запроса. Стройте контент под намерение пользователя, а не под точное вхождение фразы.
02
Переписывание текстов под 'длинные хвосты' после апдейта. После запуска BERT в октябре 2019 многие SEO-специалисты массово раздували статьи синонимами long-tail. Google уже понимает контекст в обе стороны — лишний объём режет читаемость и поведенческие, трафик падает на 10–20%. Как правильно: Удалите водянистые абзацы. Оставьте прямые ответы на вопросы из People Also Ask и Search Console.
03
Замер эффекта BERT по позициям топ-10. BERT влияет в первую очередь на низкочастотные информационные запросы и сниппеты — там, где раньше выдача была нерелевантной. Если смотреть только на топ-10 по ВЧ, эффект не виден, и бизнес теряет веру в работу seo-отдела. Как правильно: Замеряйте CTR и показы по long-tail в Search Console. Сравнивайте окна до/после апдейта по группам запросов от 4 слов.
Часто спрашивают

Частые вопросы про алгоритм BERT

BERT простыми словами — что это и зачем Google?

+

BERT — это нейросетевой алгоритм Google на архитектуре трансформера, который читает запрос в обе стороны и понимает контекст слов целиком. Запущен в октябре 2019 года и затронул около 10% всех англоязычных запросов, а позже распространился на 70+ языков, включая русский.

Алгоритм анализирует каждое слово относительно соседей слева и справа одновременно — отсюда слово ‘Bidirectional’ в названии. Благодаря механизму self-attention модель улавливает роль предлогов и связок вроде ‘для’, ‘без’, ‘к’, что особенно важно для длинных разговорных фраз из 7+ слов.

RankBrain (2015) интерпретирует смысл запроса целиком и сопоставляет с похожими, а BERT разбирает грамматику и связи между словами внутри фразы. Они работают параллельно: RankBrain отвечает за намерение, BERT — за нюансы формулировки.

Напрямую оптимизировать страницу под BERT нельзя — алгоритм работает на стороне поиска, а не сайта. Но он повышает требования к естественности текстов: переспам ключами и машинные формулировки теряют позиции, а контент, отвечающий на конкретный intent пользователя, выигрывает.

Да, учитывать стоит любому проекту, который пишет тексты для людей. С 2019 года модель стала базой для алгоритмов MUM и SGE, поэтому страницы с понятной структурой ответов и разговорными формулировками получают больше показов в Google и AI-сниппетах.

Не нашли ответ?

Спросите Андрея Гусарова — отвечаю в течение 1-2 рабочих дней.

Нажимая, вы соглашаетесь с обработкой данных.