Аналитика

A/B-тест

A/B Test · Split-тестирование

A/B-тест (A/B test) — это сравнение двух вариантов страницы или элемента на разделённом трафике, где половина пользователей видит версию A, а половина — B. Помогает выбрать вариант с лучшей конверсией.

A/B-тест (A/B test) — это эксперимент, в котором трафик делится примерно пополам между двумя версиями страницы или элемента, чтобы простыми словами понять, какой вариант приносит больше конверсий. Метод пришёл из медицинских испытаний начала XX века, а в digital его популяризировал Google в 2000 году, протестировав 41 оттенок синего для ссылок.

Сегодня A/B-тестирование — базовая практика продуктовой аналитики: его используют Booking, Netflix и Avito, запуская сотни параллельных экспериментов. Что это значит для бизнеса: решения по дизайну и копирайту опираются не на мнение, а на статистику с уровнем значимости p < 0.05.

§ 01Как считается

В основе A/B-теста — сравнение конверсии двух групп через статистический критерий: чаще всего z-тест для пропорций или критерий Стьюдента. Определение победителя требует достижения статистической значимости (обычно 95%) и достаточной мощности (80%). Для теста с базовой конверсией 3% и ожидаемым приростом 10% нужно около 30 000 посетителей на вариант — это легко посчитать в калькуляторе Evan Miller.

Формула / схема
n = 16 × p(1 − p) / MDE²
Минимальный размер выборки на вариант: p — базовая конверсия, MDE — минимальный детектируемый эффект в абсолютных пунктах. Формула даёт оценку для 95% значимости и 80% мощности.

§ 02Зачем нужно

A/B-тестирование убирает споры дизайнеров и маркетологов: данные говорят сами. Microsoft через Bing нашла изменение заголовка рекламы, давшее +12% к доходу — эффект в сотни миллионов долларов в год. Что делает метод незаменимым: он проверяет гипотезы о цене, копирайте, CTA-кнопках и онбординге без риска полного редизайна. Зачем это среднему сайту — отсечь идеи, которые кажутся очевидными, но снижают выручку.

Кейс e-commerce

конверсия +18% — Интернет-магазин одежды на Shopify Plus тестировал две версии карточки товара: с видео-обзором (B) против статичных фото (A). За 4 недели на трафике 120k сессий конверсия в 'add to cart' выросла на 18%. Сплит и замер через Google Optimize + GA4.

Кейс SaaS

регистрации +9% — B2B SaaS для HR с MRR $180k проверял два заголовка лендинга: проблемно-ориентированный (B) против фичевого (A). На 22k визитах за 6 недель регистрации на демо выросли на 9%. Сплит трафика 50/50 через VWO, значимость p<0.05.

§ 03Как измерить

Запуск A/B-теста делается через Google Optimize (закрыт в 2023), VWO, Optimizely или AB Tasty. Для продуктовой аналитики связку дополняют GA4, Amplitude и Mixpanel. Ключевые метрики: конверсия в целевое действие, ARPU, retention D7. Важно фиксировать одну primary-метрику и 2–3 guardrail-метрики (скорость загрузки, отказы), чтобы прирост одной не убил другую.

§ 04Что делать дальше

После сбора данных проверьте: достигнут ли минимальный размер выборки, нет ли SRM (Sample Ratio Mismatch — расхождение долей групп больше 1%). Тест длительностью меньше одной полной недели часто врёт из-за дневной сезонности. Победителя катите на 100% трафика, а проигравшие гипотезы документируйте — Booking хранит базу из 25 000 проведённых экспериментов с 2014 года для повторного анализа.

Частые ошибки
01
Подмена A/B-теста сравнением периодов «до и после». Команда катит вариант B на всех, через неделю смотрит конверсию против прошлой недели. Сезонность и трафик-микс искажают результат — бизнес принимает решение на шумовых данных и теряет выручку. Как правильно: Стройте параллельные группы на одном временном окне. Делите трафик 50/50 через GA4 Experiments или Optimizely и фиксируйте срез.
02
Остановка теста на первой статзначимости. Аналитик видит p<0.05 на 3-й день и катит вариант B в прод. Без расчёта MDE и нужного размера выборки 77% таких ранних побед откатываются — реальный uplift оказывается нулевым или отрицательным. Как правильно: Считайте размер выборки заранее в Evan Miller calculator. Дожидайтесь полного бизнес-цикла — минимум 2 недели и 2 выходных.
03
Замер только клика по кнопке вместо денежной метрики. Вариант B даёт +18% к CTR на CTA, команда празднует. На следующем шаге воронки — оплате — конверсия падает на 22%, потому что кнопка привлекла нерелевантный трафик. Итог — минус выручка. Как правильно: Замеряйте сквозную метрику до денег: revenue per visitor или CR в оплату. Связывайте эксперимент с CRM через user_id.
Часто спрашивают

A/B-тест: ответы на популярные вопросы

A/B-тест простыми словами — что это?

+

A/B-тест — это эксперимент, при котором трафик делится поровну: 50% видят вариант A, 50% — вариант B. Сравнивается одна метрика (конверсия, CTR, выручка на пользователя) и выбирается победитель. Метод применяется в маркетинге с 1920-х годов и стал стандартом веб-аналитики после запуска Google Optimize в 2012 году.

A/B сравнивает 2 версии и меняет один элемент за раз — кнопку, заголовок, цену. Мультивариантный (MVT) тестирует 4–16 комбинаций сразу и требует в 3–5 раз больше трафика. Для сайтов с посещаемостью до 50 000 визитов в месяц подходит только сплит-тест на 2 варианта.

Минимум 1000 конверсий на каждый вариант и 2–4 недели работы — таковы пороги статистической значимости при доверии 95%. При базовой конверсии 2% и желаемом приросте 10% потребуется около 17 000 посетителей на вариант. Калькуляторы выборки есть в VWO, Optimizely и Evan Miller.

Сначала формулируется гипотеза по схеме ‘если изменить X, то метрика Y вырастет на Z%’. Затем выбирается инструмент — Google Optimize закрылся в 2023, актуальные альтернативы: VWO, AB Tasty, GrowthBook, Яндекс.Варио. Тест запускается на полный недельный цикл, чтобы захватить будни и выходные.

Нет, при корректной настройке split-тестирование не вредит позициям. Google рекомендует использовать rel=canonical на оригинал и редирект 302 (не 301) для вариантов. Тест длительностью до 6 недель безопасен; маскировка контента под поискового бота запрещена и грозит санкциями.

Не нашли ответ?

Спросите Андрея Гусарова — отвечаю в течение 1-2 рабочих дней.

Нажимая, вы соглашаетесь с обработкой данных.