AI-промты для SQL-запросов в аналитике
Настройте диалект и задачу — получите готовый SQL под ваш кейс
- Точные метрики: retention, LTV, конверсия без ошибок в JOIN
- Оптимизация под ClickHouse, BigQuery и Postgres из коробки
- Витрины под BI с комментариями и чек-листом проверки
Конструктор промтов для SQL-аналитики
Выберите тип запроса и источник данных — получите промт с готовым SQL и разбором
Ваш промт появится здесь
Выберите параметры слева — промт обновится автоматически
Data Analyst тратит по два-три часа на то, чтобы собрать корректный SQL-запрос под когортный анализ или расчёт воронки конверсии — и всё равно упирается в диалект, источник и читаемость кода. Наш бесплатный генератор промтов готовит точные инструкции для ChatGPT, Claude и любой другой нейросети под типовые задачи аналитика: RFM-сегментация, retention-анализ, расчёт LTV и CAC, проверка значимости A/B-теста. Укажите SQL-диалект (PostgreSQL, ClickHouse, BigQuery) и источник данных (events, orders+users, логи подписок SaaS) — и получите промт, учитывающий фокус на производительности, читаемости или подготовке витрины для BI. Готовые промты снимают большую часть рутины: не нужно раз за разом переписывать контекст, объяснять ИИ структуру таблиц и уточнять метрики. Заполните форму и получите промт, оптимизированный под вашу задачу — скопируйте его в ChatGPT или Claude и сразу используйте результат.
Как собрать промт для SQL-аналитики за 4 шага
Выберите диалект и тип запроса
Укажите Уровень аналитика, SQL-диалект и Тип запроса — это задаст синтаксис и логику будущего SQL.
Настройте тон и формат вывода
Выберите тон коммуникации и формат вывода. Например: технический тон плюс блок SQL с пояснением по шагам.
Опишите таблицы и бизнес-вопрос
Впишите Структуру таблиц и Бизнес-вопрос — модель точнее подберёт JOIN и агрегации под ваши данные.
Скопируйте промт и запустите
Скопируйте готовый промт и вставьте в ChatGPT или Claude — получите SQL-запрос с разбором логики.
Для кого промты по SQL-аналитике
Генератор помогает аналитикам, BI-разработчикам, продактам и маркетологам писать SQL через AI
Junior Data Analyst в продукте
Путаюсь в JOIN и оконках, один когортный отчёт занимает весь день
Получайте готовый когортный SQL с комментариями за 2 минуты
Продуктовый аналитик e-commerce
На расчёт воронки и RFM каждый раз уходит 3-4 часа ручной работы
Собирайте воронку и RFM-сегменты одним промтом под orders и users
BI-разработчик на ClickHouse
Запросы на миллиардах строк тормозят, приходится переписывать по 5 раз
Генерируйте оптимизированные SQL под ClickHouse и BigQuery сразу
Маркетолог-аналитик в SaaS
Retention считаю в Excel, потому что не доверяю своим SQL-запросам
Пишите retention-запросы с точными метриками без помощи аналитика
Ещё промты для SQL-аналитики
Промты дополняют генератор смежными задачами по SQL. Скопируйте, замените данные в [скобках] и вставьте в ChatGPT, Claude, YandexGPT или GigaChat.
Аудит медленного SQL-запроса с планом оптимизации
Аудит запросовРоль: Ты Senior Data Engineer с 8 лет опыта в оптимизации аналитических SQL-запросов. Экспертиза: EXPLAIN ANALYZE, индексы B-tree и BRIN, партиционирование в [PostgreSQL/ClickHouse]. Контекст: Я Data Analyst в [тип компании — e-commerce/финтех]. Витрина: [название таблицы] объёмом [кол-во строк] с партициями по [поле партиционирования]. Запрос выполняется [время выполнения] и блокирует дашборд [название BI]. Текущий план: [вывод EXPLAIN ANALYZE]. Задача: Провести аудит запроса, найти узкие места и предложить 3 варианта оптимизации с оценкой ускорения в процентах. Формат вывода: (1) Таблица 'Проблема → Причина → Метрика плана' по строкам EXPLAIN. (2) Переписанный SQL с комментариями к каждому изменению. (3) Чек-лист: какие индексы/материализованные представления создать и оценка прироста скорости. Детали: Опирайся на best practices [SQL-диалект]. Избегай советов вида 'добавьте индекс на всё'. Учитывай стоимость записи и размер данных. Если нужен рефакторинг схемы — обозначь это отдельно.
Ревью SQL-кода джуниора с разбором антипаттернов
Код-ревьюРоль: Ты Lead BI-разработчик с 10 лет опыта в менторинге аналитиков. Экспертиза: стандарты SQL Style Guide (Mozilla, GitLab), CTE, window functions, тестирование витрин через dbt. Контекст: Я тимлид команды из [кол-во аналитиков] человек. Джуниор прислал запрос на ревью: [вставить SQL-код]. Источник данных: [events/orders/sessions]. Целевая метрика: [название метрики, например DAU или AOV]. Используемый диалект: [PostgreSQL/BigQuery/ClickHouse]. Задача: Сделать конструктивное ревью кода в формате pull-request комментариев, указать антипаттерны и предложить обучающие материалы. Формат вывода: (1) Таблица замечаний: строка кода, тип проблемы (корректность/производительность/читаемость), серьёзность (blocker/major/minor), предложение. (2) Переписанный запрос с CTE и комментариями. (3) 3 ссылки на документацию/статьи для самообучения джуниора. Детали: Тон уважительный, объясняй 'почему', а не только 'как'. Проверь NULL-обработку, JOIN-логику, корректность агрегатов. Не переписывай всё с нуля — сохраняй авторский стиль где возможно.
Документация витрины данных для аналитиков и BI-команды
ДокументацияРоль: Ты Senior Analytics Engineer с 6 лет опыта в построении слоя данных в [Snowflake/BigQuery]. Экспертиза: dbt docs, data contracts, нотация dimensional modeling по Kimball. Контекст: Я аналитик, готовлю витрину [название витрины] в схеме [schema_name] для дашборда [название BI-отчёта]. Источники: [таблица 1], [таблица 2]. Гранулярность: [одна строка = что]. Бизнес-владелец: [отдел/роль]. Задача: Сформировать полный документ витрины, пригодный для публикации в Confluence и dbt docs. Формат вывода: (1) Заголовок + бизнес-описание витрины (3-5 предложений). (2) Таблица полей: имя, тип, описание, источник, правила трансформации, пример значения. (3) Раздел 'Метрики и определения' со SQL-формулой каждой метрики. (4) Раздел 'Известные ограничения и SLA обновления'. Детали: Используй единый глоссарий терминов. Для сложных join-ов покажи ER-диаграмму в mermaid. Избегай технического жаргона в бизнес-описании — его читают продакты.
Чек-лист проверки качества данных перед публикацией дашборда
Data QualityРоль: Ты эксперт по Data Quality с 7 лет опыта внедрения Great Expectations и Soda Core. Экспертиза: тесты целостности, свежести и распределений в [ClickHouse/PostgreSQL]. Контекст: Я Middle Data Analyst, готовлю к релизу дашборд [название] для [бизнес-заказчик]. Витрина строится из [источник данных — events/transactions]. Период обновления: [частота ETL]. Ключевые метрики: [метрика 1], [метрика 2]. Задача: Составить чек-лист DQ-проверок с готовыми SQL-тестами, которые аналитик запустит до публикации. Формат вывода: (1) Таблица проверок: категория (uniqueness/freshness/volume/distribution), описание, SQL-запрос, ожидаемый результат, действие при провале. (2) Скрипт сверки метрик дашборда с source-of-truth (расхождение ≤ [допустимый порог, %]). (3) Шаблон отчёта о прогоне для Slack-канала [название канала]. Детали: Минимум 10 проверок, из них 3 — на бизнес-логику (например, сумма заказов ≥ 0). Учитывай особенности [SQL-диалект]. Избегай проверок, которые выполняются дольше 30 секунд без необходимости.
6 правил промтов для SQL-аналитики
Используйте эти правила, чтобы получать рабочие SQL-запросы для аналитики в ChatGPT и Claude
Задайте роль SQL-аналитика
Вместо 'Ты аналитик' укажите: 'Ты senior data analyst с 7 лет опыта в PostgreSQL и оконными функциями'. ИИ сразу применит CTE и window functions.
Указывайте схему и типы полей
Дайте DDL таблиц: orders(id INT, user_id INT, created_at TIMESTAMP, amount NUMERIC). Без схемы ИИ угадает названия колонок и сломает JOIN по ключу.
Запрашивайте формат с CTE
Просите вывод через WITH-блоки и комментарии: 'Верни запрос в виде CTE с шагами staging → aggregation → final'. Так проще дебажить и переиспользовать.
Фиксируйте SQL-диалект и движок
Укажите диалект и объём: 'ClickHouse, таблица 500M строк, партиция по дате'. Шаблон: '<движок> + <размер> + <партиционирование>' — меняет стратегию запроса.
Итерируйте через EXPLAIN
После первого ответа уточняйте: 'Перепиши без коррелированного подзапроса, замени на LEFT JOIN + GROUP BY, покажи EXPLAIN ANALYZE и оцени стоимость плана'.
Избегайте размытых метрик
До: 'Напиши запрос по выручке пользователей'. После: 'Посчитай MRR и retention D30 по когортам регистрации за 2025 Q1 в BigQuery, группировка по месяцу'.
FAQ: промты для SQL-запросов
Промты для написания SQL-запросов для аналитики — это структурированные инструкции, в которых вы задаёте нейросети диалект (PostgreSQL, ClickHouse, BigQuery), таблицы (events, orders, sessions) и тип анализа: когортный, воронка, retention или RFM. ChatGPT на основе такого промта генерирует запрос с CTE, оконными функциями и комментариями к каждому блоку. Например, для retention по таблице events вы получите готовый код с DATE_TRUNC и COUNT DISTINCT user_id. Промт фиксирует фокус — производительность, читаемость или точность метрик. Это убирает галлюцинации в именах полей и ускоряет написание аналитических скриптов в 4–5 раз. Скопируйте шаблон из генератора и вставьте в ChatGPT.
Опишите ChatGPT диалект (например, PostgreSQL), структуру таблицы events с полями user_id, event_name, event_date и желаемую гранулярность когорт — недельную или месячную. Укажите метрику: доля возвращающихся пользователей от первой активности. ChatGPT сгенерирует CTE с DATE_TRUNC для определения первой сессии, второй CTE для последующих активностей и финальный SELECT с COUNT DISTINCT и делением на размер когорты. Добавьте в промт требование комментировать каждый блок и вывести результат в формате «когорта × неделя жизни». Для ClickHouse запрос получится с argMin вместо подзапроса. Скопируйте готовый промт из генератора, вставьте таблицу DDL и получите рабочий скрипт за 30 секунд.
Data Analyst через генератор экономит 60–80% времени на рутинных запросах — воронках, retention, RFM-сегментации и когортах. Вместо того чтобы вручную выписывать десятки оконных функций и LEFT JOIN, вы задаёте параметры: уровень (Junior или Senior), диалект (MySQL, BigQuery), источник (orders + users) и фокус — на производительности или читаемости. Claude возвращает оптимизированный скрипт с индексами и предварительными агрегациями. Junior-аналитик быстрее учится паттернам, Lead BI-разработчик ускоряет ревью дашбордов. Генератор бесплатный, поддерживает PostgreSQL и ClickHouse и снижает число ошибок в именах полей. Попробуйте сформировать первый промт под вашу задачу прямо сейчас.
Промт для когортного анализа фокусируется на временной оси: нейросети нужно указать дату первого события, шаг когорты и метрику удержания через DATE_TRUNC и COUNT DISTINCT. Промт для RFM-сегментации задаёт три измерения — Recency, Frequency, Monetary — и просит распределить пользователей по квинтилям через NTILE(5) на таблице transactions или orders. Claude на когортах отдаёт CTE с матрицей недель, а на RFM — CASE WHEN с итоговыми классами (Champions, At Risk). Диалект тоже меняет структуру: BigQuery работает с APPROX_QUANTILES, PostgreSQL с PERCENT_RANK. Используйте разные шаблоны из генератора под каждую задачу, не смешивайте параметры в одном промте.
Промты для SQL-запросов работают во всех крупных нейросетях, но с нюансами по диалектам. ChatGPT и Claude лучше всего справляются с оконными функциями PostgreSQL и BigQuery, корректно генерируют CTE и LATERAL JOIN для воронок и retention. Gemini сильна в BigQuery-скриптах и её Standard SQL. YandexGPT и GigaChat подходят для базовых запросов на MySQL и PostgreSQL — они реже ошибаются в русскоязычных описаниях таблиц sessions или transactions, но слабее в ClickHouse-специфике вроде argMax и arrayJoin. Для сложной RFM-сегментации или воронок на миллиарды строк берите ChatGPT или Claude. Вставьте промт из генератора в удобную нейросеть и сравните вывод.