AI-промты для SQL-запросов в аналитике

Настройте диалект и задачу — получите готовый SQL под ваш кейс

Выбрать параметры и получить промпт Без API, сразу готовые промпты
Под любой SQL-диалект Готовые CTE и оконки С разбором метрик
  • Точные метрики: retention, LTV, конверсия без ошибок в JOIN
  • Оптимизация под ClickHouse, BigQuery и Postgres из коробки
  • Витрины под BI с комментариями и чек-листом проверки

Конструктор промтов для SQL-аналитики

Выберите тип запроса и источник данных — получите промт с готовым SQL и разбором

Быстрый старт:
Персонализация промта (необязательно) Показать
Доп. настройки (необязательно) Показать

Ваш промт появится здесь

Выберите параметры слева — промт обновится автоматически

Ваш промт

          

Data Analyst тратит по два-три часа на то, чтобы собрать корректный SQL-запрос под когортный анализ или расчёт воронки конверсии — и всё равно упирается в диалект, источник и читаемость кода. Наш бесплатный генератор промтов готовит точные инструкции для ChatGPT, Claude и любой другой нейросети под типовые задачи аналитика: RFM-сегментация, retention-анализ, расчёт LTV и CAC, проверка значимости A/B-теста. Укажите SQL-диалект (PostgreSQL, ClickHouse, BigQuery) и источник данных (events, orders+users, логи подписок SaaS) — и получите промт, учитывающий фокус на производительности, читаемости или подготовке витрины для BI. Готовые промты снимают большую часть рутины: не нужно раз за разом переписывать контекст, объяснять ИИ структуру таблиц и уточнять метрики. Заполните форму и получите промт, оптимизированный под вашу задачу — скопируйте его в ChatGPT или Claude и сразу используйте результат.

Как собрать промт для SQL-аналитики за 4 шага

1
🎯

Выберите диалект и тип запроса

Укажите Уровень аналитика, SQL-диалект и Тип запроса — это задаст синтаксис и логику будущего SQL.

2
⚙️

Настройте тон и формат вывода

Выберите тон коммуникации и формат вывода. Например: технический тон плюс блок SQL с пояснением по шагам.

3
📝

Опишите таблицы и бизнес-вопрос

Впишите Структуру таблиц и Бизнес-вопрос — модель точнее подберёт JOIN и агрегации под ваши данные.

4
🚀

Скопируйте промт и запустите

Скопируйте готовый промт и вставьте в ChatGPT или Claude — получите SQL-запрос с разбором логики.

Для кого промты по SQL-аналитике

Генератор помогает аналитикам, BI-разработчикам, продактам и маркетологам писать SQL через AI

🌱

Junior Data Analyst в продукте

Путаюсь в JOIN и оконках, один когортный отчёт занимает весь день

Получайте готовый когортный SQL с комментариями за 2 минуты

📊

Продуктовый аналитик e-commerce

На расчёт воронки и RFM каждый раз уходит 3-4 часа ручной работы

Собирайте воронку и RFM-сегменты одним промтом под orders и users

🚀

BI-разработчик на ClickHouse

Запросы на миллиардах строк тормозят, приходится переписывать по 5 раз

Генерируйте оптимизированные SQL под ClickHouse и BigQuery сразу

📈

Маркетолог-аналитик в SaaS

Retention считаю в Excel, потому что не доверяю своим SQL-запросам

Пишите retention-запросы с точными метриками без помощи аналитика

Ещё промты для SQL-аналитики

Промты дополняют генератор смежными задачами по SQL. Скопируйте, замените данные в [скобках] и вставьте в ChatGPT, Claude, YandexGPT или GigaChat.

Аудит медленного SQL-запроса с планом оптимизации

Аудит запросов
Роль: Ты Senior Data Engineer с 8 лет опыта в оптимизации аналитических SQL-запросов. Экспертиза: EXPLAIN ANALYZE, индексы B-tree и BRIN, партиционирование в [PostgreSQL/ClickHouse].

Контекст: Я Data Analyst в [тип компании — e-commerce/финтех]. Витрина: [название таблицы] объёмом [кол-во строк] с партициями по [поле партиционирования]. Запрос выполняется [время выполнения] и блокирует дашборд [название BI]. Текущий план: [вывод EXPLAIN ANALYZE].

Задача: Провести аудит запроса, найти узкие места и предложить 3 варианта оптимизации с оценкой ускорения в процентах.

Формат вывода: (1) Таблица 'Проблема → Причина → Метрика плана' по строкам EXPLAIN. (2) Переписанный SQL с комментариями к каждому изменению. (3) Чек-лист: какие индексы/материализованные представления создать и оценка прироста скорости.

Детали: Опирайся на best practices [SQL-диалект]. Избегай советов вида 'добавьте индекс на всё'. Учитывай стоимость записи и размер данных. Если нужен рефакторинг схемы — обозначь это отдельно.

Ревью SQL-кода джуниора с разбором антипаттернов

Код-ревью
Роль: Ты Lead BI-разработчик с 10 лет опыта в менторинге аналитиков. Экспертиза: стандарты SQL Style Guide (Mozilla, GitLab), CTE, window functions, тестирование витрин через dbt.

Контекст: Я тимлид команды из [кол-во аналитиков] человек. Джуниор прислал запрос на ревью: [вставить SQL-код]. Источник данных: [events/orders/sessions]. Целевая метрика: [название метрики, например DAU или AOV]. Используемый диалект: [PostgreSQL/BigQuery/ClickHouse].

Задача: Сделать конструктивное ревью кода в формате pull-request комментариев, указать антипаттерны и предложить обучающие материалы.

Формат вывода: (1) Таблица замечаний: строка кода, тип проблемы (корректность/производительность/читаемость), серьёзность (blocker/major/minor), предложение. (2) Переписанный запрос с CTE и комментариями. (3) 3 ссылки на документацию/статьи для самообучения джуниора.

Детали: Тон уважительный, объясняй 'почему', а не только 'как'. Проверь NULL-обработку, JOIN-логику, корректность агрегатов. Не переписывай всё с нуля — сохраняй авторский стиль где возможно.

Документация витрины данных для аналитиков и BI-команды

Документация
Роль: Ты Senior Analytics Engineer с 6 лет опыта в построении слоя данных в [Snowflake/BigQuery]. Экспертиза: dbt docs, data contracts, нотация dimensional modeling по Kimball.

Контекст: Я аналитик, готовлю витрину [название витрины] в схеме [schema_name] для дашборда [название BI-отчёта]. Источники: [таблица 1], [таблица 2]. Гранулярность: [одна строка = что]. Бизнес-владелец: [отдел/роль].

Задача: Сформировать полный документ витрины, пригодный для публикации в Confluence и dbt docs.

Формат вывода: (1) Заголовок + бизнес-описание витрины (3-5 предложений). (2) Таблица полей: имя, тип, описание, источник, правила трансформации, пример значения. (3) Раздел 'Метрики и определения' со SQL-формулой каждой метрики. (4) Раздел 'Известные ограничения и SLA обновления'.

Детали: Используй единый глоссарий терминов. Для сложных join-ов покажи ER-диаграмму в mermaid. Избегай технического жаргона в бизнес-описании — его читают продакты.

Чек-лист проверки качества данных перед публикацией дашборда

Data Quality
Роль: Ты эксперт по Data Quality с 7 лет опыта внедрения Great Expectations и Soda Core. Экспертиза: тесты целостности, свежести и распределений в [ClickHouse/PostgreSQL].

Контекст: Я Middle Data Analyst, готовлю к релизу дашборд [название] для [бизнес-заказчик]. Витрина строится из [источник данных — events/transactions]. Период обновления: [частота ETL]. Ключевые метрики: [метрика 1], [метрика 2].

Задача: Составить чек-лист DQ-проверок с готовыми SQL-тестами, которые аналитик запустит до публикации.

Формат вывода: (1) Таблица проверок: категория (uniqueness/freshness/volume/distribution), описание, SQL-запрос, ожидаемый результат, действие при провале. (2) Скрипт сверки метрик дашборда с source-of-truth (расхождение ≤ [допустимый порог, %]). (3) Шаблон отчёта о прогоне для Slack-канала [название канала].

Детали: Минимум 10 проверок, из них 3 — на бизнес-логику (например, сумма заказов ≥ 0). Учитывай особенности [SQL-диалект]. Избегай проверок, которые выполняются дольше 30 секунд без необходимости.

6 правил промтов для SQL-аналитики

Используйте эти правила, чтобы получать рабочие SQL-запросы для аналитики в ChatGPT и Claude

🎓

Задайте роль SQL-аналитика

Вместо 'Ты аналитик' укажите: 'Ты senior data analyst с 7 лет опыта в PostgreSQL и оконными функциями'. ИИ сразу применит CTE и window functions.

📊

Указывайте схему и типы полей

Дайте DDL таблиц: orders(id INT, user_id INT, created_at TIMESTAMP, amount NUMERIC). Без схемы ИИ угадает названия колонок и сломает JOIN по ключу.

📋

Запрашивайте формат с CTE

Просите вывод через WITH-блоки и комментарии: 'Верни запрос в виде CTE с шагами staging → aggregation → final'. Так проще дебажить и переиспользовать.

🎯

Фиксируйте SQL-диалект и движок

Укажите диалект и объём: 'ClickHouse, таблица 500M строк, партиция по дате'. Шаблон: '<движок> + <размер> + <партиционирование>' — меняет стратегию запроса.

🔄

Итерируйте через EXPLAIN

После первого ответа уточняйте: 'Перепиши без коррелированного подзапроса, замени на LEFT JOIN + GROUP BY, покажи EXPLAIN ANALYZE и оцени стоимость плана'.

⚠️

Избегайте размытых метрик

До: 'Напиши запрос по выручке пользователей'. После: 'Посчитай MRR и retention D30 по когортам регистрации за 2025 Q1 в BigQuery, группировка по месяцу'.

FAQ: промты для SQL-запросов

Промты для написания SQL-запросов для аналитики — это структурированные инструкции, в которых вы задаёте нейросети диалект (PostgreSQL, ClickHouse, BigQuery), таблицы (events, orders, sessions) и тип анализа: когортный, воронка, retention или RFM. ChatGPT на основе такого промта генерирует запрос с CTE, оконными функциями и комментариями к каждому блоку. Например, для retention по таблице events вы получите готовый код с DATE_TRUNC и COUNT DISTINCT user_id. Промт фиксирует фокус — производительность, читаемость или точность метрик. Это убирает галлюцинации в именах полей и ускоряет написание аналитических скриптов в 4–5 раз. Скопируйте шаблон из генератора и вставьте в ChatGPT.

Опишите ChatGPT диалект (например, PostgreSQL), структуру таблицы events с полями user_id, event_name, event_date и желаемую гранулярность когорт — недельную или месячную. Укажите метрику: доля возвращающихся пользователей от первой активности. ChatGPT сгенерирует CTE с DATE_TRUNC для определения первой сессии, второй CTE для последующих активностей и финальный SELECT с COUNT DISTINCT и делением на размер когорты. Добавьте в промт требование комментировать каждый блок и вывести результат в формате «когорта × неделя жизни». Для ClickHouse запрос получится с argMin вместо подзапроса. Скопируйте готовый промт из генератора, вставьте таблицу DDL и получите рабочий скрипт за 30 секунд.

Data Analyst через генератор экономит 60–80% времени на рутинных запросах — воронках, retention, RFM-сегментации и когортах. Вместо того чтобы вручную выписывать десятки оконных функций и LEFT JOIN, вы задаёте параметры: уровень (Junior или Senior), диалект (MySQL, BigQuery), источник (orders + users) и фокус — на производительности или читаемости. Claude возвращает оптимизированный скрипт с индексами и предварительными агрегациями. Junior-аналитик быстрее учится паттернам, Lead BI-разработчик ускоряет ревью дашбордов. Генератор бесплатный, поддерживает PostgreSQL и ClickHouse и снижает число ошибок в именах полей. Попробуйте сформировать первый промт под вашу задачу прямо сейчас.

Промт для когортного анализа фокусируется на временной оси: нейросети нужно указать дату первого события, шаг когорты и метрику удержания через DATE_TRUNC и COUNT DISTINCT. Промт для RFM-сегментации задаёт три измерения — Recency, Frequency, Monetary — и просит распределить пользователей по квинтилям через NTILE(5) на таблице transactions или orders. Claude на когортах отдаёт CTE с матрицей недель, а на RFM — CASE WHEN с итоговыми классами (Champions, At Risk). Диалект тоже меняет структуру: BigQuery работает с APPROX_QUANTILES, PostgreSQL с PERCENT_RANK. Используйте разные шаблоны из генератора под каждую задачу, не смешивайте параметры в одном промте.

Промты для SQL-запросов работают во всех крупных нейросетях, но с нюансами по диалектам. ChatGPT и Claude лучше всего справляются с оконными функциями PostgreSQL и BigQuery, корректно генерируют CTE и LATERAL JOIN для воронок и retention. Gemini сильна в BigQuery-скриптах и её Standard SQL. YandexGPT и GigaChat подходят для базовых запросов на MySQL и PostgreSQL — они реже ошибаются в русскоязычных описаниях таблиц sessions или transactions, но слабее в ClickHouse-специфике вроде argMax и arrayJoin. Для сложной RFM-сегментации или воронок на миллиарды строк берите ChatGPT или Claude. Вставьте промт из генератора в удобную нейросеть и сравните вывод.