AI-промты для оптимизации SQL-запросов

Задайте СУБД и узкое место — получите готовый промт для тюнинга

Выбрать параметры и получить промпт Без API, сразу готовые промпты
EXPLAIN-aware Под 6 СУБД OLTP и OLAP
  • Точные рекомендации с учётом плана выполнения
  • Готовый DDL для индексов и партиционирования
  • Оценка эффекта в cost, rows и buffers

Конструктор промтов для SQL-тюнинга

Выберите СУБД, тип узкого места и цель оптимизации — соберём промт под ваш запрос

Быстрый старт:
Персонализация промта (необязательно) Показать
Доп. настройки (необязательно) Показать

Ваш промт появится здесь

Выберите параметры слева — промт обновится автоматически

Ваш промт

          

Оптимизация SQL-запросов отнимает у backend-разработчика часы: нужно разобрать EXPLAIN ANALYZE, найти Full Table Scan, переписать неэффективные JOIN и объяснить бизнесу, почему p95 latency вырос. Промты для ChatGPT и Claude снимают большую часть этой рутины — нейросеть по готовому шаблону разбирает план запроса, предлагает индексы и переписывает SQL под OLTP или OLAP-нагрузку. В нашем генераторе вы выбираете роль эксперта (Senior DBA, Performance Engineer, Query Tuning Expert), СУБД (PostgreSQL, MySQL, ClickHouse, Oracle) и узкое место — отсутствие индексов, N+1 запросы или блокировки. Укажите входной артефакт и цель оптимизации — получите промт, который заставит ChatGPT или Claude выдать план действий, а не общие советы. Бесплатные промпты экономят часы на ручном анализе и превращают ИИ в реального помощника по тюнингу. Заполните форму и получите промт, оптимизированный под вашу задачу.

Как собрать промт для SQL-оптимизации

1
🎯

Выберите СУБД и узкое место

Укажите Роль эксперта, СУБД и Узкое место — это задаст фокус промта под вашу проблему с SQL.

2
⚙️

Настройте тон и формат вывода

Выберите технический тон и формат 'план оптимизации с EXPLAIN' — ответ будет структурным и по делу.

3
📝

Впишите текст запроса и метрики

Вставьте реальный SQL в поле Текст запроса и добавьте Метрики со Схемой — AI найдёт узкое место точнее.

4
🚀

Скопируйте промт и запустите

Скопируйте готовый промт и вставьте в ChatGPT или Claude — получите план оптимизации запроса.

Кто использует промты для оптимизации SQL

Генератор помогает backend-разработчикам, DBA, дата-инженерам и тимлидам ускорять SQL с AI

🧑‍💻

Backend-разработчик на PostgreSQL

Запрос к отчёту тормозит 8 секунд, а дедлайн релиза завтра утром

Получайте разбор EXPLAIN ANALYZE и готовый патч индексов за минуту

🧑‍🔬

DBA в высоконагруженном OLTP

Еженедельно разбираю pg_stat_statements вручную — уходит целый рабочий день

Формируйте приоритетный список тяжёлых запросов и гипотез по тюнингу

📊

Дата-инженер ETL и OLAP

Batch-джоба по витринам идёт 6 часов вместо окна в 2 часа ночью

Переписывайте JOIN и агрегации под колоночную нагрузку с объяснением

🏆

Тимлид на код-ревью SQL

На ревью ловлю N+1 и Full Scan у джунов по 10 раз за спринт

Выдавайте команде чек-лист антипаттернов и готовые комментарии к PR

Ещё промты для оптимизации SQL

Промты дополняют генератор смежными задачами по SQL. Скопируйте, замените данные в [скобках] и вставьте в ChatGPT или Claude.

Аудит индексной стратегии таблицы с рекомендациями

Аудит индексов
Роль: Ты Senior DBA с 10 лет опыта в проектировании индексных стратегий для высоконагруженных систем. Экспертиза: B-tree, GIN, BRIN, partial и covering индексы, анализ pg_stat_user_indexes и sys.dm_db_index_usage_stats.

Контекст: Я backend-разработчик в [тип продукта — SaaS/маркетплейс/финтех]. СУБД: [PostgreSQL 15/MySQL 8/MS SQL 2022]. Таблица: [имя таблицы] с объёмом [число строк] и ростом [строк в сутки]. Текущие индексы: [список индексов с колонками]. Статистика использования: [данные pg_stat_user_indexes или аналог]. Топ-5 запросов к таблице: [SQL-запросы].

Задача: Проведи аудит индексной стратегии таблицы, выяви избыточные, дублирующие и неиспользуемые индексы, предложи новые индексы под реальные паттерны запросов.

Формат вывода: (1) Таблица текущих индексов со столбцами: имя, колонки, размер, сканирований за период, вердикт (оставить/удалить/переделать). (2) Список предлагаемых новых индексов с обоснованием и DDL CREATE INDEX CONCURRENTLY. (3) Оценка влияния на write-амплификацию и план миграции по шагам.

Детали: Учитывай баланс read/write нагрузки, селективность колонок, правило левого префикса. Не предлагай индекс, если селективность ниже 5%. Опирайся на методику Index Tuning от Markus Winand.

Ревью миграции схемы БД перед релизом в production

Ревью миграций
Роль: Ты Database Architect с 8 лет опыта ревью миграций в CI/CD для систем 10k+ RPS. Экспертиза: zero-downtime миграции, expand-contract паттерн, pg_repack, gh-ost, online DDL.

Контекст: Я backend-разработчик в команде [размер команды] на [СУБД и версия]. Стек миграций: [Flyway/Liquibase/Alembic/Knex]. Нагрузка на таблицу: [QPS чтения и записи]. Размер таблицы: [GB и строк]. Текст миграции: [SQL миграции с ALTER/CREATE/DROP]. Окно даунтайма: [допустимое время или zero-downtime].

Задача: Сделай ревью миграции на предмет блокировок, длительности, обратной совместимости с текущим кодом приложения и предложи безопасный план выкатки.

Формат вывода: (1) Таблица рисков: операция, тип блокировки (AccessExclusive/ShareUpdateExclusive), ожидаемая длительность, severity. (2) Переписанная миграция по шагам expand-contract с SQL для каждого шага. (3) Чек-лист пред-релиза: бэкап, lock_timeout, statement_timeout, откат.

Детали: Опирайся на strong_migrations и PostgreSQL lock levels. Избегай ALTER TABLE с дефолтом на больших таблицах, CREATE INDEX без CONCURRENTLY, DROP COLUMN без предварительного NULL-этапа.

Нагрузочный сценарий для проверки оптимизированного запроса

Нагрузочный тест
Роль: Ты Performance Engineer с 7 лет опыта нагрузочного тестирования БД. Экспертиза: pgbench, sysbench, k6, HammerDB, анализ p50/p95/p99 latency и percentile distribution.

Контекст: Я backend-разработчик, оптимизировал запрос [краткое описание запроса и таблиц]. СУБД: [PostgreSQL/MySQL/ClickHouse]. Профиль нагрузки: [OLTP/OLAP/смешанный], целевой RPS [число], распределение ключей [uniform/zipfian]. Текущие метрики в проде: [p95 latency, CPU, IOPS]. Цель: [снизить p95 на X% / поднять throughput до Y].

Задача: Спроектируй нагрузочный сценарий, который воспроизводит продовую нагрузку на stage и подтверждает улучшение от оптимизации.

Формат вывода: (1) Сценарий в виде скрипта pgbench или k6 с параметризацией и генерацией ключей. (2) Таблица метрик сбора: метрика, источник (pg_stat_statements/Prometheus), целевое значение, SLO. (3) План прогонов: baseline, оптимизированная версия, ramp-up, длительность, критерии pass/fail.

Детали: Учитывай прогрев кэша shared_buffers, изоляцию от соседних workload на stage. Избегай нагрузки на синтетических данных без zipfian-распределения, если в проде hot-keys.

Обучающий разбор EXPLAIN ANALYZE для джуниоров команды

Обучение команды
Роль: Ты Query Tuning Expert и технический ментор с 9 лет преподавания чтения планов запросов. Экспертиза: PostgreSQL EXPLAIN ANALYZE, MySQL EXPLAIN FORMAT=TREE, визуализация через explain.depesz и pev2.

Контекст: Я тимлид backend-команды [размер и уровень — джуны/миддлы]. СУБД: [PostgreSQL 15 / MySQL 8]. Есть реальный план запроса с проблемой: [вставить EXPLAIN ANALYZE целиком]. Узкое место на проде: [Full Scan / Nested Loop / Hash Join spill]. Схема таблиц: [DDL с индексами]. Цель обучения: научить команду самостоятельно читать планы и находить узкие места.

Задача: Подготовь обучающий разбор этого плана как учебный кейс для внутреннего воркшопа длительностью [45 минут].

Формат вывода: (1) Пошаговый разбор плана снизу вверх с пояснением каждого оператора, cost, actual time, rows vs estimated. (2) 5 диагностических вопросов для команды с ответами. (3) Чек-лист «красных флагов» в планах: rows misestimate 10x+, Seq Scan на большой таблице, Sort на диск, Nested Loop с большим outer.

Детали: Используй терминологию из документации PostgreSQL. Избегай упрощений про «индекс всегда быстрее». Приведи аналогию для объяснения Hash vs Merge Join.

6 правил промтов для оптимизации SQL

Используйте эти правила, чтобы получать рабочие планы оптимизации SQL-запросов в ChatGPT и Claude

🎓

Задайте узкую роль DBA-эксперта

Вместо 'Ты DBA' укажите: 'Ты Senior DBA PostgreSQL 15 с опытом тюнинга OLTP под 10k RPS'. ИИ сразу учтёт MVCC, vacuum и индексы BRIN/GIN.

📊

Указывайте EXPLAIN и объёмы

Дайте EXPLAIN (ANALYZE, BUFFERS), размер таблиц в строках, кардинальность колонок и текущее время запроса. Без cost, rows и Seq Scan совет будет гаданием.

📋

Запрашивайте план в чек-листе

Просите ответ в формате: 'узкое место → гипотеза → DDL индекса → переписанный SQL → ожидаемый cost'. Это ближе к ICE-скорингу изменений и легко тестируется.

🔬

Уточняйте тип нагрузки и СУБД

OLTP, OLAP и HTAP требуют разных решений: партиционирование, материализованные view или columnstore. Шаблон: 'СУБД X, нагрузка Y, SLA p95 Z мс'.

🔄

Итерируйте через новый EXPLAIN

После ответа присылайте свежий EXPLAIN ANALYZE и пишите: 'Nested Loop остался, rows=1.2M, углубись в covering index по (user_id, created_at)'. Так ИИ видит прогресс.

⚠️

Избегайте вопросов без схемы

До: 'Почему мой SQL медленный?'. После: 'PostgreSQL 15, таблица orders 80M строк, EXPLAIN показывает Seq Scan по status, цель — p95 < 50 мс'.

FAQ: промты для оптимизации SQL

Промты для оптимизации SQL-запросов — это структурированные инструкции, которые задают нейросети роль Senior DBA или Performance Engineer и передают контекст: исходный запрос, EXPLAIN ANALYZE, DDL схемы и целевую СУБД. Например, в ChatGPT такой промт превращает медленный запрос с Full Table Scan в план с Index Scan и снижает latency p95 в 5–20 раз. В промте указывают тип нагрузки (OLTP, OLAP, Batch ETL) и цель: сокращение I/O, снижение CPU или рост throughput. Генератор GUSAROV собирает все эти поля автоматически и отдаёт готовую инструкцию под PostgreSQL, MySQL, Oracle или MS SQL Server. Попробуйте бесплатно — вставьте свой запрос в ChatGPT и получите переписанный SQL с обоснованием через минуту.

Передайте в ChatGPT роль Query Tuning Expert, приложите план EXPLAIN ANALYZE, DDL таблиц и текст запроса, укажите СУБД PostgreSQL и цель — снижение latency p95. Нейросеть найдёт узкие места: Nested Loop на миллионных таблицах, Seq Scan из-за отсутствия индекса, неэффективные Hash Join или N+1 паттерн из ORM. Claude особенно хорошо работает с длинными планами на 500+ строк и предлагает составные индексы, переписывание подзапросов в CTE или материализованные представления. Ответ содержит новый SQL, ожидаемое сокращение cost и команды CREATE INDEX CONCURRENTLY. Скопируйте готовый промт из генератора GUSAROV и вставьте вместе со своим планом — получите рабочий патч для продакшена.

Backend-разработчик экономит часы на тюнинге, когда нейросеть заменяет роль DBA на проектах без выделенного администратора. Генератор GUSAROV собирает промт из полей: СУБД, узкое место (Full Table Scan, N+1, отсутствие индексов), тип нагрузки OLTP или OLAP и цель по метрикам — p95, CPU, I/O. Вместо хаотичного копирования запроса в ChatGPT разработчик получает воспроизводимый шаблон, который стабильно выдаёт индексы, переписанные JOIN и анализ pg_stat_statements. Это снижает MTTR инцидентов с медленными запросами и убирает блокеры релизов. Попробуйте бесплатный генератор, чтобы за 30 секунд собрать промт под свою задачу и применить его в любимой нейросети.

Промты для OLTP фокусируют нейросеть на снижении latency p95 и устранении блокировок: короткие запросы, селективные индексы, отказ от Seq Scan и борьба с N+1. Промты для OLAP-аналитики в Claude или Gemini просят сократить I/O на больших сканированиях через партиционирование, columnar-индексы, материализованные представления и параллельный Hash Join. Для Batch ETL нейросети ставят цель — повысить throughput: батчинг, COPY вместо INSERT, отключение индексов на время загрузки, VACUUM ANALYZE после. Отчётность требует баланса: план без лок-таблиц, но с агрегатами. Генератор GUSAROV подставляет нужные акценты автоматически по выбранному типу нагрузки. Используйте подходящий шаблон — и ответ нейросети будет релевантным задаче.

Промты генератора GUSAROV работают в ChatGPT, Claude, Gemini, YandexGPT, GigaChat и DeepSeek, но с нюансами. ChatGPT и Claude дают лучший результат на сложных EXPLAIN-планах Oracle и MS SQL Server, корректно предлагают составные индексы и переписывают оконные функции. Gemini силён в анализе статистики pg_stat_statements и больших дампах. YandexGPT и GigaChat подходят для PostgreSQL и MySQL, уверенно работают с русскоязычными комментариями в DDL и удобны для компаний под 152-ФЗ, где данные не должны уходить за периметр РФ. Для OLTP-тюнинга хватает любой модели, для OLAP на 10k+ строк плана лучше брать Claude с большим контекстом. Вставьте промт в свою нейросеть и сравните результаты.