AI-промты для мониторинга на Prometheus и Grafana
Выберите стек и экспортёр — получите готовый промт для PromQL и алертов
- Готовые PromQL-выражения и alert rules без синтаксических ошибок
- Дашборды Grafana с корректными unit и thresholds под стек
- Алерты со смыслом: привязка к SLO и понятным runbook
Конструктор промтов для observability-стека
Укажите задачу мониторинга, источник метрик и цель надёжности — получите промт под Prometheus
Ваш промт появится здесь
Выберите параметры слева — промт обновится автоматически
Настройка мониторинга Prometheus и Grafana отнимает у DevOps-инженера до 60% времени дежурства: PromQL-запросы переписываются по пять раз, алерты в Alertmanager шумят, а дашборды показывают не те метрики, что нужны on-call. Грамотные промты для ChatGPT и Claude ускоряют написание PromQL-запросов, настройку Alertmanager и разработку дашборда Grafana — нейросеть собирает корректные выражения для kube-state-metrics, node_exporter и cAdvisor за минуты. Укажите роль (Senior DevOps или Platform Engineer) и целевой стек (Kubernetes-кластер, PostgreSQL, Kafka) — получите промт, учитывающий SLO 99.9% и приоритет P1. Бесплатный генератор снимает большую часть рутины: автоматизация шаблонов под scrape jobs, recording rules и SLI высвобождает время на архитектуру и снижение MTTR. Заполните форму и получите промт, оптимизированный под вашу задачу — и используйте его в ChatGPT, Claude или любой другой AI-системе.
Промты для мониторинга Prometheus: инструкция
Выберите задачу и целевой стек
Укажите Роль инженера, Задачу мониторинга и Целевой стек — промт соберётся под Prometheus и Grafana.
Настройте тон и формат вывода
Выберите инженерный тон и формат 'YAML + пояснения' — удобно для alert rules и дашбордов Grafana.
Опишите сервис и боль
Впишите поля Сервис, Текущая настройка и Боль — промт учтёт ваш retention, поды и шум алертов.
Скопируйте промт в ChatGPT
Скопируйте готовый промт и вставьте в ChatGPT или Claude — получите PromQL-запросы и конфиги алертов.
Для кого промты по Prometheus и Grafana
Генератор помогает SRE, DevOps, платформенным инженерам настраивать мониторинг с AI
SRE-инженер дежурной смены
Пишу PromQL для алертов по часу, инцидент горит уже сейчас
Получайте готовый PromQL-запрос для Alertmanager за минуту
Автор дашбордов Grafana
Каждая новая панель по kube-state-metrics съедает полдня настройки
Собирайте JSON дашборда Grafana по стеку Kubernetes в один клик
Junior DevOps на онбординге
Путаюсь в scrape jobs и exporters, боюсь уронить прод первой правкой
Разбирайте конфиг scrape jobs и node_exporter с пошаговым объяснением
Platform Engineer по SLA
MTTR растёт, а предиктивных алертов на capacity до сих пор нет
Проектируйте predictive-алерты под SLA 99.9% и планирование ресурсов
Ещё промты для мониторинга Prometheus и Grafana
Промты дополняют генератор смежными задачами по observability. Скопируйте, замените данные в [скобках] и вставьте в ChatGPT или Claude.
Аудит существующих PromQL-запросов и дашбордов на предмет deprecated-функций
Аудит метрикРоль: Ты Senior Observability Engineer с 7 лет опыта в Prometheus и Grafana. Экспертиза: PromQL-оптимизация, cardinality analysis, VictoriaMetrics миграции. Контекст: Я DevOps-инженер в [тип компании — финтех/e-commerce]. Стек: [версия Prometheus], [версия Grafana], [количество активных дашбордов]. Проблема: [jvm_memory растёт / дашборды тормозят / алерты шумят]. Экспорт запросов: [JSON дашбордов или список recording rules]. Задача: Провести аудит PromQL-запросов, найти deprecated-функции, high-cardinality labels и неоптимальные rate/irate паттерны. Предложить рефакторинг. Формат вывода: (1) Таблица 'Запрос → Проблема → Severity → Исправленный PromQL'. (2) Список меток с высокой кардинальностью и рекомендации по дропу через metric_relabel_configs. (3) Чек-лист миграции с примерами diff в YAML. Детали: Опирайся на официальный Prometheus best practices и PromLabs guidelines. Избегай советов уровня 'используйте rate вместо irate' без объяснения контекста окна scrape_interval.
Стратегия внедрения SLO и error budget на базе Prometheus
SLO стратегияРоль: Ты Principal SRE с 9 лет опыта внедрения Google SRE-практик. Экспертиза: SLO-дизайн, error budget policy, multi-window multi-burn-rate алерты. Контекст: Я Platform Engineer в [организация с N микросервисов]. Сервис: [название и бизнес-функция]. Текущие метрики: [latency p99 = X мс], [доступность за 30 дней = Y%], [RPS = Z]. Источник: [источник метрик — Istio/Envoy/app-level]. Целевое SLA: [99.9% / 99.95%]. Задача: Разработать SLO-стратегию с SLI, error budget и burn-rate алертами, пригодную для on-call команды из [N] инженеров. Формат вывода: (1) Таблица SLI: 'Индикатор → PromQL-формула → Окно → Threshold'. (2) Error budget policy: что происходит при burn rate 2x/10x/14.4x. (3) Alertmanager routing-дерево с приоритетами P1/P2 и эскалацией. Детали: Используй multi-window подход из Google SRE Workbook (глава 5). Не предлагай availability = uptime — считай через good/total events.
Сравнительный анализ Grafana vs альтернатив для observability-стека
Tooling анализРоль: Ты Observability Architect с 8 лет опыта выбора и интеграции мониторинг-платформ. Экспертиза: Grafana, VictoriaMetrics, Thanos, Mimir, Datadog. Контекст: Я руководитель DevOps-команды в [размер инфраструктуры — N нод, M сервисов]. Текущий стек: [Prometheus + Grafana OSS]. Ограничения: [бюджет $/мес], [требование self-hosted или SaaS], [retention политика — X дней]. Боль: [cardinality explosion / HA / long-term storage]. Задача: Подготовить сравнительный анализ 4 решений для долгосрочного хранения и визуализации метрик под наш контекст. Формат вывода: (1) Матрица сравнения: 'Критерий → Grafana Mimir → Thanos → VictoriaMetrics → Datadog' с оценкой 1-5. (2) TCO-расчёт на [горизонт 2 года]. (3) Рекомендация с обоснованием и планом миграции на 90 дней. Детали: Учти PromQL-совместимость, downsampling, global query view. Избегай маркетинговых формулировок — опирайся на benchmarks и документацию.
Обучающий runbook для on-call по разбору алертов из Alertmanager
On-call обучениеРоль: Ты SRE-ментор с 6 лет опыта ведения on-call ротаций и подготовки runbook-документации. Экспертиза: incident response, postmortem culture, Alertmanager routing. Контекст: Я тимлид команды из [N] инженеров уровня [Junior/Middle]. Алерт: [название алерта и PromQL-выражение]. Источник метрик: [node_exporter / kube-state-metrics / blackbox]. Сервис: [описание сервиса и его зависимостей]. Историческая частота: [X срабатываний/неделю]. Задача: Составить пошаговый runbook для разбора этого алерта, который junior-инженер сможет применить в 3 часа ночи без эскалации. Формат вывода: (1) Блок 'Что означает алерт' — бизнес-импакт и связанные SLO. (2) Decision tree из 5-7 шагов диагностики с конкретными PromQL-запросами и kubectl-командами. (3) Матрица действий: 'Симптом → Команда → Ожидаемый результат → Когда эскалировать'. Детали: Следуй формату Google SRE runbook. Избегай фраз 'проверьте логи' без указания где и что искать. Добавь ссылки на дашборды Grafana по шаблону [URL-дашборда].
6 правил промтов для Prometheus и Grafana
Используйте эти правила, чтобы получать рабочие конфиги мониторинга в ChatGPT и Claude без догадок
Задайте роль SRE-инженера
Вместо 'Ты DevOps' укажите: 'Ты SRE с 5 лет опыта Prometheus, Thanos и Grafana в Kubernetes'. ИИ сразу подберёт PromQL и recording rules под стек.
Указывайте SLO и метрики нагрузки
Передайте SLO 99.9%, error budget, RPS, scrape_interval 15s, retention 30d и exporters (node_exporter, kube-state-metrics). Без цифр алерты выйдут с ложными срабатываниями.
Запрашивайте YAML и PromQL блоки
Просите вывод в формате: alert.rules.yaml, prometheus.yml job и JSON-модель Grafana dashboard. Пример: 'Верни alerting rule с expr, for, labels severity и annotations runbook_url'.
Опишите стек и источник метрик
Уточните: Kubernetes 1.29, Prometheus Operator, ServiceMonitor, federation или remote_write в VictoriaMetrics. Шаблон: 'Стек X, источник Y, цель Z — собери scrape config'.
Итерируйте через RED и USE
После первого ответа уточняйте: 'Добавь RED-метрики для HTTP API' или 'Перепиши под USE-метод для дисков'. Так дашборд в Grafana дорастёт до прод-уровня пошагово.
Избегайте размытых алертов
До: 'Сделай алерт на CPU'. После: 'rate(node_cpu_seconds_total{mode!=idle}[5m]) > 0.85 for 10m, severity=warning, runbook в annotations'. Конкретика убирает шум в Alertmanager.
FAQ: промты для Prometheus и Grafana
Промты для настройки мониторинга Prometheus и Grafana — это готовые текстовые шаблоны, которые ChatGPT превращает в PromQL-запросы, правила Alertmanager и JSON-дашборды Grafana. Например, по запросу 'напиши PromQL для 95-го перцентиля latency с histogram_quantile' нейросеть выдаёт корректное выражение с rate() и агрегацией по job. Другой типовой промт формирует alerting rule с условием kube_pod_container_status_restarts_total для P1-инцидентов. Это ускоряет рутину Middle SRE и помогает удерживать SLA 99.9% без ручного гуглинга синтаксиса. Скопируйте шаблон из генератора GUSAROV, подставьте свой стек — Kubernetes, PostgreSQL или Nginx — и вставьте в ChatGPT для мгновенного результата.
Чтобы сгенерировать PromQL через ChatGPT, укажите роль ('ты Senior DevOps'), источник метрик (node_exporter, kube-state-metrics), целевую метрику и окно агрегации. Пример: 'составь PromQL для расчёта saturation CPU по node_exporter с rate за 5m и группировкой по instance'. Claude хорошо справляется со сложными многоуровневыми запросами и генерацией JSON-модели дашборда Grafana с panel-ами для RED-метрик (Rate, Errors, Duration). Для Alertmanager добавьте в промт severity, for-интервал и route по receiver. Такой подход сокращает написание одной alerting rule с 15 минут до 40 секунд. Скопируйте готовый промт из генератора и вставьте в ChatGPT или Claude.
DevOps-инженеру генератор промтов экономит до 60% времени на написании scrape jobs, alerting rules и дашбордов, что напрямую снижает MTTR и повышает соответствие SRE-практикам. Вместо того чтобы вручную вспоминать синтаксис histogram_quantile или структуру relabel_configs, Junior DevOps получает рабочий YAML для Kubernetes или конфиг blackbox_exporter за секунды через ChatGPT. Platform Engineer использует промты для capacity planning с прогнозом через predict_linear, а SRE — для раннего предупреждения о деградации PostgreSQL по postgres_exporter. Генератор бесплатный, учитывает уровень критичности P1/P2 и целевой стек. Попробуйте сгенерировать свой первый промт для Alertmanager прямо сейчас.
Промты для PromQL фокусируются на математике метрик: rate, irate, histogram_quantile, агрегации по label — и требуют от нейросети точного синтаксиса выражения. Промты для Alertmanager описывают маршрутизацию, severity P1/P2, inhibit-правила и receivers в YAML, поэтому Claude должен учитывать структуру route и group_by. Промты для дашбордов Grafana формируют JSON-модель с panels, datasource UID и переменными $instance — здесь важна валидность схемы. Промты для scrape jobs работают со static_configs и service discovery в Kubernetes. Каждый тип задаёт нейросети разный уровень абстракции и формат вывода. Используйте соответствующий шаблон из генератора под вашу задачу.
Промты для настройки мониторинга Prometheus и Grafana работают во всех популярных AI-моделях, но с нюансами. ChatGPT (GPT-4o) лучше всего генерирует PromQL и YAML для Alertmanager с учётом актуальных версий Prometheus 2.x. Claude Sonnet выигрывает на длинных JSON-дашбордах Grafana и сложных recording rules. Gemini хорошо обрабатывает скриншоты графиков и помогает в reverse-engineering метрик kube-state-metrics. YandexGPT и GigaChat подходят для команд в РФ — они корректно работают с русскоязычными комментариями в конфигах и описаниями SLO на русском. Для predictive-алертов и capacity planning рекомендуется ChatGPT или Claude. Вставьте промт из генератора GUSAROV в любую из этих нейросетей бесплатно.