Промпт-инжиниринг: полное руководство с примерами
Разбираем техники промпт-инжиниринга от базовых до продвинутых: zero-shot, few-shot, chain-of-thought, Tree-of-Thought. Примеры, сравнения, практические советы.
Один и тот же запрос к языковой модели может дать бесполезную отписку — или развёрнутый, точный, применимый на практике результат. Разница — в промпте. Исследования показывают, что структурированные промпты дают до 10 раз более полезные ответы по сравнению с размытыми однострочными инструкциями. Промпт-инжиниринг — это не «магия формулировок», а инженерная дисциплина со своими техниками, паттернами и измеримыми результатами.
В этом руководстве — разбор техник от базовых до продвинутых, с конкретными примерами для Claude, GPT-4o и Gemini.
Что такое промпт-инжиниринг и зачем он нужен
Промпт-инжиниринг — это практика проектирования входных данных (промптов) для языковых моделей с целью получить предсказуемый, точный и полезный результат. Это не просто «правильно сформулировать вопрос» — это системный подход к взаимодействию с LLM.
Зачем это нужно, если модели «и так умные»? Потому что LLM — это вероятностные системы. Они не читают мысли. Без чётких инструкций модель вынуждена угадывать, что вы имеете в виду, и часто угадывает неправильно. Промпт-инжиниринг устраняет эту неопределённость.
Базовые техники: фундамент
Zero-shot prompting
Самый простой подход — дать модели задачу без примеров. Работает для стандартных задач, где модель уже «знает», что делать.
Классифицируй отзыв как положительный, отрицательный или нейтральный:
"Доставка быстрая, но упаковка была повреждена."
Ответ: нейтральный
Когда использовать: начинайте с zero-shot. Если результат неудовлетворительный — переходите к few-shot.
Few-shot prompting
Добавляем несколько примеров в промпт, чтобы модель «уловила паттерн»:
Переведи технические термины на понятный русский:
"Latency" → "Задержка отклика"
"Throughput" → "Пропускная способность"
"Jitter" → "Дрожание сигнала"
"Bandwidth" →
Модель продолжит в заданном стиле: «Пропускная способность канала» или «Ширина полосы пропускания».
Структура эффективного промпта
Каждый хороший промпт содержит пять элементов:
| Элемент | Описание | Пример |
|---|---|---|
| Роль | Кто модель в этом контексте | «Ты — senior Python-разработчик» |
| Контекст | Фоновая информация | «В проекте используется FastAPI и PostgreSQL» |
| Задача | Что конкретно нужно сделать | «Напиши эндпоинт для регистрации» |
| Формат | Как должен выглядеть ответ | «Код с комментариями, без лишних пояснений» |
| Ограничения | Что нельзя делать | «Не используй ORM, только raw SQL» |
Главный принцип: структура важнее длины. Короткий, но чётко структурированный промпт всегда обыграет длинное «полотно» без логики.
Продвинутые техники: когда базовых недостаточно
Chain-of-Thought (CoT) — цепочка рассуждений
CoT заставляет модель рассуждать пошагово вместо того, чтобы сразу выдавать ответ. Это критично для задач с логикой, математикой, анализом.
Без CoT:
В магазине 47 яблок. Купили 3 пакета по 12 яблок.
Потом продали 28. Сколько осталось?
Ответ: 31 ← неверно
С CoT:
В магазине 47 яблок. Купили 3 пакета по 12 яблок.
Потом продали 28. Сколько осталось?
Давай решим пошагово.
1. Начало: 47 яблок
2. Купили: 3 × 12 = 36 яблок
3. Всего стало: 47 + 36 = 83
4. Продали 28: 83 − 28 = 55
Ответ: 55 ← верно
Tree-of-Thought (ToT) — дерево мыслей
Если CoT — это одна цепочка рассуждений, то ToT — это несколько параллельных ветвей с выбором лучшей. Модель «обдумывает» задачу с разных сторон.
Рассмотри три разных подхода к решению этой задачи.
Для каждого подхода:
1. Опиши стратегию
2. Проведи рассуждение
3. Оцени уверенность (1-10)
Затем выбери лучший подход и дай финальный ответ.
По данным исследования Yao et al. (NeurIPS, 2023), ToT решил 74% задач Game of 24 против 4% у обычного CoT. Но есть цена: ToT потребляет в 10–50 раз больше токенов.
Self-Consistency — самосогласованность
Идея: генерируем несколько независимых цепочек рассуждений и выбираем ответ, который повторяется чаще всего. По данным Wang et al. (Google Research, 2022), self-consistency поверх CoT повысила точность на бенчмарке GSM8K на +17,9%.
ReAct — рассуждение + действие
ReAct объединяет рассуждение с выполнением действий: модель чередует мысли («Мне нужно найти…») с действиями («Поиск: …») и наблюдениями («Результат: …»). Эта техника лежит в основе современных AI-агентов.
graph TD
A[Запрос пользователя] --> B{Выбор техники}
B -->|Простая задача| C[Zero-shot]
B -->|Нужен формат/стиль| D[Few-shot]
B -->|Логика/анализ| E[Chain-of-Thought]
B -->|Сложная проблема| F[Tree-of-Thought]
B -->|Критичная точность| G[Self-Consistency]
B -->|Нужны внешние данные| H[ReAct]
C --> I[Результат]
D --> I
E --> I
F --> I
G --> I
H --> I
Сравнение техник: когда что использовать
| Техника | Сложность | Стоимость токенов | Лучше всего для | Прирост точности |
|---|---|---|---|---|
| Zero-shot | Низкая | 1× | Простые задачи, классификация | Базовый уровень |
| Few-shot | Низкая | 1,5–2× | Форматирование, стиль, нестандартные задачи | +10–15% |
| Chain-of-Thought | Средняя | 2–3× | Математика, логика, анализ | +20–30% |
| Tree-of-Thought | Высокая | 10–50× | Планирование, креатив, сложная логика | +40–70% |
| Self-Consistency | Средняя | 5–10× | Задачи с единственным верным ответом | +15–20% |
| ReAct | Высокая | Зависит от инструментов | Задачи с внешними данными, агенты | Зависит от задачи |
Особенности моделей: один промпт не подходит всем
Каждая модель имеет свои предпочтения в форматировании:
Claude (Anthropic)
Claude хорошо работает с XML-тегами для структурирования. Модели семейства Claude 4.x следуют инструкциям буквально — если вы не попросили что-то, вы это не получите:
<role>Ты — технический писатель</role>
<context>Документация для REST API платёжного сервиса</context>
<task>Напиши описание эндпоинта POST /payments</task>
<format>Markdown, с примерами запроса и ответа</format>
GPT-4o (OpenAI)
GPT-4o лучше реагирует на числовые ограничения и чёткие форматные указания:
Напиши 3 варианта заголовка для статьи о промпт-инжиниринге.
Требования: до 60 символов, содержит цифру, без кликбейта.
Формат: нумерованный список.
Gemini (Google)
Gemini сильнее всего, когда формат жёстко задан в начале промпта. Хорошо справляется с длинными структурированными ответами, но склонен превышать лимиты без явных ограничений:
ФОРМАТ ОТВЕТА: JSON с полями title, summary (до 50 слов), tags (массив из 5 элементов).
ЗАДАЧА: Проанализируй следующий текст...
## Роль
[Кто ты в этом контексте]
## Контекст
[Что нужно знать для выполнения задачи]
## Задача
[Конкретное действие]
## Формат ответа
[Структура, длина, стиль]
## Ограничения
[Чего НЕ делать]
## Примеры (опционально)
[1–3 примера ожидаемого результата]
Практические паттерны для повседневной работы
Итеративная доработка
Не пытайтесь написать идеальный промпт с первого раза. Работайте итерациями:
- Начните с простого — zero-shot запрос
- Оцените результат — что не так?
- Добавьте контекст — роль, ограничения, формат
- Добавьте примеры — если формат всё ещё «плывёт»
- Добавьте рассуждения — CoT для сложных задач
Контекстная инженерия
В 2026 году на передний план вышло понятие context engineering — проектирование не просто промпта, а всего контекста, который получает модель. Это включает:
- RAG (Retrieval-Augmented Generation) — подгрузка релевантных документов
- Суммаризация — сжатие длинного контекста до ключевых фактов
- Структурированные входы — JSON, XML, таблицы вместо «стены текста»
Промпт — это интерфейс. Контекст — это данные. Мастерство — в проектировании и того, и другого.
Чек-лист перед отправкой промпта
| Проверка | Вопрос |
|---|---|
| Ясность | Может ли кто-то другой понять задачу из промпта? |
| Конкретность | Есть ли числовые ограничения (длина, количество)? |
| Формат | Указан ли желаемый формат ответа? |
| Негативные инструкции | Указано ли, чего НЕ делать? |
| Примеры | Нужны ли примеры для калибровки? |
| Тестируемость | Как вы поймёте, что ответ хороший? |
Заключение
Промпт-инжиниринг — это не хитрость, а навык. Как любой навык, он тренируется практикой. Ключевые принципы, которые стоит запомнить:
- Структура важнее длины. Чёткие роль, контекст, задача и формат побеждают многостраничные инструкции.
- Начинайте просто. Zero-shot → few-shot → CoT. Не усложняйте без причины.
- Каждая модель — свой подход. XML-теги для Claude, числовые ограничения для GPT-4o, формат в начале для Gemini.
- CoT — ваш главный инструмент для задач с логикой, но для reasoning-моделей он уже встроен.
- Итерируйте. Идеальный промпт с первой попытки — исключение, не правило.
Модели становятся умнее, но потребность в точном управлении ими не исчезает — она трансформируется. Те, кто освоит промпт-инжиниринг сегодня, завтра перейдут к контекстной инженерии и проектированию AI-систем.