Страница об авторе
Привет, друзья! Меня зовут Владимир Васьков.
Я — предприниматель, эксперт по продажам, привлечению инвестиций и внедрению нейросетей в бизнес. Уже более 13 лет я помогаю компаниям системно расти — от выстраивания отделов продаж до получения многомиллионного финансирования. За это время мои клиенты привлекли более 43 миллиардов рублей, а я лично обучил и проконсультировал более 35 000 предпринимателей и специалистов.
Я основал консалтинговую компанию VASKOV CONSULTING, веду интенсивы, стратегические сессии и корпоративные тренинги, выступаю как наставник в проектах «ОПОРА РОССИИ», «Мой бизнес», «Росмолодёжь», «Малый Бизнес Москвы» и ряде региональных программ развития. В моём портфолио — проекты с компаниями Сбер, Лукойл, Яндекс Go, Минэкономразвития, ЕвроХим, Роквул и другими.
В основе моих подходов — простота, применимость и результат. Именно поэтому я написал эту мини-книгу: чтобы поделиться с вами рабочими техниками взаимодействия с языковыми моделями, которые реально помогают в жизни и бизнесе. Без «воды», с практикой, примерами и готовыми шаблонами.
Если вы — специалист, предприниматель или просто увлечённый человек, которому интересно, как эффективно работать с ИИ, — эта книга для вас.
введение
Мы живём в эпоху, когда тексты, коды, стратегии и даже бизнес-идеи может создавать искусственный интеллект. Точнее — языковая модель.
Но чтобы ИИ был по-настоящему полезен, недостаточно просто ввести запрос.
Именно здесь на сцену выходит prompt engineering — искусство и наука общения с нейросетями.
Для кого эта книга?
Эта мини-книга создана не для учёных и не для тех, кто пишет код с 8 лет. Она для людей, которые хотят использовать ИИ как реального помощника: в работе, учёбе, творчестве, бизнесе или даже в быту.
Здесь вы не найдёте заумной терминологии или лишней теории.
Только понятные подходы, проверенные шаблоны и примеры, которые работают.
Что вы получите?
На этих страницах — всё, что нужно для старта и роста в мире нейросетей:
— Узнаете как устроены языковые модели и как они «понимают» текст
— Разберетесь в техниках Zero-shot, Few-shot и Chain of Thought
— Изучите как «настроить» ИИ под себя с помощью ролей и инструкций
— Избежите типичных ошибок и не тратить время впустую
— Научитесь использовать готовые промпты для маркетинга, аналитики, креатива, обучения и др.
— Начнете применять лучшие сервисы, расширения и инструменты для создания идеальных промптов
Как читать?
Можно подряд. А можно — по главам, по задачам, по вдохновению. Эта книга не требует технических знаний, но поможет почувствовать себя уверенно в общении с ChatGPT и другими ИИ-инструментами.
Всё, что вам нужно — желание научиться задавать правильные вопросы.
Помните: не все беседы с ИИ приводят к идеальному результату с первого раза — экспериментируйте с техниками и все получится.
Остальное — внутри. Готовы? Тогда начнём!
Введение в промптинг и языковые модели
Большие языковые модели (LLM) — это не только технология будущего, но и полноценный инструмент настоящего, который постепенно проникает в повседневную жизнь. Мы встречаем их в чат-ботах, голосовых помощниках, генераторах текста, переводчиках, редакторах и даже в инструментах анализа данных.
Но как они работают?
Всё начинается с простого: с текста, который вы вводите в модель. Это и есть промпт: ваш запрос, инструкция или вопрос, на который модель должна ответить. Промпт — это диалог с умным помощником: чем яснее вы формулируете мысль, тем точнее и полезнее будет ответ.
Типы промптов
Промпт — это то, как вы «разговариваете» с моделью.
Например:
— «Составь план запуска онлайн-курса по дизайну интерьеров»
— «Придумай название для кофейни у метро»
— «Сравни Apple и Samsung по четырем критериям: цена, камера, батарея, экосистема»
Даже такая простая фраза, как «Напиши шутку про бухгалтеров», — это уже промпт. И от его качества зависит, насколько хорошим будет результат.
Зачем нужны хорошие промпты?
Хороший промпт — это не просто запрос. Это инструмент настройки модели. Как правильно заданный вопрос может развернуть глубокий разговор, так и правильно сформулированный промпт «включает» в модели нужные знания, стиль и формат.
Плохой промпт → туманный ответ
Чёткий промпт → понятный, полезный и структурированный результат
Текстовые и мультимодальные промпты
Существует два основных типа промптов:
1. Текстовые — самый распространённый формат. Вы вводите текст — модель отвечает текстом.
Пример: «Сделай краткое резюме этой статьи» или «Напиши email в деловом стиле»
2. Мультимодальные — вы даёте на вход не только текст, но и изображения, аудио, видео.
Пример: загрузить фото интерьера и попросить «оценить стилистику и предложить улучшения», или отправить аудиофайл и запросить «выдели ключевые тезисы».
Почему эта тема важна?
Промптинг — это новая цифровая грамотность. Умение правильно общаться с ИИ скоро станет таким же важным, как знание Excel или Google Docs. И хотя языковые модели становятся всё умнее, они по-прежнему зависят от того, как вы с ними разговариваете.
Зачем нужна эта книга?
Сегодня множество специалистов — от маркетологов и учителей до разработчиков и предпринимателей — используют LLM в работе, но при этом не знают, как получить от них максимум. Промпты часто пишутся «интуитивно», без структуры, без понимания техник и возможностей. Результат — непредсказуемость, ошибки, повторная работа.
Цель этой книги — систематизировать знания о промптинге и сделать их доступными без технического жаргона. Мы рассмотрим десятки техник, подходов, примеров и шаблонов — всё, что поможет вам уверенно и эффективно взаимодействовать с языковыми моделями.
Используйте данную книгу как настольную и это приведет вас к максимальному использованию LLM нейросетей в свою пользу.
Обучение в контексте (In-Context Learning, ICL)
Адаптация модели без дообучения — прямо в промпте
Одной из самых революционных особенностей современных языковых моделей стало их умение учиться прямо в момент запроса — без традиционного переобучения. Это свойство получило название In-Context Learning (ICL), или обучение в контексте.
Суть метода проста: вы предоставляете модели несколько примеров прямо в теле промпта, и она начинает выполнять аналогичную задачу, подстраиваясь под структуру, стиль и логику этих примеров. Такое обучение «на лету» помогает решать широкий спектр задач: от настройки формата генерации до имитации специализированных процессов.
Что такое ICL?
In-Context Learning (ICL) — это способность языковой модели выполнять задачу, опираясь только на содержимое промпта, в котором содержатся инструкции, примеры и формат ответа. Модель не изменяет свои параметры, но временно перенимает паттерн поведения, заданный примерами.
Пример:
Вместо того чтобы обучать модель классифицировать отзывы, можно вставить 3–5 примеров:
Отзыв: «Очень понравилось обслуживание» → Метка: Позитивный
Отзыв: «Было слишком долго и шумно» → Метка: Негативный Затем — новый отзыв, без метки.
Модель продолжит по шаблону.
Принципы эффективного ICL
1. Количество примеров: Эффективность ICL увеличивается по мере роста числа примеров (часто достаточно 3–5 для ChatGPT, до 30–50 для GPT-4).
2. Порядок примеров: Модели склонны обращать больше внимания к последним примерам («эффект новизны»).
3. Балансировка классов: В задачах анализа текста важно равномерное распределение примеров по классам.
4. Качество разметки: Примеры с экспертной аннотацией повышают точность ICL до 15–25%.
5. Единый формат: Используйте чёткие структуры — «Пример 1:», «Вход:», «Выход:».
6. Семантическое сходство: Примеры должны соответствовать целевой задаче по стилю, длине и тематике.
Где применяется ICL на практике
— Быстрая адаптация модели к бизнес-стилю
— Классификация обращений
— Обработка таблиц и форм
— Проверка гипотез без датасета
— Симуляция экспертов по ролям
Преимущества
— Не требует дообучения модели
— Гибкий подход
— Подходит для генерации и анализа
— Прототипирование функций за минуты
— Совместим с любой LLM, поддерживающей промпты
Типичные ошибки при использовании In-Context Learning (ICL)
Чтобы ICL работал эффективно, важно избегать распространённых ошибок, которые снижают точность, сбивают модель с толку или делают промпт неоднозначным:
1. Смешение разных форматов в примерах
Ошибка: часть примеров в формате «Вопрос — Ответ», часть — в стиле таблицы или тезисов.
Почему плохо: модель теряет единообразие шаблона.
Что делать: придерживайтесь одного чёткого формата во всех примерах.
2. Слишком обобщённые или абстрактные формулировки
Ошибка: инструкции вроде «сделай хорошо» или «напиши красиво».
Почему плохо: модель не понимает критерии качества.
Что делать: формулируйте конкретно: стиль, тональность, структура, ограничения.
3. Слишком длинные или перегруженные примеры
Ошибка: вставка примеров на 500+ слов каждый.
Почему плохо: вы тратите контекстное окно и «утопаете» в деталях.
Что делать: сокращайте примеры до сути (100–150 слов), убирая лишнее.
4. Примеры не соответствуют целевой задаче
Ошибка: хотите, чтобы модель писала статьи, а вставили примеры постов.
Почему плохо: модель перенимает стиль и формат, который вам не нужен.
Что делать: подбирайте примеры максимально похожие на желаемый результат.
5. Нарушение баланса классов в задачах классификации
Ошибка: 5 позитивных отзывов и 1 негативный.
Почему плохо: модель начинает «переобучаться» на доминирующий класс.
Что делать: соблюдайте равенство: 2–3 примера на каждый класс.
6. Отсутствие разграничителей или заголовков в примерах
Ошибка: текст сливается в одну «массу», модель не видит структуру.
Что делать: используйте чёткие маркеры:
Пример :
Вход:…
Выход:…
7. Добавление нерелевантной информации в промпт
Ошибка: вставка вводного текста, который не относится к задаче.
Почему плохо: модель может принять это за часть шаблона.
Что делать: очищайте промпт от всего лишнего — только то, что влияет на поведение модели.
Вывод
In-Context Learning — ключевая техника адаптации модели к задаче с помощью примеров прямо в запросе. Она позволяет быстро и гибко управлять поведением ИИ без технических барьеров.
Написание промптов с малым количеством примеров (Few-Shot Prompting)
Как научить модель на лету — без переобучения и кода?
Few-Shot Prompting — это одна из ключевых техник эффективной работы с языковыми моделями. Эта техника позволяет быстро адаптировать поведение модели к нужному стилю, логике и формату ответа. Этот метод особенно ценен, когда необходимо быстро перейти от «общего интеллекта» модели к решению специализированных задач, не прибегая к тонкой настройке или дообучению.
В чём суть Few-Shot подхода?
Модель получает 2–4 примера выполнения аналогичной задачи, оформленных в едином стиле, например:
— вопрос → ответ
— задание → решение
— вход → желаемый выход
На основе этих примеров модель перенимает структуру, стиль, тональность и формат ответа.
Где особенно эффективен метод:
— Генерация шаблонных текстов (описания товаров, вакансий, писем)
— Форматирование данных и работа с таблицами
— Написание кода в заданном стиле
— Классификация и категоризация данных
— Поддержание заданного стиля коммуникации (официальный, дружелюбный и т.д.)
Что входит в продвинутый Few-Shot Prompting:
Помимо простого указания пары примеров, сегодня применяются и более сложные методы, которые усиливают результат:
— KNN (K-Nearest Neighbors) — выбор наиболее похожих примеров по смыслу
— Vote-K — множественная генерация и отбор лучших примеров
— SG-ICL (Self-Generated In-Context Learning) — когда модель сама создаёт себе примеры
— LENS, UDR, Active Selection — автоматизированные стратегии улучшения выборки
Few-Shot Prompting — гибкий и масштабируемый инструмент, который можно адаптировать под любую задачу. В этой главе мы научимся не только формировать примеры, но и выбирать лучшие, тестировать разные форматы, и строить на их основе надежную и понятную систему взаимодействия с ИИ.
K-Nearest Neighbor (KNN)
K-Nearest Neighbor (KNN) Prompting — это техника, при которой для нового запроса автоматически подбираются наиболее похожие примеры из базы заданий (промптов) и вставляются в запрос к языковой модели.
Смысл в том, что модель лучше справляется с задачей, если ей показать не случайные примеры, а те, что максимально близки по содержанию или структуре к текущему запросу.
Как работает:
— Вы формируете базу промптов с готовыми примерами задач и ответов.
— Когда поступает новая задача, система ищет в базе N наиболее похожих примеров.
— Эти примеры подаются в промпт перед новой задачей — как контекст.
Пример:
Если пользователь спрашивает:
«Как улучшить вовлечённость в рассылке для интернет-магазина одежды?»
Система может найти в базе похожие вопросы:
«Как повысить CTR email-рассылки для e-commerce?»
«Как сделать письма более кликабельными?»
И подставить их как Few-Shot-примеры перед ответом.
Преимущества:
- Даёт более точные ответы за счёт релевантного контекста
- Масштабируется при наличии базы готовых кейсов
- Хорошо работает в условиях ограниченного количества примеров
Пример шаблона промпта с использованием метода K-Nearest Neighbor (KNN) в контексте классификации отзывов по тональности:
Задача:
Классифицировать отзыв клиента как положительный, нейтральный или отрицательный.
Промпт (шаблон KNN-подхода):
Ты — система анализа тональности. Используй приведённые примеры отзывов, чтобы определить тональность нового текста. Оцени схожесть и выбери класс на основе наиболее похожих.
Примеры:
Отзыв: «Приложение работает быстро, всё удобно и понятно.»
Тональность: Положительная
Отзыв: «Интерфейс хороший, но часто зависает.»
Тональность: Нейтральная
Отзыв: «Постоянно вылетает, невозможно нормально пользоваться.»
Тональность: Отрицательная
Теперь проанализируй следующий отзыв и укажи его тональность с объяснением выбора:
Отзыв: «Функции вроде есть, но половина не работает, техподдержка игнорирует.»
Ожидаемый ответ:
Тональность: Отрицательная
Обоснование: Отзыв содержит негативные оценки («не работает», «техподдержка игнорирует»), что схоже с примером «Постоянно вылетает…» — следовательно, классификация — отрицательная.
Такой шаблон можно адаптировать под любую задачу:
— Классификация эмоций
— Определение категории текста
— Маркировка спама / не-спама
— Подбор релевантных решений по аналогии
Vote-K Prompting
Vote-K — это техника, при которой языковая модель сначала генерирует несколько разных вариантов ответа (кандидатов) на одну и ту же задачу, без указания правильного ответа.
Затем каждый из этих вариантов оценочно сравнивается — либо самой моделью, либо внешним критерием (например, другим промптом или экспертом). Побеждают те ответы, которые получают наибольшее количество "голосов" — то есть считаются наилучшими по качеству или соответствию цели.
После этого отобранные (аннотированные) варианты могут использоваться:
— как шаблоны для будущих промптов,
— как контекст в последующих Few-shot задачах,
— для обучения более точной версии модели.
Как работает:
— Модель генерирует K вариантов ответа.
— Оценивает или сравнивает их (через вспомогательный промпт или критерия).
— Выбирает наиболее релевантные (по «голосам»).
— Использует выбранные как примеры или лучшие ответы.
Применение:
— Улучшение качества ответов (особенно в генеративных задачах)
— Повышение надёжности в задачах с высоким риском ошибок
— Сбор обучающих данных на основе лучших сгенерированных примеров
Пример:
Задача: «Сформулируй заголовок к email-рассылке по акции»
Модель генерирует:
«Скидки до 50% — только сегодня!»
«Распродажа мечты — не упусти шанс»
«Время обновить гардероб — акции внутри»
Вспомогательный промпт или оценщик выбирает 2 и 3 как лучшие. Они попадают в финальный ответ или используются как примеры в будущем.
Преимущества:
— Меньше случайных или слабых ответов
— Возможность повысить точность без дополнительного обучения
— Сбор лучших практик и наглядных кейсов в автоматическом режиме
Пример шаблона промпта с использованием метода Vote-K, где модель сначала генерирует несколько «кандидатов-решений», а затем выбирает наилучшие и обучается на них:
Задача:
Написать заголовок к статье на тему «Как повысить продуктивность при удалённой работе»
Промпт-шаблон (Vote-K):
Ты — редактор онлайн-медиа. Сначала предложи 5 вариантов заголовков к статье на тему «Как повысить продуктивность при удалённой работе». Затем выбери 2 лучших по критериям: цепкость, ясность, соответствие теме. Объясни свой выбор.
ШАГ 1: Сгенерируй 5 заголовков.
ШАГ 2: Выбери 2 лучших и объясни, почему именно они.
Ожидаемый ответ:
ШАГ 1: Кандидаты (5 заголовков):
1. Как быть продуктивным, работая из дома
2. Твоя квартира — твой офис: секреты эффективности
3. Продуктивность на удалёнке: 7 проверенных методов
4. Работай из дома, как профи: гайд для современного специалиста
5. Почему ты устаёшь на удалёнке и как это исправить
ШАГ 2: Отбор лучших:
Продуктивность на удалёнке: 7 проверенных методов — коротко, по делу, с числом (это работает в заголовках)
Работай из дома, как профи: гайд для современного специалиста — конкретика и ценность («гайд»), обращение к целевой аудитории
Эти лучшие примеры затем можно использовать в следующих промптах как эталонные (аннотированные) для дообучения или генерации в другом стиле.
Self-Generated In-Context Learning (SG-ICL)
SG-ICL — это техника, при которой сама языковая модель генерирует примеры (задание → ответ), если у пользователя нет готовых обучающих данных или шаблонов.
Модель сначала получает задачу, а затем сама предлагает 1–3 примера, которые можно использовать в качестве контекста для дальнейшей генерации. Метод позволяет обойтись без ручной подготовки примеров, что особенно полезно в новых или нестандартных ситуациях.
Как работает:
— Пользователь формулирует задачу (например, «Напиши описание продукта по названию и характеристикам»).
— Модель сама придумывает 2–3 примера выполнения этой задачи.
— Эти примеры вставляются в промпт как контекст.
— Далее модель продолжает работу по аналогии с созданными ею же примерами.
Пример:
Промпт:
«Сгенерируй несколько примеров описания товаров, а затем создай новое по образцу. Категория: Умная колонка
Характеристики: голосовое управление, Bluetooth, дизайн в стиле минимализм»
Модель может сама добавить:
Пример 1:
Категория: Фитнес-браслет
Особенности: Пульсометр, трекер сна, OLED-экран
Описание: Умный помощник для вашего здоровья — контролируйте активность и сон в реальном времени.
Пример 2:
Категория: Беспроводные наушники
Особенности: Шумоподавление, автономность до 20 ч, зарядка через USB-C
Описание: Чистый звук без проводов — комфорт и качество в любом ритме жизни.
Категория: Умная колонка
Особенности: голосовое управление, Bluetooth, дизайн в стиле минимализм
Описание:
Применение
— Когда нет готовых данных, но хочется применить Few-shot подход
— Для ускоренной генерации шаблонов «на лету»
— При создании обучающих материалов, типовых форм, инструкций
Преимущества:
- Экономит время: не нужно вручную собирать примеры
- Повышает согласованность вывода
- Помогает работать с новыми темами без предварительной подготовки
Шаблон промпта с использованием метода Self-Generated In-Context Learning (SG-ICL) — когда модель сама генерирует обучающие примеры, чтобы затем использовать их для выполнения задачи.
Задача:
Определить тональность пользовательских отзывов.
Промпт-шаблон (SG-ICL):
Ты — система анализа тональности. У тебя пока нет готовых обучающих данных, поэтому сначала сгенерируй 3 примера отзывов с метками тональности: положительная, нейтральная, отрицательная.
Затем, используя эти примеры, проанализируй новый отзыв и укажи его тональность с обоснованием.
ШАГ 1: Сгенерируй обучающие примеры.
ШАГ 2: Проанализируй целевой отзыв.
Ожидаемый ответ:
ШАГ 1 — Сгенерированные примеры:
1. «Очень доволен, всё работает быстро и стабильно.»
Тональность: Положительная
2. «Приложение нормальное, но ничего особенного.»
Тональность: Нейтральная
3. «После обновления не запускается, жалею о покупке.»
Тональность: Отрицательная
ШАГ 2 — Новый отзыв: «Интерфейс удобный, но часто возникают ошибки при оплате.»
Тональность: Нейтральная
Обоснование: Как и во втором примере, есть положительные и негативные моменты, что даёт смешанную, но сбалансированную оценку.
SG-ICL особенно полезен, когда:
— нет доступа к реальным примерам
— нужно быстро адаптировать модель к новому типу задач
— необходимо протестировать гипотезу «на лету»
Prompt Mining
Prompt Mining — это метод систематического поиска наиболее эффективных формулировок промптов для конкретной задачи. Вместо того чтобы полагаться на шаблон «вопрос → ответ», этот подход предполагает анализ и тестирование различных вариантов инструкций, чтобы найти те, которые дают наилучший результат.
По сути, это исследование различных формулировок промптов, направленное на выявление наиболее результативных.
Как работает
— Берётся конкретная задача (например, генерация текстов, классификация, объяснение понятий).
— Генерируется или собирается большое количество промптов с разными формулировками.
— Все варианты тестируются на модель, и сравниваются по результатам (качество, полнота, стиль, точность).
— Выявляются наиболее результативные шаблоны, которые затем можно стандартизировать и использовать повторно.
Пример:
Вместо простого:
«Объясни, что такое экономическая рецессия»
Могут быть протестированы такие варианты:
«Ты — профессор экономики. Объясни студенту, что такое рецессия, простыми словами.»
«Приведи краткое определение экономической рецессии с примерами.»
«Объясни термин „экономическая рецессия“ как для старшеклассника, используя аналогии.»
Анализ покажет, какой формат даёт самый понятный и точный результат.
Когда применять:
— При разработке промптов для массового использования (чат-боты, обучающие ИИ-сценарии, генерация контента)
— В UX-исследованиях взаимодействия с LLM
— Для повышения качества и надёжности ответов в критичных задачах (финансы, медицина, право)
Преимущества:
— Позволяет находить нетривиальные, но эффективные способы взаимодействия с моделью
— Повышает качество вывода без изменений в самой модели
— Помогает формировать библиотеку рабочих промптов под задачи бизнеса, продукта или пользователя
Пример-шаблон, демонстрирующий Prompt Mining — метод, при котором мы ищем и тестируем разные формулировки промптов, чтобы найти наиболее эффективные.
Задача:
Получить от модели краткий и точный пересказ новостной статьи.
Промпт-шаблон (Prompt Mining):
Твоя задача — найти наиболее эффективную формулировку промпта для задачи: «Сделай краткий пересказ новости».
ШАГ 1: Придумай 3 разных формулировки промпта, каждая в разном стиле.
ШАГ 2: Применишь их к одному и тому же тексту.
ШАГ 3: Сравни результаты и выбери лучший по критериям: точность, краткость, логичность.
Текст новости:
«Компания X анонсировала запуск новой платформы для анализа данных. Решение предназначено для малого и среднего бизнеса. Ожидается, что запуск состоится в третьем квартале 2025 года.»
Начинай.
Ожидаемый ответ:
ШАГ 1 — Варианты промптов:
1. Формулировка 1 (инструктивный): «Сделай краткий пересказ следующей новости.»
2. Формулировка 2 (ролевой): «Ты — редактор новостного сайта. Напиши короткую аннотацию для читателей.»
3. Формулировка 3 (журналистский стиль): «Представь, что ты пишешь заголовок и лид к заметке. Перескажи суть.»
ШАГ 2 — Результаты:
1: «Компания X запускает платформу для аналитики данных. Релиз — в Q3 2025.»
2: «Компания X объявила о запуске новой аналитической платформы для малого и среднего бизнеса. Выход — в третьем квартале 2025.»
3: «X запускает новый продукт: аналитическая платформа для бизнеса. Релиз — Q3 2025.»
ШАГ 3 — Вывод: Промпт №2 дал наиболее ясный и сбалансированный ответ — подходит как для пересказа, так и для читательской аннотации. Рекомендуется использовать его как шаблон.
Вывод
Few-Shot Prompting не только позволяет эффективно решать задачи с минимальным числом примеров, но и открывает возможности для масштабирования и оптимизации. Благодаря тестированию различных формулировок и сбору метрик, можно систематически находить наиболее результативные шаблоны, что делает этот подход мощным инструментом для тонкой настройки генерации, классификации, перевода и других LLM-задач.
Сложные техники Few-Shot Prompting
Как обучать модель на лету без переобучения?
Few-Shot Prompting — это мощный инструмент, который позволяет обучать языковую модель на лету, предоставляя ей всего несколько примеров для ориентира. Но за рамками базового подхода («вопрос → ответ», повторенный 2–3 раза) скрывается целый пласт продвинутых стратегий, которые превращают Few-Shot в настоящую систему настройки модели под задачу — без дополнительного обучения.
В этой главе мы сосредоточимся на сложных техниках Few-Shot Prompting, таких как:
— LENS — итеративная фильтрация, которая отбирает только релевантные примеры и постепенно улучшает качество результата.
— UDR — умное извлечение данных на основе векторной близости и семантики.
— Active Example Selection — активный выбор примеров с использованием обратной связи и обучения с подкреплением.
В чём сила этих методов?
— Они позволяют адаптировать модель к конкретной задаче за секунды — без переобучения и без доступа к большим датасетам.
— Они повышают точность и устойчивость модели в нестандартных или сложных сценариях.
— И что особенно важно: они открывают путь к масштабируемому и автоматизированному созданию примеров, что делает Few-Shot не разовой техникой, а системным инструментом.
Эти техники особенно актуальны в условиях, когда:
— требуется высокая точность без дополнительного обучения,
— есть ограниченный доступ к обучающим данным,
— или задача постоянно меняется в зависимости от контекста и цели.
В следующих разделах вы найдёте подробное описание каждого метода, примеры их использования и шаблоны промптов, которые можно адаптировать под собственные задачи.
LENS (Итеративная фильтрация)
LENS — это метод, при котором качество используемых примеров для языковой модели постепенно улучшается за счёт последовательной фильтрации. Система или пользователь многократно отбирают наиболее релевантные и полезные примеры, отбрасывая слабые или шумные.
Такой подход позволяет добиться более точных, логичных и соответствующих задачам ответов — особенно в сложных или чувствительных контекстах.
Как это работает:
Шаг 1 — собрать широкий набор примеров (например, 10–20 ответов на похожие задачи);
Шаг 2 — фильтрация, отсеиваются нерелевантные, дублирующие, поверхностные или некорректные.
Шаг 3 — оценка оставшихся: какие примеры действительно помогли бы модели понять задачу?
Шаг 4 — повторная фильтрация. Сохраняются только лучшие (например, 3–5), которые используются как контекст (в Few-shot Prompting).
По мере применения и обратной связи — примеры могут дорабатываться, уточняться или заменяться.
Пример:
Задача: Помочь модели давать точные советы по улучшению презентаций.
Исходный набор примеров:
— Общие советы из интернета — Сильные тезисы из TED-презентаций — Слабые рекомендации без аргументов
— Кейсы с реальными примерами и результатами
После фильтрации остаются 3 примера с конкретными рекомендациями и форматированием по шаблону «до → после», которые модель использует в дальнейшей генерации.
Когда использовать:
— При построении обучающих наборов для моделей
— В задачах, где требуется высокая точность или соответствие тону
— При создании базы «эталонных» ответов для подражания
Преимущества:
— Позволяет улучшать результаты без изменения модели — только за счёт качества контекста
— Поддерживает качественное масштабирование промптов (особенно в автоматизированных системах)
— Повышает понятность и применимость генерируемых ответов
Пример шаблона промпта с использованием метода LENS (итеративная фильтрация) — подхода, при котором модель поэтапно улучшает выборку обучающих примеров, отбрасывая менее релевантные и усиливая контекст.
Задача:
Создать подборку наиболее полезных примеров заголовков для статей о здоровье.
Промпт-шаблон (LENS — итеративная фильтрация):
Ты — редактор медиа о здоровье. У тебя есть 7 заголовков. Твоя задача — выбрать сначала топ-4, затем из них — финальные 2 лучших по критериям: ясность, конкретность, кликабельность.
ШАГ 1: Отбери 4 лучших заголовка из 7.
ШАГ 2: Из оставшихся выбери 2 финалиста и объясни свой выбор.
Вот заголовки:
1. «Утренние привычки, которые меняют жизнь»
2. «5 причин пить воду натощак»
3. «Как восстановить сон без таблеток»
4. «Здоровье — это просто»
5. «Что скрывают производители БАДов»
6. «Лучшие упражнения для спины»
7. «Как не заболеть осенью: советы врачей»
Ожидаемый ответ:
ШАГ 1 — Отбор 4 заголовков:
2. «5 причин пить воду натощак»
3. «Как восстановить сон без таблеток»
6. «Лучшие упражнения для спины»
7. «Как не заболеть осенью: советы врачей»
Комментарий: Эти заголовки конкретны, несут пользу, содержат цифры и ключевые слова (сон, упражнения, осень, вода).
ШАГ 2 — Финальный выбор 2 заголовков:
3. «Как восстановить сон без таблеток»
7. «Как не заболеть осенью: советы врачей»
Обоснование: Обе темы актуальны, легко масштабируются в полезные статьи, содержат элемент практической пользы и высокий поисковый потенциал.
В этом примере LENS используется как двухшаговая воронка отбора: сначала широкая фильтрация, затем уточнение. Такой шаблон подходит для:
— отбора обучающих примеров
— построения датасетов
— выбора тональности, цитат, шаблонов
— генерации контента «по качеству»
UDR (Умное извлечение данных)
UDR — это метод интеллектуального подбора информации и примеров, основанный на векторных встраиваниях (embeddings), которые позволяют находить семантически близкие данные — не по ключевым словам, а по смыслу.
В отличие от простого поиска по ключевым словам, UDR использует семантическое сходство (многомерные числовые представления), а затем находит те, которые наиболее близки по значению, даже если формулировки разные.
Как работает:
— Все элементы базы (примеры, документы, фрагменты текста) преобразуются в векторное пространство.
— Пользовательский запрос тоже переводится в вектор.
— Система рассчитывает косинусное сходство между запросом и базой.
— Возвращаются те элементы, которые максимально близки по смыслу.
Пример:
Запрос:
«Как сократить тексты, сохранив суть?»
Модель не ищет буквально слово «сократить», а находит семантически схожие примеры:
— «Сжать статью без потери смысла»
— «Как сделать резюме текста»
— «Упрощение длинных описаний для презентации»
Все эти примеры могут быть возвращены как релевантные, несмотря на разную формулировку.
Где применяется:
— В системах RAG (Retrieval-Augmented Generation)
— В чат-ботах, которые опираются на базу знаний
— При генерации ответов с учётом контекста из документов
— Для подбора обучающих примеров в prompting-сценариях (например, Few-Shot + Embeddings)
Преимущества:
— Позволяет работать не по точному совпадению, а по смысловой близости
— Идеально для объёмных баз знаний и сложных запросов
— Повышает точность и уместность выдачи, даже при расплывчатых формулировках
Пример шаблона промпта с использованием метода UDR (умное извлечение данных) — подхода, при котором модель находит примеры, максимально близкие по смыслу к текущей задаче, используя семантическое сходство.
Задача:
Проанализировать отзыв клиента и классифицировать его как положительный, нейтральный или отрицательный, используя наиболее релевантные по смыслу примеры из базы.
Промпт-шаблон (UDR — умное извлечение):
Ты — система анализа тональности. Найди в базе 3 примера, семантически похожих на целевой отзыв. Затем на их основе классифицируй отзыв и объясни своё решение.
Целевой отзыв:
«Интерфейс симпатичный, но приложение всё время зависает и тормозит. Уже жалею, что скачал.»
База примеров:
1. «Очень доволен, работает стабильно, ничего не тормозит.» → Положительный
2. «Пользоваться можно, но есть мелкие баги и подтормаживает.» → Нейтральный
3. «Неплохо, но интерфейс мог быть получше.» → Нейтральный
4. «Сильно глючит, теряет данные, удаляю.» → Отрицательный
5. «Красиво, но тормозит и часто зависает.» → Отрицательный
6. «Приложение отличное, но иконка не нравится.» → Положительный
Ожидаемый ответ:
Найденные релевантные примеры (по смыслу):
2. «Пользоваться можно, но есть мелкие баги и подтормаживает.» → Нейтральный
4. «Сильно глючит, теряет данные, удаляю.» → Отрицательный
5. «Красиво, но тормозит и часто зависает.» → Отрицательный
Классификация целевого отзыва: Отрицательный
Обоснование: Семантически ближе к примерам 4 и 5 — есть негатив по стабильности и сожаление о скачивании. Нейтральный пример менее релевантен из-за мягкой формулировки.
UDR-подход особенно полезен в:
— классификации отзывов, заявок, писем
— генерации ответов по аналогии
— подборе инструкций или рекомендаций из базы знаний
— анализе ошибок, логов, пользовательских сценариев
Active Example Selection
Active Example Selection — это метод, при котором система динамически подбирает примеры для языковой модели, опираясь на результаты предыдущих взаимодействий. Метод основан на принципах обучения с подкреплением (Reinforcement Learning): примеры оцениваются по их влиянию на результат, стратегия выбора постепенно уточняется.
Как это работает
— Система изначально выбирает случайные или предполагаемо релевантные примеры.
— После каждого ответа модели фиксируется обратная связь (оценка человеком или метрикой).
— Алгоритм обновляет стратегию — например, начинает чаще использовать те примеры, после которых были высокие оценки.
— Со временем выбор становится всё более точным и эффективным.
Пример:
Представьте, что модель помогает составлять деловые письма. Сначала она получает примеры разного стиля — короткие, формальные, с юмором. Пользователь чаще выбирает деловые и лаконичные. Система это «запоминает» и в следующих сессиях чаще предлагает примеры в этом стиле, отсекая лишнее.
Где применяется:
— В интеллектуальных системах подбора примеров (например, адаптивные ассистенты)
— В автообучающихся интерфейсах генерации промптов
— При создании систем с долгосрочной памятью или контекстом
Преимущества
— Учитывает реальную обратную связь, а не предположения
— Повышает персонализацию — подстраивается под стиль пользователя
— Оптимизирует выборку примеров по результату, а не только по сходству
Пример шаблона для метода Active Example Selection — генерация описаний товаров для интернет-магазина.
Задача:
Сгенерировать привлекательное описание товара (рюкзак) для карточки интернет-магазина. Модель выбирает лучшие примеры описаний, пробует применить, получает обратную связь и улучшает выбор.
Промпт-шаблон (Active Example Selection):
Ты — копирайтер для e-commerce. Используй подход Active Example Selection:
Шаг 1.Изучи 5 примеров описаний. Выбери 2 наиболее удачных, которые, по твоему мнению, помогут создать цепляющее описание для нового товара.
Шаг 2.На основе выбранных примеров напиши описание рюкзака «Urban Pro X 25L».
Шаг 3. Получи обратную связь: если описание неудачное — объясни ошибку и выбери другую пару примеров для следующей итерации.
Примеры описаний:
1. «Этот минималистичный рюкзак подойдёт тем, кто ценит стиль и практичность. Подходит для города и путешествий.»
2. «Компактный и вместительный. Отделение для ноутбука 15» и водоотталкивающая ткань делают его идеальным для офиса и учёбы.»
3. «Просто рюкзак. Без лишнего. Делает своё дело.»
4. «Яркий дизайн, много карманов, отличная посадка — ваш идеальный спутник каждый день.»
5. «Классический городской рюкзак с эргономичной спинкой и мягкими лямками. Продуман до мелочей.»
Новый товар:
Urban Pro X 25L
Чёрный рюкзак для города. Объём — 25 литров. Водоотталкивающая ткань, USB-порт, скрытый карман, отделение для ноутбука 16», стильный, мужской дизайн.
Ожидаемый ответ:
Шаг 1 — Выбор примеров:
2 — упор на практичность, офисный стиль
5 — акцент на комфорт и детали
Шаг 2 — Описание: «Urban Pro X 25L — рюкзак для тех, кто ценит практичность и комфорт. Отделение для 16» ноутбука, скрытые карманы, USB-порт и эргономичная спинка делают его отличным выбором для города и поездок.»
Шаг 3 — Обратная связь: Недостаточно ярко. Не цепляет визуально. Описание полезное, но скучное. Недостаёт энергии и эмоционального окраса.
Коррекция: Выбраны новые примеры:
1 — стиль + универсальность
4 — эмоциональный и образный стиль
Этот подход идеально подходит, если ты работаешь с генерацией:
— описаний товаров
— рекламных слоганов
— заголовков, постов, писем
Вывод
Продвинутые техники Few-Shot Prompting делают модель более адаптивной и точной, особенно при ограниченных данных и времени. Это особенно важно в условиях ограниченных данных и ресурсов, когда требуется быстро настроить модель на конкретную задачу. Использование тщательно подобранных примеров повышает точность, стабильность и предсказуемость работы модели.
Написание промптов с нулевым контекстом (Zero-Shot Prompting)
Как давать точные инструкции без примеров?
Один из наиболее доступных и универсальных способов взаимодействия — это Zero-Shot Prompting. Он не требует подготовки обучающих примеров и опирается исключительно на инструкцию, которую получает модель. В этом подходе важны не данные, а формулировка: насколько ясно, точно и логично вы поставили задачу.
Zero-Shot работает особенно хорошо, когда:
— задача достаточно понятна сама по себе,
— требуется оперативный ответ,
— или нет возможности подбирать Few-Shot примеры.
Несмотря на свою простоту, Zero-Shot Prompting способен решать широкий спектр задач — от генерации текстов и перевода до классификации и анализа — при условии, что инструкция написана грамотно.
Основные принципы эффективного Zero-Shot Prompting:
Чёткость. Формулировка задачи должна быть максимально конкретной. Модель не читает между строк — она следует указаниям буквально.
Контекст. Чем больше релевантных деталей вы укажете, тем выше точность ответа. Даже в Zero-Shot важно задать нужный фон: кто, что, для кого, в каком формате.
Простота. Избегайте сложных, двусмысленных или перегруженных конструкций. Чем прямолинейнее инструкция — тем лучше модель её выполнит.
В этой главе мы рассмотрим практику написания Zero-Shot промптов, разберём типичные ошибки, дадим готовые шаблоны и покажем, как добиться максимальной эффективности даже без примеров. Этот подход станет вашей базой — отправной точкой для освоения более сложных техник, таких как Few-Shot, Chain of Thought или Role Prompting.
Role Prompting
Role Prompting — это приём, при котором моделью заранее задаётся определённая роль (например, «бизнес-эксперт», «маркетолог», «психолог», «учитель» и т.д.). Это помогает сформировать нужный стиль, тональность и глубину ответов, сделать их более контекстуальными и полезными.
Как это работает:
В начало промпта добавляется установка вроде:
«Ты — опытный финансовый консультант…»
«Представь, что ты — HR-директор с 10-летним стажем…»
«Ты — преподаватель, объясняющий тему студенту первого курса…»
После этого — формулируется сам запрос.
Модель будет ориентироваться на заданную роль при генерации ответа: выбирать соответствующую лексику, стиль общения, структуру объяснения и даже приоритет информации.
Пример:
Промпт без роли:
Объясни, как работает блокчейн.
Промпт с ролью:
Ты — преподаватель колледжа. Объясни, как работает блокчейн, понятным языком для студентов первого курса.
Результат: второй ответ оказывается проще, с аналогиями и без лишнего жаргона.
Где применяется:
— В обучающих и наставнических сценариях
— В маркетинге, продажах и консультациях (роли: эксперт, клиент, оппонент и т.д.)
— При создании чат-ботов, ИИ-ассистентов, диалогов
— Для генерации текстов в нужной тональности
Преимущества:
— Повышает точность и уместность ответа
— Управляет стилем, глубиной и подходом модели
— Делает ответы более персонализированными и понятными для целевой аудитории
Пример-шаблона для Role Prompting, где модель «входит в роль», чтобы дать более контекстный и осмысленный ответ.
Задача:
Сгенерировать рекомендации по продвижению онлайн-курса.
Промпт-шаблон (Role Prompting):
Ты — опытный digital-маркетолог с 10-летним стажем в сфере онлайн-образования. Твоя задача — дать рекомендации по продвижению нового онлайн-курса на тему «Психология уверенности».
Опиши:
1. Целевую аудиторию
2. Каналы продвижения
3. Типы контента
4. Потенциальные офферы
5. Основные ошибки, которых стоит избежать
Ожидаемый ответ (в роли эксперта):
1.Целевая аудитория: Женщины 25–45 лет, интересующиеся саморазвитием, психологией, коучингом. Особенно — те, кто сталкивается с тревожностью или синдромом самозванца.
2. Каналы: ВК, Дзен, YouTube Shorts, email-рассылки, вебинары, коллаборации с блогерами в сфере self-help.
3. Контент:
— Микроистории преображения
— Советы из курса
— Тесты типа «Узнай свой уровень уверенности»
— Цитаты + экспертные видео-ответы
4. Офферы:
— Бесплатный мини-курс
— Диагностическая сессия
— Скидка для подписчиков Telegram-канала
5. Ошибки:
— Слишком абстрактный месседж
— Отсутствие чёткой пользы в контенте
— Сухие рекламные тексты без эмоций
Этот шаблон Role Prompting можно адаптировать под любые роли:
— UX-дизайнер
— Юрист
— Детский психолог
— Финансовый консультант
— Персональный тренер
— HR-менеджер и др.
Style Prompting
Style Prompting — это техника, при которой модель явно инструктируют писать в определённом стиле, тоне или настроении. Э Метод помогает задать нужный тон: формальный отчёт, дружеское письмо, юмористический текст или вдохновляющая речь.
Как это работает:
В запрос добавляется формулировка, задающая стиль ответа. Например:
«Напиши текст в деловом стиле…»
«Сделай это описание простым и дружелюбным…» «Сформулируй с лёгким юмором и ноткой самоиронии…»
«Оформи как официальное письмо от компании клиенту…»
Модель учитывает эту установку и адаптирует лексику, структуру и тональность результата.
Пример:
Промпт:
Опиши, как работает облачное хранилище.
Вариант 1 (формальный):
Облачное хранилище — это удалённый сервер, обеспечивающий хранение и доступ к данным через интернет с высокой степенью надёжности и масштабируемости.
Вариант 2 (дружелюбный):
Представьте себе огромный виртуальный чемодан, куда вы можете сложить файлы и получить к ним доступ с любого устройства, где бы вы ни были.
Вариант 3 (юмористический):
Облачное хранилище — это как запасной жёсткий диск, только вы его не теряете, не роняете и не проливаете на него кофе.
Где применяется:
— Копирайтинг и генерация контента под целевую аудиторию
— Маркетинг, PR, блогинг, сценарии видео и соцсетей
— Персонализация общения в чат-ботах
— Образовательные тексты под разный уровень восприятия
Преимущества
— Делает тексты более точными по тону и адаптированными к ситуации
— Повышает вовлечённость и лояльность аудитории
— Ускоряет создание разностильного контента для одного и того же запроса
Пример шаблона для Style Prompting, где модель должна писать в заданном стиле, адаптируя тональность и лексику к контексту.
Задача:
Сообщить о задержке доставки клиенту интернет-магазина.
Промпт-шаблон (Style Prompting):
Напиши сообщение клиенту об извинении за задержку доставки, используя один из следующих стилей (варианты ниже). Сохраняй суть, но меняй тон:
1. Официальный стиль
2. Дружеский стиль
3. Юмористический стиль
Текстовое ядро:
«Заказ №24871 задерживается из-за сбоя на складе. Мы приносим извинения и сделаем всё возможное, чтобы ускорить доставку.»
Ожидаемые стилизованные ответы:
1. Официальный стиль: Уважаемый клиент, Сообщаем, что доставка заказа №24871 задерживается в связи с техническими сложностями на складе. Приносим извинения за доставленные неудобства. Мы предпринимаем все меры для скорейшего разрешения ситуации.
С уважением, Служба поддержки
2. Дружеский стиль: Привет! Хотим сразу сказать — заказ №24871 чуть задерживается из-за сбоя на складе Мы уже всё чиним и постараемся доставить как можно быстрее. Спасибо за понимание — вы с нами, и это круто
3. Юмористический стиль: Ну вот, наш склад решил поиграть в прятки с вашим заказом №24871 Но не волнуйтесь — мы его уже нашли и возвращаем в реальность! Скоро приедет. Спасибо, что относитесь с юмором — мы вас не подведём
Такой шаблон идеально подходит для:
— Писем
— Уведомлений
— Рекламных текстов
— Постов в соцсетях
— Сценариев общения в чат-ботах
Emotion Prompting
Emotion Prompting — это техника, при которой модель получает инструкцию не только о содержании, но и об эмоциональной окраске ответа. Метод позволяет управлять эмоциональным тоном текста: сделать его вдохновляющим, сочувственным, тревожным, радостным и т. д.
Как работает:
В промпт добавляется указание на желаемую эмоцию или эмоциональный тон. Например:
«Опиши это с волнением и восторгом…»
«Сформулируй с сочувствием и теплотой…»
«Расскажи с иронией и лёгким раздражением…»
«Объясни с воодушевлением, как будто мотивируешь аудиторию»
Модель адаптирует лексику, ритм, эмоциональные слова и построение фраз под заданный тон.
Пример:
Запрос:
Объясни, зачем людям ставить цели в жизни.
Вариант 1 (нейтрально):
Цели помогают определить направление действий, расставить приоритеты и оценивать прогресс.
Вариант 2 (эмоционально, вдохновляюще):
Цели — маяки в океане повседневности. Без них мы дрейфуем. А с ними — движемся, растём, свершаем невозможное. Сначала переписывает промпт,
Вариант 3 (с ноткой тревоги):
Когда у человека нет цели, каждый день становится копией предыдущего. Появляется ощущение пустоты и потери смысла.
Где применяется:
— В мотивационном и образовательном контенте
— В рекламных сообщениях и сторителлинге
— При написании писем, обращений, выступлений
— В empathetic AI — чат-ботах с эмоциональной чуткостью
Преимущества:
— Позволяет точно передавать нужное настроение
— Повышает вовлечённость и эмпатию со стороны аудитории
— Делает тексты более живыми, убедительными и запоминающимися
Шаблон для Emotion Prompting — когда модель должна включить конкретную эмоцию (радость, вдохновение, тревогу, решимость и т.д.) в ответ.
Задача:
Сформулировать сообщение от руководителя команды перед запуском нового проекта, но в заданной эмоциональной окраске.
Промпт-шаблон (Emotion Prompting):
Ты — руководитель команды. Напиши короткое сообщение своей команде перед стартом важного проекта. Сформулируй одно и то же сообщение в разных эмоциональных стилях:
1. Воодушевляющее
2. Спокойное и ободряющее
3. Срочное и тревожное
4. Торжественное и гордое
5. Ироничное, но поддерживающее
Сохрани смысл: «Проект стартует завтра. У нас мало времени, но много потенциала. Верю в вас.»
Ожидаемые ответы:
1. Воодушевляющее: Завтра стартуем! Впереди вызов — и мы точно справимся. Вы — лучшая команда, и этот проект мы сделаем круто
2. Спокойное и ободряющее: Проект начинается завтра. Всё под контролем. У нас есть силы, опыт и поддержка друг друга. Просто делаем шаг за шагом.
3. Срочное и тревожное: Завтра старт, времени почти нет. Придётся включаться на максимум с первого дня. Держим фокус, не расслабляемся.
4. Торжественное и гордое: Завтра начинается новый этап. Этот проект — шанс показать, на что мы способны. Мы идём не просто работать — мы создаём результат.
5. Ироничное: Завтра начинаем — да-да, опять. Мало сна, много дедлайнов, но зато куча адреналина. Заряжаемся и вперёд
Этот шаблон легко адаптируется для:
— Писем
— Мотивационных речей
— Постов в соцсетях
— Рекламы
— Сценариев чат-ботов
System 2 Attention (S2A)
System 2 Attention (S2A) — это подход, при котором модель сначала модель переписывает промпт, убирая лишнюю или вводящую в заблуждение информацию, а уже затем — формирует на него ответ. Это позволяет повысить точность и сфокусировать модель на сути запроса.
Название отсылает к концепции «Системы 2» из когнитивной психологии (по Даниэлю Канеману) — более медленного и осознанного типа мышления.
Как работает:
Пользователь вводит запрос, содержащий как полезную, так и лишнюю информацию. Например:
«Слушай, мне нужно срочно объяснение, но я вообще не шарю в этом — что такое GPT, можешь как-то просто рассказать?»
Модель сначала переписывает этот запрос, оставляя только суть:
«Объясни, что такое GPT простыми словами.»
После этого даётся чёткий и релевантный ответ.
Пример использования в промпте:
Ты — продвинутый помощник.
Шаг 1: перепиши мой вопрос, убрав лишнее.
Шаг 2: дай точный и ясный ответ. Это очень раздражает!
Когда применять:
— Когда пользователи пишут длинные и неструктурированные запросы
— В интерфейсах ИИ-ассистентов и поддержки, где важна ясность и фокус
— В системах, где промпты собираются автоматически или из речи
Преимущества:
— Повышает понятность и точность ответа
— Убирает «шум» из запроса, фокусируясь на сути
— Полезен при взаимодействии с начинающими пользователями
Пример-шаблон для техники System 2 Attention (S2A) — когда модель сначала переписывает промпт, очищая его от лишнего, а затем отвечает уже на уточнённый и сфокусированный запрос.
Задача:
Ответить на перегруженный, путаный запрос пользователя — сначала упростив его.
Промпт-шаблон (System 2 Attention):
Ты — ассистент, который сначала упрощает запрос, убирая из него всё лишнее, эмоциональное или не относящееся к сути. Затем отвечаешь только на суть вопроса.
ШАГ 1: Перепиши запрос в краткой и чёткой форме.
ШАГ 2: Ответь на него максимально ясно.
Исходный запрос:
«Я уже полдня бьюсь над этим Excel, у меня всё плывёт в таблице, формулы какие-то странные, и я просто хочу понять — как вообще сделать так, чтобы ячейки тянулись по порядку, без сбоев? Это просто сводит с ума!»
Ожидаемый ответ:
ШАГ 1 — Упрощённый запрос: Как сделать так, чтобы в Excel ячейки автоматически заполнялись по порядку без сбоев?
ШАГ 2 — Ответ: Выделите начальную ячейку, введите первое значение (например, 1), затем в следующей ячейке — следующее (2). Выделите обе и протяните вниз за угол — Excel автоматически продолжит последовательность.
Такой шаблон отлично работает для:
— Хаотичных, эмоциональных, неполных запросов
— Пользовательских обращений в поддержку
— Инструкций и ответов на форумы
— Упрощения «шумных» входов в ИИ-системы
Вывод
Zero-Shot Prompting полезен, когда задача достаточно ясна сама по себе, а модель уже имеет необходимые знания из предобучения. Он позволяет получать быстрые и качественные ответы без подготовки примеров, что делает этот подход удобным для универсальных, стандартных или справочных запросов. Однако для сложных задач, где важны структура и контекст, эффективнее применять Few-Shot или другие техники.
Дополнительные техники Zero-Shot Prompting
Как повысить качество генерации без обучающих примеров?
Большинство пользователей ассоциируют Zero-Shot Prompting с простыми командами в духе «Напиши…», «Объясни…» или «Сделай…». Однако этот подход значительно богаче, чем кажется на первый взгляд. При правильной подаче запроса модель может решать даже сложные задачи без каких-либо обучающих примеров — если промпт сформулирован точно, логично и структурировано.
В этой главе мы рассмотрим дополнительные техники Zero-Shot Prompting, которые позволяют существенно повысить точность, релевантность и стабильность ответов, опираясь исключительно на внутренние знания модели. Такие методы особенно полезны, когда:
— задача новая или нестандартная,
— нет возможности подготовить примеры,
— требуется мгновенная реакция от модели,
— или важно получить универсальное решение без привязки к предыдущим данным.
В фокусе — управление стилем, ролями, логикой мышления и структурой ответа. Вместо просто «попросить» модель — мы научимся направлять её поведение, используя роли, эмоции, уточняющие шаблоны, переосмысление запроса и другие продвинутые практики.
SimToM
Моделирование мышления нескольких субъектов на основе заданных фактов
SimToM — это техника промптинга, которая используется для обработки сложных вопросов, где задействовано несколько участников, точек зрения или переменных. Модель при этом опирается только на явно заданные факты, не додумывает и не выносит предположений вне рамок входных данных.
Как работает:
— В промпте заранее формулируется набор известных фактов или утверждений.
— Модель получает задачу анализировать ситуацию строго на их основе, не привлекая внешние знания.
— Ответ строится логично, поэтапно, с учётом всех заявленных позиций.
Пример:
Факты:
— Алиса думает, что коробка с мячом стоит в комнате.
— Боб знает, что мяч переместили на кухню.
— Алиса не знает, что мяч перенесли.
Вопрос: Где, по мнению Алисы, находится мяч?
Инструкция модели: Ответь, основываясь только на перечисленных фактах.
Ответ: «По мнению Алисы, мяч находится в комнате.»
Где применяется:
— В задачах, связанных с моделированием убеждений, намерений, знаний разных субъектов
— В анализе сценариев и конфликтов (переговоры, психология, философия)
— В обучении логике, критическому мышлению и этике
— В разработке AI-агентов, которым нужно учитывать состояние знаний других агентов
Преимущества:
— Повышает строгость логики в рассуждениях модели
— Исключает галлюцинации и «домыслы» за пределами заданного контекста
— Учит работе с ограниченной и асимметричной информацией
Пример-шаблон для техники SimToM (Simulation-to-Model) — подхода, при котором модель отвечает на вопрос, строго опираясь на заранее заданный набор фактов, не дополняя их вымыслом или предположениями.
Задача:
Проанализировать взаимодействие персонажей на основе конкретных известных фактов, без домысливаний.
Промпт-шаблон (SimToM):
Используй только перечисленные факты. Не добавляй домыслов или внешних знаний. На основе этих фактов — ответь на вопрос о взаимодействии персонажей.
Факты:
1. Анна не доверяет Максиму после инцидента с отчётом.
2. Максим старается наладить отношения, но избегает прямых разговоров.
3. Анна консультируется с Олегом по ключевым вопросам.
4. Олег дружит с Максимом, но нейтрален в рабочих конфликтах.
5. Анна и Олег вместе предложили новую структуру отчётности.
6. Максим не участвовал в этом обсуждении.
Вопрос:
Почему Анна не включает Максима в обсуждение новой структуры и как это влияет на динамику в команде?
Ожидаемый ответ:
Анна не включает Максима в обсуждение, поскольку не доверяет ему после инцидента с отчётом (факт 1). Она предпочитает работать с Олегом, с которым у неё сложились рабочие отношения (факт 3 и 5). Максим, избегая прямого диалога (факт 2), не пытается восстановить доверие, что усиливает дистанцию между ним и Анной. Это снижает уровень открытого взаимодействия в команде и формирует устойчивую коалицию между Анной и Олегом, где Максим оказывается в стороне (факт 6).
Шаблон SimToM отлично подходит для:
— Анализа кейсов (HR, юриспруденция, консалтинг)
— Этических или деловых ситуаций
— Психологических или литературных разборов
— Сюжетного анализа в сценариях/книгах/играх
Rephrase and Respond (RaR)
Переформулируй — затем отвечай
Rephrase and Respond (RaR) — это техника, при которой модель сначала переписывает исходный запрос своими словами, а затем даёт ответ на уже уточнённую и структурированную формулировку. Такой подход помогает улучшить понимание задачи, особенно если начальный промпт был неясным, разговорным или перегруженным лишними деталями.
Как работает:
— Пользователь формулирует вопрос в произвольной или неструктурированной форме.
— Модель перефразирует его, чтобы выделить суть и устранить неоднозначности.
— Только после этого формируется финальный, обоснованный ответ.
Пример:
Промпт пользователя:
Я немного запутался, можешь объяснить, как вообще работают нейросети, ну типа вот эти как GPT?
RaR-подход:
Перефразировано:
«Объясни, как работают языковые нейросети на примере GPT, простым и понятным языком.»
Ответ:
«Языковые нейросети, такие как GPT, обучаются на огромных объёмах текста и затем используют вероятностную модель для генерации логичных продолжений заданных фраз…»
Где применяется:
— В обучающих продуктах и курсах, где важно прояснение запроса
— В интерфейсах поддержки пользователей (чат-боты, ассистенты)
— В системах, работающих с голосовыми запросами или неструктурированными сообщениями
Преимущества:
— Повышает ясность и фокусировку запроса
— Снижает риск неправильной интерпретации
— Делает ответ более точным и релевантным
— Позволяет использовать модель в роли «мышления вслух», как в обучении
Пример-шаблон для техники Rephrase and Respond (RaR) — модель сначала переформулирует вопрос, чтобы чётко понять его суть, а затем даёт структурированный ответ на уточнённую формулировку.
Задача:
Улучшить понимание неконкретного или перегруженного вопроса пользователя перед тем, как на него отвечать.
Промпт-шаблон (Rephrase and Respond):
ШАГ 1: Переформулируй вопрос, сделав его более чётким и фокусным.
ШАГ 2: Ответь на него подробно и логично.
Исходный вопрос:
«Я хочу, чтобы вы помогли мне разобраться, как вообще строится стратегия контент-маркетинга, потому что вроде все делают посты, статьи, но как из этого получается рост продаж — вообще непонятно.»
Ожидаемый ответ:
ШАГ 1 — Переформулированный вопрос: Как связана стратегия контент-маркетинга с ростом продаж и какие шаги включает её построение?
ШАГ 2 — Ответ: Контент-маркетинг работает как воронка:
1. Привлечение внимания — через полезные статьи, посты, видео.
2. Удержание интереса — за счёт регулярности, пользы и релевантности контента.
3. Формирование доверия — через экспертность, кейсы и отзывы.
4. Конверсия в продажу — когда контент подводит к конкретному предложению или решению проблемы. Стратегия строится от целевой аудитории: её боли, интересы, этапы воронки. Контент должен закрывать каждую фазу — от «узнал о вас» до «купил».
Этот подход отлично помогает:
— Структурировать запутанные вопросы
— Сделать запросы более «машиночитаемыми»
— Давать чёткие, целевые ответы без лишнего контекста
Re-reading (RE2)
Повтори прочтение перед ответом — для лучшего понимания
Re-reading (RE2) — это техника, при которой языковой модели явно указывается: прежде чем отвечать, перечитай запрос ещё раз. Такой подход особенно полезен для длинных, многослойных или двусмысленных вопросов, когда требуется более глубокое внимание к деталям.
Как это работает:
В инструкцию модели добавляется указание:
«Прежде чем ответить — перечитай запрос ещё раз и сформируй чёткое понимание.»
Модель повторно «внимательно» обрабатывает промпт, фиксируя ключевые элементы. После этого она генерирует более точный, логически связный ответ.
Пример использования:
Ты — эксперт по логике и критическому мышлению.
Прежде чем отвечать на каждый вопрос, перечитай его внимательно, выдели важные части, и только после этого сформулируй точный ответ.
Где применяется:
— В юридических, технических и научных задачах
— При анализе многоступенчатых или длинных промптов
— В задачах, где ошибка в интерпретации деталей критична
Преимущества:
— Повышает внимательность модели к ключевым элементам запроса
— Снижает риск генерации поверхностного или поспешного ответа
— Повышает логическую связанность и полноту ответа
— Особенно эффективна при работе с многошаговыми или составными вопросами
Пример-шаблон для техники Re-reading (RE2) — модель вначале перечитывает вопрос, чтобы лучше уловить смысл и все детали, и только после этого даёт точный, контекстуально полный ответ.
Задача:
Ответить на многофакторный, перегруженный вопрос, не упустив важных деталей.
Промпт-шаблон (Re-reading RE2):
Перед тем как отвечать, внимательно перечитай вопрос. Убедись, что понял все его части и нюансы. Затем дай полный, точный и логично структурированный ответ.
Вопрос:
«Я веду блог про саморазвитие, аудитория в основном женщины 25–35 лет. Планирую запустить курс по уверенности в себе. Подскажи, как выбрать формат (вебинар или записанные уроки), какие темы стоит затронуть и как вообще протестировать идею до запуска?»
Ожидаемый ответ:
Перечитано. Вопрос состоит из 3 частей:
1. Выбор формата курса
2. Темы для контента
3. Тестирование идеи до запуска
Ответ:
1. Формат: Для вашей ЦА (женщины 25–35) лучше подойдут записанные уроки + бонус: живой вебинар с ответами на вопросы. Это даёт гибкость и ощущение личного контакта.
2. Темы:
— Причины неуверенности
— Практики повышения самооценки
— Коммуникация без страха
— Упражнения на публичные выступления
— Как сохранять уверенность в стрессовых ситуациях
3. Тестирование:
— Проведите опрос в блоге/VK — Запустите бесплатный мини-урок или эфир
— Посмотрите вовлечённость: клики, комментарии, сохранения
— Предложите ранний доступ за символическую цену — это даст реальную обратную связь
Шаблон RE2 идеально работает для:
— Консультаций
— Анализа сложных бизнес-запросов
— Образовательных кейсов
— Линных писем и заявок
Self-Ask
Сначала уточни — потом отвечай
Self-Ask — это техника, при которой модель сама формулирует дополнительные вопросы к исходному запросу, если чувствует, что для точного ответа не хватает информации. После этого она отвечает, учитывая эти уточнения. Это приближает поведение модели к поэтапному человеческому мышлению: сначала разобраться, потом действовать.
Как работает:
Модель получает сложный или неполный запрос. Прежде чем сразу отвечать, она задаёт себе один или несколько уточняющих вопросов:
«Что нужно знать, чтобы правильно ответить на этот вопрос?»
После самоуточнения — формирует финальный ответ с учётом выявленных факторов.
Пример:
Запрос:
Объясни, как улучшить продажи.
Self-Ask-подход:
Внутренние уточнения:
— Для какого продукта? — Какая целевая аудитория? — Используются ли сейчас онлайн-каналы?
Финальный ответ с допущениями или общими рекомендациями, учитывающими эти переменные.
Где применяется:
— В бизнес- и аналитических задачах
— В экспертных консультациях, где часто неполный ввод
— В продуктах, где требуется гибкость мышления (боты, ассистенты, образовательные платформы)
Преимущества:
— Делает ответы более точными и персонализированными
— Повышает контекстную осведомлённость модели
— Позволяет компенсировать неполноту запроса
— Подходит для задач с множеством переменных и сценариев
Пример-шаблон для техники Self-Ask — когда модель сначала анализирует исходный вопрос, понимает, достаточно ли информации для ответа, и при необходимости задаёт уточняющие вопросы, прежде чем сформулировать ответ.
Задача:
Помочь пользователю выбрать платформу для запуска онлайн-курса.
Промпт-шаблон (Self-Ask):
Прочитай вопрос. Если в нём недостаточно информации для уверенного ответа, сначала задай 2–3 уточняющих вопроса, а затем — ответь на основной вопрос, с учётом предположений или возможных вариантов.
Вопрос:
«Посоветуй, где лучше запускать онлайн-курс — чтобы удобно было и недорого.»
Ожидаемый ответ:
Уточняющие вопросы:
1. Какой тип контента вы планируете использовать — видео, тексты, тесты?
2. Важно ли вам наличие встроенной платёжной системы?
3. Курс рассчитан на узкий круг (до 100 человек) или массовую аудиторию?
Ответ: Если вам нужен бюджетный старт и вы планируете видеоуроки + базовые тесты, подойдёт GetCourse (массово) или Teachable (англоязычная, удобная). Если важна интеграция с соцсетями и маркетинг — обратите внимание на Stepik или Thinkific. Для узкой группы и простоты управления — Notion + Telegram с платным доступом тоже может быть решением.
Техника Self-Ask полезна:
— В консультациях и поддержке
— При проектировании решений
— Для пользовательских сценариев с неполными вводными
— В B2B и B2C переписке, где часто нужно «довыяснить»
Вывод
Техники Zero-Shot Prompting особенно эффективны в ситуациях, когда необходимо оперативно решать задачи без примеров, опираясь на внутренние знания и логику модели. Они позволяют добиться высоких результатов при правильно сформулированных инструкциях и хорошо подходят для задач, где важна скорость и универсальность.
Хотя Zero-Shot требует более точной и чёткой формулировки, его гибкость и масштабируемость делают его мощным инструментом в арсенале prompt-инженера. Для достижения наилучших результатов важно экспериментировать с различными техниками, адаптируя подход под конкретную задачу и модель.
В отличие от Few-Shot, Zero-Shot требует более точных инструкций, но при правильном применении может обеспечивать сопоставимые результаты, особенно для современных моделей с обширной базой знаний.
Генерация мыслей (Chain of Thought, CoT) или логическая цепочка
Когда языковая модель сталкивается с задачей, требующей многоэтапного анализа, простая инструкция «Дай ответ» может привести к ошибке или поверхностному результату. Особенно это заметно в математических задачах, логических головоломках, а также в задачах, где требуется пошаговое рассуждение или объяснение решений.
Именно здесь на помощь приходит техника Chain of Thought — метод, побуждающий модель проговаривать ход своих мыслей, как это делает человек при размышлении вслух. Вместо мгновенного ответа, модель сначала строит логическую цепочку рассуждений, двигаясь от этапа к этапу, пока не придёт к обоснованному выводу.
Этот подход не только повышает точность ответов, но и делает процесс генерации прозрачным, понятным и легко проверяемым. Он особенно полезен в сферах, где важна логика и обоснованность: от образования и программирования до права и бизнес-аналитики.
В основе CoT лежат три ключевых принципа:
— Пошаговое мышление — задача разбивается на отдельные логические шаги, каждый из которых формулируется последовательно.
— Ясность и подробность — модель объясняет свои действия понятным языком, обеспечивая прозрачность рассуждений.
— Контроль промежуточных результатов — каждый шаг проверяется на корректность, прежде чем формируется финальный ответ.
В этой главе мы разберём, как работает CoT, где он особенно эффективен, и как правильно формулировать промпты, чтобы задействовать этот мощный инструмент.
Zero-Shot-CoT — логическая цепочка без примеров
Zero-Shot-CoT — это техника, которая объединяет преимущества Zero-Shot и Chain of Thought (CoT). В ней пользователю достаточно явно указать модели мыслить пошагово, даже без предоставления примеров.
Суть метода:
Вы добавляете к запросу фразу вроде:
«Пожалуйста, рассуждай пошагово.» или «Думай шаг за шагом.»
Эта простая инструкция запускает в модели механизм пошагового анализа, благодаря чему она сама строит цепочку размышлений, даже если не видела примеров до этого.
Пример:
Промпт:
В корзине лежат 3 яблока. Петя взял 1. Сколько осталось? Пожалуйста, думай пошагово.
Ответ:
В корзине было 3 яблока. Петя взял 1 яблоко. 3 — 1 = 2. Ответ: 2 яблока.
Когда использовать:
— Для логических, математических или аналитических задач
— Когда нужна интерпретируемость рассуждений
— Если нет возможности сформулировать или подобрать примеры (в отличие от Few-Shot)
Преимущества:
— Улучшает точность ответов на сложные задачи
— Требует только 1 дополнительной инструкции
— Подходит даже для кратких промптов
— Повышает «прозрачность» мышления модели
Универсальный шаблон для Zero-Shot Chain-of-Thought (Zero-Shot-CoT) — техника, при которой модель рассуждает пошагово, не опираясь на обучающие примеры.
Задача:
Решить логическую или аналитическую задачу, где важен ход мысли.
Промпт-шаблон (Zero-Shot-CoT):
Не давай сразу ответ. Сначала подумай шаг за шагом, как решить задачу, а затем сформулируй итог.
Задача:
У Анны в кошельке 8 монет: несколько по 1 рублю, несколько по 2 рубля. Всего — 12 рублей. Сколько монет по 1 рублю и сколько по 2?
Ожидаемый ответ:
Шаг 1: Пусть монет по 1 рублю — x, по 2 рубля — y.
Шаг 2: Всего монет 8, значит: x + y = 8
Шаг 3: Сумма: 1·x +2·y = 12
Шаг 4: Решим систему: x + y = 8 x +2y = 12
Вычтем первое уравнение из второго: (x +2y) — (x + y) = 12 — 8 → y = 4 Тогда x = 4
Ответ: 4 монеты по 1 рублю, 4 — по 2 рубля.
Этот шаблон идеально подходит для:
— математики
— логических задач
— аналитических кейсов
— финансовых расчётов
— технических решений
Few-Shot CoT — цепочка мыслей с примерами
Few-Shot Chain of Thought (CoT) — это метод, при котором языковая модель получает несколько заранее подготовленных примеров с пошаговыми рассуждениями перед тем, как решить целевую задачу. Такой подход помогает модели уловить паттерн рассуждений, структуру мышления и формат ответа, которые нужно повторить.
Суть метода:
Пользователь формирует промпт, в который включены 2–4 тщательно подобранных примера решения аналогичных задач с пояснением каждого шага. Модель изучает структуру этих примеров и применяет аналогичный стиль мышления к новой задаче.
Пример:
Промпт:
Вопрос: У Ани 5 карандашей. Она дала 2 Маше. Сколько у неё осталось?
Рассуждение: Было 5 карандашей. Она отдала 2. 5 — 2 = 3.
Ответ: 3
Вопрос: На дереве сидело 7 птиц. 3 улетели. Сколько осталось?
Рассуждение: Было 7 птиц. 3 улетели. 7 — 3 = 4.
Ответ: 4
Вопрос: У Пети было 10 конфет. Он съел 6. Сколько у него осталось?
Рассуждение:
Модель (продолжение): Было 10 конфет.
Он съел 6. 10 — 6 = 4.
Ответ: 4
Когда использовать:
— Для задач с многошаговыми рассуждениями
— При необходимости точного следования шаблону мышления
— В обучающих целях, когда важно показать пример правильного решения
Преимущества:
— Повышает предсказуемость и логичность ответов
— Учит модель следовать логической структуре рассуждений
— Особенно полезна для математики, физики, анализа текста, классификации
Шаблон для Few-Shot Chain-of-Thought (Few-Shot CoT) — модель получает 1–2 примера с пошаговыми рассуждениями, чтобы понять формат мышления, и затем решает новую задачу по аналогии.
Задача:
Решение задач с арифметической логикой.
Промпт-шаблон (Few-Shot CoT):
Вот примеры задач с пошаговым объяснением. Затем реши новую задачу тем же способом: рассуждай шаг за шагом и в конце дай точный ответ.
Пример 1:
Задача: У Пети 3 яблока. Он купил ещё 4. Сколько яблок стало у Пети?
Решение: У Пети было 3. Он купил ещё 4. Складываем: 3 +4 = 7.
Ответ: 7
Пример 2:
Задача: У Маши было 10 конфет. Она съела 3. Сколько осталось?
Решение: Было 10. Маша съела 3. Осталось: 10 — 3 = 7.
Ответ:7
Новая задача:
У Вани 5 карандашей. Он потерял 2 и купил ещё 3. Сколько карандашей теперь у Вани?
Ожидаемый ответ:
Решение: Сначала у Вани было 5. Он потерял 2: 5 — 2 = 3. Потом купил 3: 3 +3 = 6. Ответ: 6
Few-Shot CoT идеально подходит для:
— математики
— правовых задач (с логикой решения)
— кодирования (с пошаговыми комментариями)
— диагностики (в медицине, UX, техподдержке)
Шаг-назад промптинг (Step-Back Prompting)
Step-Back Prompting — это техника, при которой сначала задаётся общий, обобщённый вопрос, а затем модель или пользователь делит его на подзадачи и решает их пошагово. Такой подход особенно полезен при решении сложных или плохо структурированных задач, требующих декомпозиции.
В чём идея?
Вместо того чтобы сразу просить модель дать ответ на сложный вопрос, вы делаете шаг назад и формулируете:
— Общую задачу
— Подвопросы / подэтапы
— Ответы на каждый шаг
— Финальный вывод
Это имитирует естественный ход размышлений эксперта, который начинает с широкого взгляда, а затем поэтапно сужает фокус.
Пример:
Промпт:
Как можно улучшить работу клиентской поддержки в IT-компании? Сначала определи ключевые направления, а затем предложи конкретные действия по каждому из них.
Ответ модели:
Основные направления улучшения: Скорость ответа
Качество консультации
Уровень автоматизации
Предложения: Внедрить чат-бота для ответов на частые вопросы
Проводить регулярные тренинги для поддержки
Использовать CRM для отслеживания истории обращений
Когда использовать:
— При недостатке ясности в формулировке задачи
— Когда требуется структурированный план или анализ
— В ситуациях, где нужно показать процесс мышления, а не просто результат
Преимущества:
— Помогает «разложить» сложную задачу на части
— Повышает логичность и прозрачность ответа
— Работает даже в Zero-Shot-режиме (без примеров)
Шаблон для техники «Шаг-назад промптинг» (Step-Back Prompting) — подхода, при котором сначала рассматриваются общие принципы, а затем задача разбивается на части и решается поэтапно.
Задача:
Разработать стратегию продвижения нового мобильного приложения.
Промпт-шаблон (Step-Back Prompting):
Сначала сформулируем общие принципы решения задачи. Затем разобьём её на отдельные шаги и решим последовательно.
Задача:
Как спланировать продвижение нового мобильного приложения для трекинга привычек?
Ожидаемый ответ:
Шаг 1 — Общие принципы: Продвижение приложения требует понимания целевой аудитории, выбора эффективных каналов, формирования ценностного предложения и тестирования гипотез. Важно работать поэтапно: сначала узнаваемость, потом вовлечение и конверсия.
Шаг 2 — Разбиение задачи на части:
1. Определение целевой аудитории — Кто будет использовать приложение (возраст, цели, мотивация)?
2. Формулировка ценности продукта — Чем приложение лучше конкурентов? Какую проблему решает?
3. Выбор каналов продвижения — Социальные сети, TikTok, контент-маркетинг, партнёрства?
4. Запуск и тестирование — MVP-кампания, лид-магниты, ранний доступ.
5. Анализ и корректировка — Какие каналы дают лучший результат? Какой контент работает?
Такой шаблон отлично подходит для:
— бизнес-стратегий
— сложных технических задач
— управленческих решений
— образовательных программ
— сценарного и UX-планирования
Аналогичный промптинг (Analogical Prompting)
Аналогичный промптинг — это метод, при котором модель получает пример из смежной области с уже готовой цепочкой рассуждений, и на его основе переносит логику на новую, но похожую задачу.
Вместо прямого обучения решению конкретной задачи, вы показываете аналогичную ситуацию, позволяя модели уловить паттерн рассуждений и применить его в другом контексте.
Как это работает:
— Вы выбираете пример, в котором уже есть структура рассуждений (Chain of Thought)
— Предоставляете модели новую задачу, аналогичную по логике
— Модель переносит стиль и ход мышления на новую ситуацию
Пример:
Пример в промпте:
Задача: На полке было 10 книг. 4 из них взяли. Сколько осталось?
Рассуждение: Было 10 книг. Взяли 4. 10 — 4 = 6. Ответ: 6
Теперь новая задача:
На складе было 20 коробок. 5 отправили. Сколько осталось?
Рассуждение:
Модель продолжает:
Было 20 коробок. Отправили 5. 20 — 5 = 15.
Ответ: 15
Когда использовать:
— Если нет прямых примеров для задачи, но есть аналогии
— Для абстрактных, логических или обучающих задач
— В случаях, где важно научить модель «переносу логики»
Преимущества:
— Позволяет использовать готовые шаблоны из других областей
— Учит модель обобщать и адаптировать паттерны мышления
— Может быть полезен при обучении пользователей промптингу
Шаблон для техники «Аналогичный промптинг» (Analogical Prompting) — когда модель анализирует схожий пример, извлекает логику и применяет её к новой, но похожей задаче.
Задача:
Решить новую задачу на основе аналогичной, уже решённой.
Промпт-шаблон (Analogical Prompting):
Посмотри на пример задачи и её решение. Затем реши новую задачу по аналогии, используя ту же логику рассуждения.
Пример:
Задача: У Алины было 12 яблок. Она отдала 3 подруге и купила ещё 5. Сколько яблок стало у неё?
Решение:
Было 12 → отдала 3 → осталось 9 → купила 5 → стало 14
Ответ: 14
Новая задача:
У Димы было 20 карандашей. Он потерял 4 и подарил 6 другу. Сколько осталось?
Ожидаемый ответ:
Решение по аналогии: Было 20 → потерял 4 → осталось 16 → подарил 6 → осталось 10
Ответ: 10
Analogical Prompting отлично работает для:
— математики
— логических задач
— юридических и этических кейсов
— UX-решений («как решалось в похожем случае»)
— обучающих заданий
Вывод
Техника Chain of Thought существенно повышает способность языковых моделей решать сложные, многошаговые задачи. Делая процесс рассуждения явным и пошаговым, она позволяет не только получить более точный результат, но и понять, как модель к нему пришла. Это особенно важно в сферах, где требуются прозрачность, объяснимость и доверие к выводам — например, в образовании, медицине, юриспруденции и аналитике.
Вместо «чёрного ящика» вы получаете открытую логику принятия решений, которую можно проверить, уточнить или адаптировать под задачу. Использование CoT — это шаг к более ответственному и управляемому ИИ.
Дополнительные техники генерации мыслей
Базовая техника Chain of Thought (CoT) уже доказала свою эффективность при решении сложных задач — от логических головоломок до аналитических и вычислительных задач. Однако в практике продвинутого промптинга возникают ситуации, где необходимо ещё больше гибкости, структурности и адаптивности.
В этой главе мы рассмотрим расширенные и углублённые подходы, которые усиливают классический CoT и позволяют более точно управлять мышлением модели в ответе.
Включаемые техники:
— Нить мыслей (Thread of Thought): пошаговое логическое развитие с возможностью возврата к ключевым узлам рассуждений
— Табличная цепочка (Tabular CoT): представление логики в виде таблицы для наглядного сравнения и выбора
— Контрастный промптинг (Contrastive Prompting): показ верного и ошибочного пути рассуждения для лучшего различения
— Промптинг с учётом неопределённости (Uncertainty-Aware Prompting): генерация нескольких логических гипотез с выбором наиболее вероятной
— Промптинг на основе сложности (Complexity-Aware Prompting): динамическое управление глубиной рассуждения в зависимости от уровня задачи
— Активный промптинг (Active Prompting): использование саморефлексии модели — модель уточняет, пересматривает или запрашивает дополнительные детали
— Память мыслей (Thought Memory): сохранение логических шагов модели в ходе сеанса, чтобы поддерживать внутреннюю целостность мышления
— Автоматический CoT-промптинг (Auto-CoT): генерация цепочек рассуждений без участия человека — на основе набора примеров или самоанализа модели
Эти техники помогают сделать взаимодействие с языковыми моделями более приближённым к мышлению эксперта — с вниманием к контексту, сомнениям, сравнениям и обучению на собственных ошибках.
Нить мыслей (Thread of Thought)
Thread of Thought — это техника генерации рассуждений, при которой модель анализирует задачу по частям, двигаясь шаг за шагом, сохраняя логическую нить и подводя промежуточные итоги. Этот подход особенно эффективен, когда:
— задача включает несколько логических компонентов
— необходимо разобраться в длинном или сложном тексте
— важно сохранять фокус на общей цели, не теряя детализацию на этапах
Бесплатный фрагмент закончился.
Купите книгу, чтобы продолжить чтение.