- Дата публикации
Как говорить с Claude так, чтобы он работал как senior, а не как стажёр
Что нового
Anthropic в этом материале не анонсирует новый продукт. Вместо этого команда Claude системно описывает, как именно общаться с LLM, чтобы выжимать максимум из моделей уровня Claude 4.x.
Ключевое:
- Фокус на Claude 4.x и похожих по классу моделях.
- Упор на то, что старые приёмы prompt-инженерии (XML-теги, сильные «ролевые» промпты) уже почти не нужны.
- Подробный набор рабочих шаблонов запросов: от базовой формулировки задачи до сложных цепочек запросов и «chain-of-thought».
- Отдельно проговаривается, что у Claude есть режим расширенного размышления (extended thinking), который частично автоматизирует пошаговое рассуждение.
Цифр вроде длины контекста, скорости или стоимости здесь нет — это не релиз модели, а практическое руководство по работе с уже существующими Claude 4.x.
Как это работает
Anthropic описывает не внутренности модели, а механику взаимодействия с ней. Логика простая: то, как вы пишете запрос, напрямую влияет на то, какие именно токены модель сгенерирует дальше.
Основные технические идеи под капотом такого подхода:
-
Явные инструкции → более точное распределение вероятностей
Когда вы пишете: «Сделай X, в таком-то формате, с такими-то ограничениями», модель получает чёткие сигналы, какие токены допустимы, а какие нет. Это сужает пространство вариантов и уменьшает «галлюцинации».
-
Контекст как часть входной последовательности
Любое описание задачи, аудитории, ограничений, примеры — это токены в контексте. Claude 4.x умеет использовать этот контекст как «рабочую память» и подстраивать под него вывод.
-
Обучение на примерах (in-context learning)
Когда вы даёте образец нужного ответа, модель не «запоминает» его навсегда, но копирует паттерн внутри текущего диалога. Отсюда совет: если показываете пример, делайте его максимально похожим на желаемый итог.
-
Chain-of-thought как явное «раскручивание» внутреннего рассуждения
Модели и так «думают» пошагово внутри, но обычно скрывают это. Если вы просите «рассуждать по шагам», вы фактически просите модель печатать часть этого внутреннего процесса. Это помогает при сложных аналитических задачах.
-
Extended thinking в Claude 4.x
Anthropic добавила режим, где модель сама выделяет больше «умственного бюджета» на сложные задачи. Это работает без ручного chain-of-thought, но вы всё равно можете требовать явные шаги рассуждения, если нужен прозрачный ход мыслей.
Суммарно: Anthropic показывает, как управлять тем, на что именно тратится контекст и вычислительный ресурс модели — на угадывание ваших намерений или на решение задачи.
Что это значит для вас
Материал полезен всем, кто регулярно работает с Claude 4.x или любыми LLM: разработчикам, аналитикам, продактам, редакторам, ресёрчерам.
Когда это реально поможет
1. Продакшн-интеграции и агенты
Если вы встраиваете Claude в продукт, вам нужны:
- стабильный формат ответа (JSON, XML, таблицы);
- предсказуемое поведение на сложных задачах;
- минимум «придуманных» данных.
Здесь пригодятся:
- предзаполнение ответа (pre-fill) — чтобы модель сразу продолжала нужный JSON;
- цепочки запросов — чтобы разбивать задачу на шаги и проверять промежуточные результаты;
- явное разрешение «сказать, что не знаешь» — чтобы снижать галлюцинации.
2. Аналитика, ресёрч, работа с длинными текстами
Если вы:
- просите сделать выводы из отчёта;
- готовите краткие выжимки из статей;
- сравниваете несколько документов.
Полезно:
- давать чёткий контекст: кто читатель, зачем нужен итог;
- требовать пошаговое рассуждение или включать расширенное размышление Claude;
- использовать цепочки запросов: «сначала резюмируй → потом проверь точность → потом улучшай».
3. Контент, UX-тексты, маркетинг
Для задач вроде:
- «напиши текст в стиле X»;
- «адаптируй под такую-то аудиторию»;
- «перепиши с фокусом на пользу».
Работают:
- подробное объяснение мотивации («мне нужны не списки, а живые абзацы, потому что…»);
- примеры нужного стиля;
- чёткое описание структуры: заголовки, длина, формат.
4. Код, архитектура, ревью
Если вы используете Claude как помощника по коду:
- уточняйте ограничения (язык, версии библиотек, платформу);
- просите пошаговый разбор: сначала анализ, потом код;
- разрешайте признавать незнание, особенно при работе с частными API.
Где эти техники мало что дадут
- Если вы задаёте совсем абстрактные вопросы без цели («расскажи про ИИ вообще»), сложная prompt-инженерия не нужна. Достаточно простого запроса.
- Если модель фактически не имеет доступа к нужным данным (например, свежие новости, закрытые базы), никакой промпт не превратит её в поисковый движок с актуальной базой.
- Если вы используете сильно урезанные модели с маленьким контекстом и слабым обучением, многие советы (особенно про длинные примеры и сложные цепочки) будут работать хуже.
Важный момент для читателей из России
Claude официально доступен через веб-интерфейс и API Anthropic. Для прямого доступа к claude.ai из России обычно нужен VPN и платёжный метод, который принимает Anthropic. Интеграции через сторонние платформы зависят от конкретного сервиса.
Место на рынке
Anthropic здесь не сравнивает Claude с GPT-4o или другими моделями по скорости, цене или длине контекста. Текст фокусируется на паттернах работы, которые применимы к любым LLM примерно класса Claude 4.x.
Что можно вынести:
- Подходы из статьи применимы и к GPT-4o, и к другим крупным моделям, но Anthropic явно затачивает рекомендации под сильные стороны Claude 4.x и его режим расширенного размышления.
- Старые практики вроде массового использования XML-тегов и тяжёлых «ролевых» промптов здесь подаются как устаревающие для моделей последнего поколения.
Без конкретных чисел по скорости, стоимости и контексту сравнивать Claude 4.x с GPT-4o или другими моделями по метрикам вроде «быстрее на X%» нельзя. Материал — про методику работы, а не про бенчмарки.
Базовые техники: как писать запросы, чтобы они вообще работали
1. Будьте прямыми и понятными
Модели вроде Claude 4.x отлично реагируют на чёткие глаголы действия и конкретные ожидания.
Вместо размытых формулировок:
- «Сделай анализ»
лучше писать:
- «Проанализируй»;
- «Напиши»;
- «Сгенерируй»;
- «Создай».
И сразу уточнять:
- что именно должно быть в ответе;
- насколько подробным он должен быть;
- какие критерии качества важны.
Пример из статьи:
- Вариант 1: «Создайте аналитический дашборд».
- Вариант 2: «Создайте аналитический дашборд. Включите как можно больше релевантных функций и взаимодействий. Выйдите за пределы базового набора и опишите полноценную реализацию».
Второй вариант даёт понять, что вы ждёте не минималку, а продуманное решение.
Практические приёмы:
- Начинайте запрос с действия: «Напиши…», «Проанализируй…», «Сделай…».
- Не тратьте первые строки на длинные вступления.
- Говорите не только, «о чём» текст, но и что должно быть в результате.
- Пропишите уровень детализации: «коротко в 3–4 абзацах», «подробно, с примерами кода».
2. Давайте контекст и мотивацию
Claude лучше работает, когда понимает зачем вы это просите.
Пример:
- Менее эффективно: «НИКОГДА не используй маркированные списки».
- Более эффективно: «Я предпочитаю ответы в виде естественных абзацев, а не списков. Проза мне легче читается и лучше подходит для использования. Списки кажутся слишком формальными и сухими для моего стиля обучения».
Во втором случае модель видит логику и может принимать похожие решения и в других ситуациях.
Когда полезно добавлять контекст:
- описываете цель результата или аудиторию;
- объясняете ограничения (юридические, технические, стилистические);
- рассказываете, как вы будете использовать ответ;
- формулируете проблему, а не только задачу («мне нужно уменьшить время на…»).
3. Будьте конкретными
Чем более детально вы задаёте рамки, тем выше шанс получить именно то, что нужно.
Пример с питанием:
- Вариант 1: «Составь план питания в средиземноморском стиле».
- Вариант 2: «Составь средиземноморский план питания для поддержки при предиабете. 1 800 ккал в день, акцент на продуктах с низким гликемическим индексом. Укажи завтрак, обед, ужин и перекус с разбивкой по нутриентам».
Во втором случае модель знает:
- цель (предиабет);
- калорийность;
- ключевое ограничение (низкий ГИ);
- структуру вывода (4 приёма пищи + нутриенты).
Что стоит уточнять в промпте:
- ограничения: объём текста, формат, дедлайны, технические рамки;
- контекст: кто читает, зачем, на каком уровне подготовки;
- формат результата: таблица, список, JSON, сплошной текст;
- запреты и требования: диета, бюджет, совместимость с существующей системой.
4. Используйте примеры
Примеры особенно полезны, когда нужно передать тон, стиль или сложный формат.
Claude 4.x внимательно смотрит на детали в примерах, поэтому важно:
- показывать только те паттерны, которые вы хотите видеть в результате;
- не включать в пример лишние элементы, которые не хотите тиражировать.
Когда примеры реально помогают:
- формат проще показать, чем описать словами;
- нужен специфический тон (например, «спокойный, без маркетинговых клише»);
- задача опирается на тонкие конвенции (юридический стиль, научная ссылка);
- простые инструкции уже не дали стабильного результата.
Совет: начните с одного хорошего примера. Если модель всё ещё «мимо», добавляйте ещё 1–2.
5. Разрешайте модели не знать
Прямо напишите, что нормально признать неопределённость.
Например:
«Проанализируй эти финансовые данные и определи тенденции. Если информации недостаточно для уверенных выводов, скажи об этом прямо, не спекулируй».
Это снижает риск того, что Claude начнёт «додумывать» факты, которых нет.
Продвинутые техники: когда базового промпта мало
1. Предзаполнение ответа (pre-fill)
Идея: вы начинаете ответ за модель, задавая формат и первые токены, а Claude просто продолжает.
Полезно, когда:
- нужен жёсткий формат: JSON, XML, строгое поле-значение;
- вы хотите убрать любые вступления типа «Конечно, вот…»;
- нужно держать тон или «персонажа» в рамках;
- важно контролировать, с чего именно начнётся ответ.
Пример с JSON (через API): вы в промпте описываете задачу и добавляете в начало ответа { и структуру полей. Claude продолжает, заполняя значения.
В чат-интерфейсе можно писать буквально:
«Ответ только в виде валидного JSON, без вступлений. Начни ответ с открывающей фигурной скобки».
2. Chain-of-thought (цепочка рассуждений)
Здесь вы просите модель думать по шагам, а не сразу выдавать финальный ответ.
Это важно, когда:
- задача многошаговая и аналитическая;
- вам нужен прозрачный ход мыслей, который можно проверить;
- вы хотите убедиться, что модель учла нужные факторы.
Anthropic описывает три варианта:
-
Базовый chain-of-thought
Добавляете что-то вроде: «Рассуждай шаг за шагом».
-
Направляемый chain-of-thought
Вы задаёте конкретные шаги.
Пример:
«Сначала продумай, какие сообщения могут заинтересовать этого донора, исходя из его истории пожертвований. Затем выбери аспекты программы Care for Kids, которые ему подойдут. В конце на основе анализа напиши персональное письмо».
-
Структурированный chain-of-thought с разметкой
Вы разделяете рассуждение и итог с помощью тегов или явных секций.
Примерно так:
«Сначала проанализируй, какие сообщения могут заинтересовать донора. Затем выбери релевантные части программы. Оформи рассуждение внутри блока
<analysis>…</analysis>, а финальное письмо — внутри<email>…</email>».
Anthropic одновременно говорит о расширенном размышлении Claude 4.x. Если этот режим включён, модель сама тратит больше «умственного ресурса» на сложные задачи. Но явный chain-of-thought остаётся полезным, когда нужен именно прозрачный ход рассуждений.
3. Контроль формата ответа
Три простых приёма:
-
Формулируйте что нужно, а не «чего не нужно».
- Вместо: «Не используй markdown».
- Лучше: «Ответ в виде сплошных абзацев без разметки».
-
Пишите запрос в том стиле, который хотите получить.
Если в промпте много markdown, модель с большей вероятностью вернёт markdown. Если хотите голый текст — пишите без заголовков и списков.
-
Явно задавайте правила разметки.
Например:
- «Один заголовок H2, под ним один список из 5 пунктов»;
- «Ответ в виде таблицы: колонки X, Y, Z».
4. Цепочки запросов (prompt chaining)
Здесь вы разбиваете задачу на несколько API-вызовов или шагов в чате.
Пример с медицинской статьёй:
- Запрос 1: «Сделай краткий пересказ статьи. Отдельно опиши методологию, результаты и клинические выводы».
- Запрос 2: «Проверь, насколько этот пересказ точен, понятен и полон. Дай детальный фидбек».
- Запрос 3: «Улучши пересказ с учётом этих комментариев: [вставляете фидбек из шага 2]».
Когда это нужно:
- задача сложная и многослойная;
- вы хотите поэтапно улучшать результат;
- полезна промежуточная проверка (например, другим промптом или человеком);
- один запрос даёт «средний» результат, который сложно довести до ума за раз.
Минус — больше задержка и больше API-вызовов. Плюс — сильно выше контроль и качество при сложных задачах.
Техники, которые уже не обязательны, но всё ещё встречаются
XML-теги для структуры
Раньше часто предлагали оборачивать части промпта в XML-теги, чтобы модель чётко понимала, где что.
Сейчас Claude 4.x и похожие модели и без этого неплохо справляются с разделением секций, если вы:
- используете понятные заголовки;
- отделяете блоки пустыми строками;
- явно пишете: «Используй информацию ниже…».
Тем не менее XML всё ещё может быть полезен, если:
- промпт огромный и смешивает разные типы данных (описание задачи, длинные документы, метаданные);
- вам нужно жёстко очертить границы, что относится к чему;
- вы работаете со старыми версиями моделей.
Во многих случаях проще и чище использовать обычный текст с хорошей структурой, чем перегружать промпт тегами.
Ролевые промпты
Классический приём: «Ты — такой-то эксперт, веди себя так-то».
Пример:
«Ты — финансовый консультант. Проанализируй этот портфель…»
Anthropic предупреждает: не перегибайте.
Фразы уровня:
«Ты — эксперт мирового уровня, никогда не ошибаешься и всегда пишешь только сложным профессиональным жаргоном»
часто вредят. Модель может начать отвечать слишком узко, заигрываться в образ или игнорировать реальные ограничения.
Когда роль всё-таки полезна:
- нужен единый тон для серии ответов (например, «дружелюбный наставник для новичков»);
- вы пишете от лица условного персонажа в продукте;
- вы хотите сфокусировать модель на конкретной компетенции.
Но чаще эффективнее задать перспективу и фокус, без театрализации:
- вместо «Ты — финансовый консультант…»;
- написать: «Проанализируй портфель, уделяя внимание риску и потенциалу долгосрочного роста».
Как выбирать технику под задачу
Anthropic предлагает простой чек-лист:
-
Запрос понятен и прямой?
Если нет — сначала перепишите базу: чёткость, глагол действия, структура.
-
Задача простая?
Достаточно базовых техник: ясность, контекст, конкретика.
-
Нужен конкретный формат?
Используйте примеры, предзаполнение, явные требования к формату.
-
Задача сложная и многошаговая?
Разбейте на цепочку запросов.
-
Нужен явный ход рассуждений?
Включайте расширенное размышление Claude 4.x, если доступно, или просите chain-of-thought.
Удобная шпаргалка из материала:
- Нужен конкретный формат → примеры, pre-fill, жёсткие указания по структуре.
- Нужен пошаговый анализ → расширенное размышление или chain-of-thought.
- Задача в несколько этапов → цепочки запросов.
- Нужен прозрачный reasoning → chain-of-thought с разметкой «анализ / итог».
- Боитесь галлюцинаций → явно разрешите «я не знаю» и задайте жёсткие рамки источников.
Как чинить типичные проблемы с промптами
Anthropic даёт готовый «дебаггер» для ваших запросов.
1. Ответ слишком общий
- Добавьте конкретику: ограничения, структуру, аудиторию.
- Попросите «выйти за пределы базового уровня».
- Дайте пример желаемой глубины.
2. Ответ мимо задачи
- Ясно сформулируйте цель: зачем вам этот ответ.
- Объясните контекст использования.
3. Формат ответа плавает от раза к разу
- Покажите пример нужного формата.
- Используйте предзаполнение (особенно для JSON и таблиц).
4. Задача слишком сложная, результат нестабилен
- Разбейте на цепочку запросов.
- Каждый запрос — одна конкретная подзадача.
5. Модель пишет ненужные вступления
- Явно попросите: «Без вступления, сразу к делу».
- Или используйте pre-fill, начиная ответ сразу с нужной структуры.
6. Модель придумывает факты
- В промпте разрешите: «Если не уверен — скажи, что не знаешь».
- Ограничьте источники: «Используй только текст ниже…».
7. Модель предлагает изменения, когда вы хотите уже изменённый результат
- Формулируйте действие: «Перепиши», «Измени», а не «Можешь предложить изменения?».
Общий совет: начинайте с простого промпта и постепенно добавляйте сложности, проверяя, что реально улучшает результат.
Ошибки, которые тратят ваш бюджет и нервы
Anthropic перечисляет типичные ловушки:
- Сливать часы в «суперпромпты»: длинный запрос сам по себе не делает ответ лучше.
- Игнорировать базу: если задача описана мутно, никакие XML и роли не спасут.
- Думать, что модель «догадается» о ваших намерениях.
- Пихать в один промпт все техники сразу: роли, теги, цепочки, примеры.
- Не тестировать: первый промпт почти никогда не идеален.
- Жёстко полагаться на старые практики: XML-теги и тяжёлые ролевые промпты часто избыточны для Claude 4.x.
Про длинный контент и стоимость токенов
Продвинутая prompt-инженерия почти всегда означает больше токенов:
- подробные инструкции;
- длинные примеры;
- цепочки запросов.
Это даёт лучшее качество, но увеличивает:
- нагрузку на контекстное окно;
- стоимость и задержку.
Anthropic подчёркивает: каждая техника должна быть оправдана. Если задача простая, не нужно тратить контекст на сложные шаблоны. Для аккуратной работы с длинными документами у Anthropic есть отдельный подход — «контекстная инженерия», который выходит за рамки этого текста.
Если вы уже используете Claude 4.x (или аналогичный LLM) в продукте или работе, этот набор практик — по сути, чек-лист: как превратить модель из «чата с ИИ» в предсказуемый инструмент, который делает именно то, что вы просите, а не то, что ему показалось.