Вы наверняка замечали: чуть по-другому сформулировал вопрос — и результат от ИИ оказался гораздо точнее. В этом и есть суть промптинга: всё дело в том, как вы «разговариваете» с нейросетью. Давайте вместе разберёмся в техниках, которые используют профессиональные промпт-инженеры. Всё объясним просто, по-человечески и с примерами.
Подробнее о промпт-инжиниринге — на бесплатном вебинаре!
Zero-shot: просто скажи, что хочешь
Zero-shot — это когда вы даёте запрос без примеров. Просто объясняете, что нужно сделать. Например, просите модель определить тональность текста: «Сегодня был обычный день. Погода нормальная, ничего особенного не произошло». Ответ: Нейтральный.
Вы не обучали модель, не давали образцов, просто сформулировали задание. Чем понятнее будет текст запроса, тем выше шанс получить точный результат.
Пишите так, будто объясняете задачу коллеге, который вообще не в курсе, что вы от него хотите.

- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросети DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
- Где и как применять? Потестируем модель после установки на разных задачах
- Как дообучить модель под себя?
Few-shot: покажите, как это делать
Если модель не поняла или результат получился странным, можно дать примеры. Это называется few-shot.
Просим нейросеть определить тональность: «Обожаю эту книгу!» — положительная, «Ненавижу вставать по понедельникам» — отрицательная, «Погода сегодня нормальная» — ответ: Нейтральная.
Вы как бы учите модель на лету. Показали пару примеров — и она уже ориентируется лучше. Даже если примеры не идеальны, главное — сохранить структуру и дать ей за что зацепиться.
Chain-of-Thought: давай по шагам
Когда дело доходит до задач, требующих логики или вычислений, лучше попросить модель подумать вслух. Например: «В сумке лежат 4 яблока. Вы дали 2 соседке, потом купили ещё 3. Сколько осталось?».
Модель может ответить: «5 яблок». Но если добавить: «Подумай шаг за шагом», она ответит так: «Было 4. Минус 2 — осталось 2. Плюс 3 — теперь 5».
Техника работает даже с одной простой фразой. И очень помогает, если задача непростая. Главное — не забывать напоминать модели: «давай по шагам».
Generated Knowledge: подсуньте факт перед вопросом
Бывает, модель ошибается просто потому, что ей не хватает знаний. Тогда можно предварительно подсказать ей нужную информацию. Это называется «prompting с генерацией знаний».
Пример:
Вопрос: «Правда ли, что в гольфе выигрывает тот, у кого больше очков?». Модель может ответить: «Да» (что неверно). Но если перед вопросом добавить: «Цель в гольфе — пройти поле с наименьшим количеством ударов. Меньше очков — лучше. Вопрос: Правда ли, что в гольфе выигрывает тот, у кого больше очков?». Ответ будет правильным: «Нет».
Это полезно, когда вопрос требует каких-то фактов, особенно — специфических или неочевидных.
Что использовать и когда?
Если задача простая — пробуйте zero-shot. Если не работает — дайте 1–2 примера (few-shot). Если нужна логика — добавьте пошаговое мышление (CoT). Если не получается — объединяйте техники. Если не хватает знаний — добавьте контекст или факт.
Работает не только с GPT, но и с другими языковыми моделями. Эти методы простые, понятные и реально экономят время. Не нужно быть программистом, чтобы их использовать — главное, быть внимательным и уметь формулировать мысли. Всё остальное — дело практики.
- Освой нейросеть Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
- УЧАСТВОВАТЬ ЗА 0 РУБ.
- Расскажем, как получить подписку
- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросеть DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ


