OpenAI снова сделала шаг в сторону открытого сообщества: компания выпустила две открытые модели с открытыми весами — gpt-oss-120b и gpt-oss-20b. Это важный поворот: теперь разработчики, исследователи и компании могут скачать веса, запускать модели локально и кастомизировать их под свои задачи.
Коротко, чтобы понять суть сразу
- gpt-oss-120b — «большая» модель (≈117B параметров, в режиме MoE активирует ~5.1B параметров на токен), по заявлению автора близка по возможностям к o4-mini и показывает сильные результаты в математике, кодировании и медицине.
- gpt-oss-20b — «компактная» модель (≈21B параметров, активирует ~3.6B), которую можно запускать на обычных мощных ноутбуках и некоторых десктоп-графиках с ~16 ГБ памяти.
Оба релиза распространяются под Apache-2.0 — поэтому их можно использовать и модифицировать широко (включая коммерческое применение).
Больше о том, как и где использовать нейросети уже сегодня – на бесплатном вебинаре! Научим пользоваться и покажем, что это легко.
Технически — что внутри (без скучных формул)
Модели — это текстовые Transformer-модели с Mixture-of-Experts (MoE): на каждый токен активируется не весь «огромный» весовой массив, а только несколько «экспертов», что позволяет сочетать большую общую ёмкость и экономичную работу при инференсе. Контекст-окно — 128k токенов, что позволяет обрабатывать очень большие документы и целые кодовые репозитории «за один заход».
Представьте библиотеку (модель) с сотнями экспертов-преподавателей. Для простого вопроса зовут одного-двух, а для трудной междисциплинарной задачи собирают несколько специалистов и они работают вместе — вот так и MoE распределяет нагрузку.

- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
- Где и как применять? Потестируем модель после установки на разных задачах
- Как дообучить модель под себя?
Производительность — что реально умеют (и где сильны)
OpenAI публикует результаты на разных бенчмарках: например, на задачах кодинга, в соревнованиях по математике и в медицинских тестах gpt-oss-120b показывает уровень, близкий к o4-mini; gpt-oss-20b — сопоставим с o3-mini. В ряде тестов открытые модели показывают впечатляющие цифры (включая сильные оценки в HealthBench, AIME и других наборах). Это значит, что вы получаете «много ума» по сравнительно небольшим требованиям к железу.
Бенчмарки — это лишь ориентир; в реальном проекте многое зависит от данных, инструментов (RAG, поиск, исполнение кода) и тонкой настройки.
Запуск локально — что потребуется и что можно ожидать
- gpt-oss-120b: оптимизирована так, что её можно запустить на одной видеокарте с ~80 ГБ видеопамяти (или эквивалентной конфигурации), благодаря 4-битной MXFP4-квантизации MoE-весов. То есть это уже не только завод-суперкомпьютерная игрушка — при нужном железе вы можете иметь модель у себя «в серверной».
- gpt-oss-20b: как заявлено — работает на машинах с ≈16 ГБ памяти; это делает её пригодной для локального прототипирования и даже некоторых задач «на устройстве».
Хотите анализировать огромный PDF-архив компании без отправки данных в облако? gpt-oss-120b с 128k-контекстом умеет прочитать и проанализировать большой пакет документов локально — при наличии подходящего сервера.
Что умеют делать модели «из коробки» — и что добавить самому
- Инструментальная работа (agents, tool use): обе модели поддерживают агентные сценарии — вызовы веб-поиска, исполнение Python-кода и цепочки вызовов инструментов. То есть можно собирать локальные ассистенты, которые выполняют действия на вашей машине.
- Chain-of-Thought (CoT): модели дают «цепочку рассуждений», что удобно для отладки и исследований; но OpenAI предупреждает: CoT не нужно показывать пользователю напрямую, потому что внутри рассуждений может встретиться «несглаженный» или даже вредный контент — это область для аккуратной инженерии и мониторинга.
Вы можете собрать локального ассистента, который по фото чертежа собирает список материалов, делает оценку стоимости и генерирует черновой заказ — и всё это без выхода в интернет.
Безопасность и «что важно знать»
OpenAI подчёркивает, что открывать веса — серьёзный шаг, и при этом они внедрили многоуровневую безопасность: предтренировочный фильтр ряда опасных данных (CBRN и т.п.), пост-тренировочная выравнивающая донастройка и стресс-тесты «в стиле Red Team». Компания также организует Red Teaming Challenge с призовым фондом, чтобы сообщество помогло найти возможные уязвимости в открытых моделях. Но открытые веса означают и то, что злоумышленники теоретически могут попытаться тонко-дообучить модель в плохих целях — поэтому ваша защита, мониторинг и контроль версий будут особенно важны при деплое.
Открытость — это сила сообщества, но и ответственность для тех, кто развертывает модель.
Небольшая реальность: ожидания vs. практика
Открытые веса — это не «волшебная кнопка». Чтобы получить от моделей максимум, придётся: привести в порядок данные, написать надёжные пайплайны тестирования, продумать мониторинг и правила использования, и, возможно, интегрировать вспомогательные инструменты (retrieval, поиск, валидация фактов). Но если вы готовы вложиться, выгоды — большие: автономность, гибкость и возможность быстро экспериментировать.
- Выполним базовые задачи на российских нейросетях и посмотрим на результаты!
- PDF-инструкцию «Как сделать нейрофотосессию из своего фото бесплатно, без иностранных карт и прочих сложностей»
- Покажем 10+ способов улучшить свою жизнь с ИИ каждому — от ребенка и пенсионера до управленца и предпринимателя
- Возможность получить Доступ в Нейроклуб на целый месяц
- Как AI ускоряет работу и приносит деньги
- За 2 часа вы получите четкий план, как начать работать с AI прямо сейчас!
