Современные языковые модели быстро развиваются, и каждый новый релиз добавляет что-то новое. DeepSeek V3 — одна из таких моделей. Это открытая, масштабируемая и технологически продвинутая система, которая уверенно конкурирует даже с такими гигантами, как GPT‑4. В этой статье разберёмся, что делает DeepSeek V3 особенной, какие у неё возможности и как её можно запустить локально.

Что такое DeepSeek V3

DeepSeek V3 — это языковая модель нового поколения с 671 миллиардом параметров, из которых активируются лишь 37 миллиардов на каждый токен благодаря архитектуре Mixture‑of‑Experts (MoE). Такой подход позволяет достигать высокой производительности при заметно меньших вычислительных затратах.

Она построена на опыте DeepSeek V2 и усовершенствована рядом важных нововведений:

  • Multi-head Latent Attention (MLA) повышает эффективность обработки длинного контекста,
  • безубыточная стратегия балансировки нагрузки помогает задействовать все экспертные блоки без потерь в качестве,
  • многотокенное предсказание (Multi-Token Prediction, MTP) ускоряет вывод и делает генерацию более стабильной.

Модель прошла трёхступенчатое обучение:

  1. Предобучение на 14,8 триллионах токенов высокого качества.
  2. Последующее тонкое обучение под присмотром (SFT).
  3. Завершающий этап — обучение с подкреплением, нацеленное на выработку оптимального поведения в диалоге и генерации.

Почему DeepSeek V3 — это шаг вперёд

Если сравнивать с другими открытыми моделями, DeepSeek V3 выделяется сразу по нескольким фронтам.

Контекстное окно в 128 000 токенов — это один из самых больших показателей среди открытых LLM, позволяющий работать с книгами, юридическими документами, кодом и аналитикой без дробления текста.

Высокая эффективность обучения: модель была обучена на лишь 2,7 млн GPU-часов с использованием графических ускорителей H800, что в разы дешевле, чем обучение аналогичных моделей закрытого типа.

Бенчмарки подтверждают её силу: модель опережает Qwen 2.5, LLaMA 3.1 и даже близко приближается к GPT‑4o в задачах математики, кодирования, reasoning и мультиязычного понимания.

Если вы хотите глубже разобраться в современных LLM и научиться использовать такие модели, как DeepSeek V3, в своих проектах — рекомендуем заглянуть на бесплатный обзорный практикум по Qwen и DeepSeek от Зерокодера!

Что внутри: технический взгляд

DeepSeek V3 сочетает в себе MoE, MLA и FP8-тренировку. Такой стек технологий позволяет одновременно масштабировать модель и снижать затраты на обучение и использование.

В задачах HumanEval (кодирование), MATH, GSM8K (математика) и AGIEval (логическое мышление) DeepSeek V3 показывает одни из лучших среди всех открытых LLM результатов.

Инженеры DeepSeek внедрили в модель элементы Chain-of-Thought-обучения от DeepSeek R1, научив модель рассуждать поэтапно. При этом они сохранили контроль над стилем и длиной вывода, что делает V3 гибким инструментом под разные задачи.

ОНЛАЙН-ПРАКТИКУМ
ЗАПУСК DEEPSEEK R1 ЛОКАЛЬНО НА СВОЕМ КОМПЬЮТЕРЕ
ЧТО БУДЕТ НА ОБУЧЕНИИ?
  • ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
  • Где и как применять? Потестируем модель после установки на разных задачах
  • Как дообучить модель под себя?

Где скачать и как запустить локально

DeepSeek V3 доступна для загрузки на Hugging Face в двух вариантах:

  • Base-модель — оптимизирована для разработчиков и исследований.
  • Полная версия — включает основной модуль и дополнительный MTP-блок.

Для запуска доступны следующие варианты:

  1. DeepSeek-Infer Demo. Лёгкий способ протестировать модель на Linux с Python 3.10. Поддерживает FP8 и BF16. Установка довольно простая: клонируете репозиторий, скачиваете веса и запускаете скрипт.
  2. SGLang. Самый рекомендуемый способ запуска. Поддерживает как NVIDIA, так и AMD GPU, FP8/FP16, многомашинный запуск и Multi-Token Prediction. Именно через SGLang обеспечивается наилучшее время отклика и масштабируемость.
  3. LMDeploy. Подходит для тех, кто хочет внедрить модель в продакшн. Поддерживает офлайн и онлайн режимы, интеграцию с PyTorch и оптимизацию под локальное железо.
  4. TensorRT‑LLM. Предлагает вариативность в точности: BF16, INT4, INT8. FP8 поддержка на подходе. Оптимизирован под inference на NVIDIA‑устройствах.
  5. vLLM и LightLLM. Эти фреймворки поддерживают параллелизм и запуск в мультиузловых системах. Подойдут для более сложной инфраструктуры и гибких сценариев использования.

Поддержка альтернативного железа

DeepSeek V3 можно запускать не только на NVIDIA. SGLang обеспечивает поддержку AMD GPU — с первого дня, Huawei Ascend NPU — в режиме INT8/BF16.

Модель распространяется под лицензией MIT, а значит, вы можете использовать её в коммерческих проектах, адаптировать, дорабатывать и интегрировать в свои продукты без лишних ограничений.

Где пощупать без установки?

Если пока не хотите запускать модель локально, протестировать её можно на официальной платформе:

DeepSeek V3 — это не просто очередная большая модель. Это попытка пересобрать сам подход к языковым моделям: мощная, эффективная, доступная и открытая. Если вы работаете с ИИ, создаёте продукты, пишете код или обрабатываете большие массивы информации — V3 точно заслуживает вашего внимания.

РОССИЙСКИЕ НЕЙРОСЕТИ ДЛЯ ЖИЗНИ И КАРЬЕРЫ В 2025
Присоединяйся к онлайн-вебинару.
В прямом эфире разберем и потестируем лучшие на сегодняшний день отечественные ИИ!
Вы узнаете о том:
  • Выполним базовые задачи на российских нейросетях и посмотрим на результаты!
  • PDF-инструкцию «Как сделать нейрофотосессию из своего фото бесплатно, без иностранных карт и прочих сложностей»
  • Покажем 10+ способов улучшить свою жизнь с ИИ каждому — от ребенка и пенсионера до управленца и предпринимателя
Участвовать бесплатно
ОБЗОРНЫЙ ПРАКТИКУМ ПО НАШУМЕВШИМ НЕЙРОСЕТЯМ
DEEPSEEK И QWEN
За 2 часа сделаем полный обзор новых мощных AI-моделей, которые бросают вызов ChatGPT
Вы узнаете:
  • Возможность получить Доступ в Нейроклуб на целый месяц
  • Как AI ускоряет работу и приносит деньги
  • За 2 часа вы получите четкий план, как начать работать с AI прямо сейчас!
Участвовать бесплатно