Медиа о нейросетях,
зерокодинге и онлайн-образовании

DeepSeek

9 публикаций
Новая модель DeepSeek 3.2, которая соперничает с GPT-5 и Gemini 3 Pro
— не больше 2 мин
Появилась ещё одна заметная веха в гонке больших языковых моделей: китайская лаборатория DeepSeek выпустила линейку моделей V3.2 — в том числе высокопроизводительную версию DeepSeek-V3.2-Speciale — и заявляет о результатах, которые ставят её в один ряд с OpenAI GPT-5 и Google Gemini 3...
Как ИИ помогает создавать образовательные приложения
— не больше 1 мин

Екатерина Моякулова, педагог из Республики Саха (Якутия), стремится сделать ИИ своим надежным помощником на пути к профессиональному росту. Она осваивает новые технологии и внедряет их в свою работу, создавая инновационные инструменты для учителей.

Сравнение моделей ИИ: GPT-OSS-120B vs. Qwen3-235B vs. DeepSeek-R1
— не больше 1 мин
Три крупных открытых модели 2025-го отличаются философией и сильными сторонами. GPT-OSS-120B — «экономный работяга» с MoE-хитростями для реального деплоя. Qwen3-235B — длинноокончатый специалист для больших документов и мульти­языка. DeepSeek-R1 — тяжёлая артиллерия с само-проверкой и обучением через усиление (RL), заточенная под сложное...
DeepSeek R1 vs. DeepSeek V3.1: чем лучше новая модель
— не больше 1 мин
DeepSeek выпустили обновлённую версию V3.1 — гибридную reasoning-модель с режимами Think / Non-Think, длинным контекстом и заметным прогрессом по сравнению с ранней R1-версией. При этом V3.1 всё ещё уступает лидерам (например, GPT-5 по ряду бенчмарков). Ниже — понятный разбор, что именно изменилось...
Character.AI и DeepSeek V3: новый способ обучения больших языковых моделей (LLM)
— не больше 2 мин
Если раньше обучение больших языковых моделей (LLM) казалось чем-то вроде магии, то сегодня оно постепенно превращается в инженерное ремесло. Character.AI решила сделать шаг навстречу сообществу и открыла проект pipeling-sft — лёгкий, но мощный фреймворк для дообучения моделей с архитектурой Mixture-of-Experts (MoE), таких...
Manus AI и DeepSeek: в чем разница двух китайских нейросетей
— не больше 2 мин
Весной 2025 года технологическое сообщество наблюдало за Китаем с особым вниманием. Причина — два громких проекта в области искусственного интеллекта, запущенных с разницей в пару месяцев. Один — это DeepSeek, масштабная языковая модель, получившая прозвище «китайский ответ GPT‑4». Второй — Manus AI,...
Gemma 3 или DeepSeek R1 —  какая модель умнее?
— не больше 2 мин
Весна 2025 года оказалась жаркой в мире LLM: Google представил Gemma 3, компактную, но очень мощную модель, а китайский DeepSeek продолжал доминировать с флагманской версией R1. Но если одна меньше и работает на одном GPU, а другая — гигант с сотнями миллиардов параметров,...
Эмбеддинги в Qwen и DeepSeek: как нейросети учатся понимать смысл
— не больше 1 мин
Современные языковые модели уже не просто подбирают слова. Они улавливают смысл, распознают намерения и ориентируются в контексте. Всё это — благодаря эмбеддингам: векторным представлениям, лежащим в основе «понимания» текста нейросетями. Что такое эмбеддинг? Если совсем просто — это способ превратить текст в набор чисел,...