Запуск одной новой модели ИИ обычно не вызывает особого ажиотажа за пределами технологических кругов, как и не пугает инвесторов настолько, чтобы свести на нет $1 трлн на фондовом рынке. Однако какое влияние DeepSeek может оказать в рамках ИИ в долгосрочной перспективе? Вот три вещи, заложенные DeepSeek, которые будут расти даже после того, как утихнет ажиотаж.

Во-первых, новый ИИ заставляет спорить о том, сколько энергии должны расходовать модели искусственного интеллекта в поисках лучших ответов.

Возможно, вы слышали, что DeepSeek энергоэффективен. Это верно для этапа обучения, но для вывода, то есть когда вы спрашиваете модель о чем-то и она выдает ответ, это сложно. Модель использует метод цепочки мыслей, который разбивает сложные вопросы — например, можно ли лгать, чтобы защитить чьи-то чувства, — на части, а затем логически отвечает на каждую из них. Этот метод позволяет таким моделям, как DeepSeek, лучше справляться с математикой, логикой, кодированием и многим другим.

Проблема, по крайней мере для некоторых, заключается в том, что такой способ «мышления» потребляет гораздо больше электроэнергии, чем привычный нам ИИ. Хотя сейчас ИИ отвечает за небольшую часть общего объема глобальных выбросов, растет политическая поддержка радикального увеличения количества энергии, идущей на ИИ. Стоит ли энергоемкость моделей цепочки мыслей того, конечно, зависит от того, для чего мы используем ИИ. Научные исследования, направленные на лечение самых страшных болезней в мире, кажутся достойными. Генерирование ИИ? Менее.

Некоторые эксперты опасаются, что впечатляющие возможности DeepSeek приведут к тому, что компании начнут внедрять его во множество приложений и устройств, а пользователи будут использовать его в сценариях, которые для этого не требуются. Например, просить DeepSeek объяснить теорию относительности Эйнштейна — пустая трата времени, поскольку это не требует логических рассуждений, и любая типичная модель чата с искусственным интеллектом может сделать это с меньшими затратами времени и энергии.

Во-вторых, DeepSeek внесла креативные улучшения в процесс обучения модели, и другие компании, вероятно, последуют её примеру.

Продвинутые модели ИИ обучаются не только на больших объёмах текста, изображений и видео. Они во многом зависят от людей, которые очищают данные, аннотируют их и помогают ИИ подбирать более точные ответы — зачастую за весьма скромную оплату.

Один из способов, которым вовлекаются человеческие работники, — это метод обучения с подкреплением на основе обратной связи от человека (reinforcement learning with human feedback, RLHF). Модель генерирует ответ, оценщики дают ему баллы, и эти оценки используются для её дальнейшего улучшения. OpenAI первой внедрила этот метод, но теперь он широко применяется в индустрии.

DeepSeek пошла дальше и сумела автоматизировать этот процесс оценки и обучения с подкреплением. «Пропуск или сокращение обратной связи от человека — это серьёзное достижение», — говорит Итамар Фридман, бывший директор исследовательского подразделения Alibaba, а теперь сооснователь и генеральный директор израильского AI-стартапа Qodo. «Вы практически полностью обучаете модели без необходимости задействовать людей для этой работы».

Этот подход особенно хорошо работает в таких областях, как математика и программирование, но для других тем по-прежнему требуется участие людей. Тем не менее DeepSeek пошла ещё дальше и использовала методы, напоминающие те, с помощью которых Google DeepMind в 2016 году обучила свою модель ИИ для игры в Go. Система прогнозирует возможные ходы и оценивает их последствия. Эти нововведения, особенно учитывая, что они подробно описаны в открытой документации DeepSeek, наверняка возьмут на вооружение и другие компании.

Что такое ИИ?

Кажется, что все знают ответ, но никто не может прийти к единому мнению. И это проблема.

В-третьих, успех DeepSeek подогреет важный спор: можно ли одновременно выступать за открытость исследований в области ИИ и стремиться к усилению конкурентоспособности США в противостоянии с Китаем?

Задолго до того, как DeepSeek выпустила свою модель в открытый доступ, некоторые компании в сфере ИИ утверждали, что индустрия должна быть максимально прозрачной. Они считали, что если исследователи будут придерживаться принципов open-source и раскрывать свои разработки, глобальная гонка за созданием сверхразумного ИИ сможет превратиться в научное стремление к общественному благу, а влияние отдельных игроков будет сдерживаться за счет участия других участников.

Это хорошая идея. Meta (признана правительством РФ экстремистской организацией) в целом поддерживает такое видение, а венчурный капиталист Марк Андриссен утверждает, что подходы с открытым исходным кодом могут быть более эффективными для обеспечения безопасности ИИ, чем государственное регулирование. OpenAI, напротив, занимает противоположную позицию, придерживаясь закрытой модели, чтобы избежать попадания технологий в руки злоумышленников.

DeepSeek внесла в этот спор дополнительную сложность. «Мы оказались не на той стороне истории и должны пересмотреть нашу стратегию в отношении open-source», — заявил Сэм Альтман из OpenAI в ходе AMA-сессии на Reddit. Это неожиданное заявление, учитывая прежнюю позицию OpenAI.

Другие, включая Дональда Трампа, наоборот, усилили призывы к укреплению конкурентоспособности США в сфере ИИ, воспринимая успех DeepSeek как тревожный сигнал. Дарио Амодей, сооснователь Anthropic, отметил, что этот случай напоминает о необходимости строгого контроля над поставками передовых чипов в Китай в ближайшие годы — и некоторые законодатели уже продвигают эту идею.

В ближайшие месяцы новые разработки от DeepSeek и других компаний станут настоящей проверкой для всех этих аргументов.

OpenAI запустила инструмент под названием Deep Research. Вы можете задать ему сложный вопрос, и он потратит до 30 минут на изучение источников, сбор информации и составление отчета. Это совершенно новая разработка, и пока ее качество не было протестировано. Поскольку вычисления требуют много времени (а значит, и энергии), сейчас Deep Research доступен только пользователям платного тарифа OpenAI Pro с ограничением на количество запросов в месяц.

Почему это важно?

Компании, работающие с ИИ, активно соревнуются в создании полезных инструментов и чат-ботов, которые могут выполнять задачи от имени пользователя. 23 января OpenAI представила агента Operator, который способен управлять вашим компьютером — например, бронировать столики в ресторанах или подбирать варианты авиаперелетов.

Новый инструмент показывает, что OpenAI стремится не просто упростить рутинные онлайн-задачи, но и сделать ИИ полноценным помощником в профессиональных исследовательских процессах. Компания утверждает, что Deep Research выполняет за десятки минут то, на что у человека ушли бы часы. Останется ли он востребованным с учетом высокой стоимости и возможных ошибок в данных — покажет время.

Большой практикум
ЗАМЕНИ ВСЕ НЕЙРОСЕТИ НА ОДНУ — PERPLEXITY
ПОКАЖЕМ НА КОНКРЕТНЫХ КЕЙСАХ
  • Освой Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
  • УЧАСТВОВАТЬ ЗА 0 РУБ.
  • Расскажем, как получить подписку (240$) бесплатно
Участвовать бесплатно
ОНЛАЙН-ПРАКТИКУМ
ЗАПУСК DEEPSEEK R1 ЛОКАЛЬНО НА СВОЕМ КОМПЬЮТЕРЕ
ЧТО БУДЕТ НА ОБУЧЕНИИ?
  • ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
Участвовать бесплатно