Оказалось, маленькая модель ИИ может справляться со сложными задачами даже лучше, чем LLM, на которые сегодня делают ставку крупные технокомпании.

Исследовательница Samsung SAIL в Монреале Алексия Жоликер-Мартино представила Tiny Recursive Model (TRM) — маленькую, но очень умную модель, которая решает задачи рассуждения на уровне, недоступном многим гигантам.

TRM содержит всего 7 миллионов параметров — это меньше 0,01% от размера современных лидирующих LLM. И при этом показывает отличные результаты на самых сложных тестах, вроде ARC-AGI, которые проверяют «настоящий интеллект» алгоритмов. Исследование Samsung ставит под сомнение идею, что единственный путь к сильному ИИ — просто увеличивать модели до бесконечности.

ARC-AGI — это тест, который проверяет, может ли искусственный интеллект рассуждать как человек. В нём ИИ получает несколько простых примеров с цветными фигурами и должен сам догадаться, по какому принципу они изменяются, а затем применить это правило к новой задаче. Такой формат позволяет оценить не знания модели, а её умение находить закономерности, делать выводы и переносить логику в новые ситуации — то есть проявлять настоящий «обобщающий интеллект».

Масштаб больше не решает

Большие языковые модели умеют писать убедительные тексты, но сложные логические цепочки даются им тяжело. Они создают ответ по одному токену, и ошибка в самом начале может разрушить всю цепочку рассуждений.

Существуют методы вроде chain-of-thought (пошаговое рассуждение), когда ИИ как бы «думает вслух», расписывая свои шаги. Но это требует много вычислений и огромных объемов качественных данных. И даже в этом случае модель может ошибиться.

Samsung взяли за основу предыдущую разработку — HRM (Hierarchical Reasoning Model, модель иерархического рассуждения). Этот подход включал две небольшие сети, которые по очереди уточняли решение. Но модель была громоздкой и опиралась на сложные математические предположения, которые не всегда срабатывали.

TRM пошла другим путем — упростила схему и оставила одну маленькую сеть, которая делает все сама.

Как работать с любыми ИИ, независимо от их масштаба и возможностей, рассказываем на бесплатном вебинаре «Профессия промпт-инженер: как хайп прошлого года превратился в самую востребованную специализацию». Регистрируйтесь и вы узнаете, что изменилось за год для потенциальных промпт-инженеров, а СЕО & co-founder «Зерокодера» Кирилл Пшинник разберет самые интересные кейсы и их оплату.

ОНЛАЙН-ПРАКТИКУМ
ЗАПУСК нейросети DEEPSEEK R1 ЛОКАЛЬНО НА СВОЕМ КОМПЬЮТЕРЕ
ЧТО БУДЕТ НА ОБУЧЕНИИ?
  • ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросети DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
  • Где и как применять? Потестируем модель после установки на разных задачах
  • Как дообучить модель под себя?

Суть работы Tiny Recursive Model

Модель получает задачу, набросок ответа и скрытое «внутреннее состояние рассуждения». Затем она:

  1. Несколько раз уточняет свое внутреннее рассуждение на основе входных данных.
  2. Использует это уточненное рассуждение, чтобы улучшить предложенный ответ.
  3. Повторяет этот цикл до 16 раз, постепенно исправляя свои ошибки.

Модель буквально рассуждает шаг за шагом и корректирует сама себя, не нуждаясь в большом количестве параметров.

Интересно, что маленькая архитектура из двух слоев работает лучше, чем более глубокая четырехслойная версия. Чем компактнее TRM, тем лучше она обобщает знания и избегает переобучения.

Еще одно важное отличие — TRM не требует сложных математических доказательств сходимости. Вместо этого команда обучает модель через полный цикл ее рекурсивной работы. Это решение резко повысило качество: на экстремально сложных судоку точность выросла с 56,5% до 87,4%.

Впечатляющие результаты при минимальных ресурсах

TRM показывает поразительные успехи на разных задачах:

  • Sudoku-Extreme — 87,4% точности против 55% у HRM.
  • Maze-Hard (лабиринты 30×30) — 85,3% против 74,5%.
  • ARC-AGI — 44,6% на первой части теста и 7,8% на второй. Эти результаты превосходят не только HRM, но и многие огромные LLM.Для сравнения: популярная модель Gemini Pro 2.5 набирает всего 4,9% на ARC-AGI-2.

Процесс обучения TRM тоже сделали проще и дешевле. Упростился механизм, который определяет, когда остановить цикл уточнения и перейти к следующему примеру.

Что это значит для будущего ИИ?

Исследование Samsung показывает важную идею: чтобы решать действительно сложные логические задачи, не обязательно создавать модели на миллиарды параметров. Правильно построенная архитектура, умеющая рассуждать и исправлять себя, может быть: компактной, эффективной, быстрой в обучении и при этом невероятно умной.

Так мы приблизились к более устойчивому ИИ, который может работать на меньших ресурсах и решать задачи с упором на разум, а не масштаб.

Большой практикум
ЗАМЕНИ ВСЕ НЕЙРОСЕТИ НА ОДНУ — PERPLEXITY
ПОКАЖЕМ НА КОНКРЕТНЫХ КЕЙСАХ
  • Освой нейросеть Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
  • УЧАСТВОВАТЬ ЗА 0 РУБ.
  • Расскажем, как получить подписку
Участвовать бесплатно
ОНЛАЙН-ПРАКТИКУМ
ЗАПУСК нейросети DEEPSEEK R1 ЛОКАЛЬНО НА СВОЕМ КОМПЬЮТЕРЕ
ЧТО БУДЕТ НА ОБУЧЕНИИ?
  • ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросеть DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
Участвовать бесплатно