Оказалось, маленькая модель ИИ может справляться со сложными задачами даже лучше, чем LLM, на которые сегодня делают ставку крупные технокомпании.
Исследовательница Samsung SAIL в Монреале Алексия Жоликер-Мартино представила Tiny Recursive Model (TRM) — маленькую, но очень умную модель, которая решает задачи рассуждения на уровне, недоступном многим гигантам.
TRM содержит всего 7 миллионов параметров — это меньше 0,01% от размера современных лидирующих LLM. И при этом показывает отличные результаты на самых сложных тестах, вроде ARC-AGI, которые проверяют «настоящий интеллект» алгоритмов. Исследование Samsung ставит под сомнение идею, что единственный путь к сильному ИИ — просто увеличивать модели до бесконечности.
ARC-AGI — это тест, который проверяет, может ли искусственный интеллект рассуждать как человек. В нём ИИ получает несколько простых примеров с цветными фигурами и должен сам догадаться, по какому принципу они изменяются, а затем применить это правило к новой задаче. Такой формат позволяет оценить не знания модели, а её умение находить закономерности, делать выводы и переносить логику в новые ситуации — то есть проявлять настоящий «обобщающий интеллект».
Масштаб больше не решает
Большие языковые модели умеют писать убедительные тексты, но сложные логические цепочки даются им тяжело. Они создают ответ по одному токену, и ошибка в самом начале может разрушить всю цепочку рассуждений.
Существуют методы вроде chain-of-thought (пошаговое рассуждение), когда ИИ как бы «думает вслух», расписывая свои шаги. Но это требует много вычислений и огромных объемов качественных данных. И даже в этом случае модель может ошибиться.
Samsung взяли за основу предыдущую разработку — HRM (Hierarchical Reasoning Model, модель иерархического рассуждения). Этот подход включал две небольшие сети, которые по очереди уточняли решение. Но модель была громоздкой и опиралась на сложные математические предположения, которые не всегда срабатывали.
TRM пошла другим путем — упростила схему и оставила одну маленькую сеть, которая делает все сама.
Как работать с любыми ИИ, независимо от их масштаба и возможностей, рассказываем на бесплатном вебинаре «Профессия промпт-инженер: как хайп прошлого года превратился в самую востребованную специализацию». Регистрируйтесь и вы узнаете, что изменилось за год для потенциальных промпт-инженеров, а СЕО & co-founder «Зерокодера» Кирилл Пшинник разберет самые интересные кейсы и их оплату.

- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросети DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
- Где и как применять? Потестируем модель после установки на разных задачах
- Как дообучить модель под себя?
Суть работы Tiny Recursive Model
Модель получает задачу, набросок ответа и скрытое «внутреннее состояние рассуждения». Затем она:
- Несколько раз уточняет свое внутреннее рассуждение на основе входных данных.
- Использует это уточненное рассуждение, чтобы улучшить предложенный ответ.
- Повторяет этот цикл до 16 раз, постепенно исправляя свои ошибки.
Модель буквально рассуждает шаг за шагом и корректирует сама себя, не нуждаясь в большом количестве параметров.
Интересно, что маленькая архитектура из двух слоев работает лучше, чем более глубокая четырехслойная версия. Чем компактнее TRM, тем лучше она обобщает знания и избегает переобучения.
Еще одно важное отличие — TRM не требует сложных математических доказательств сходимости. Вместо этого команда обучает модель через полный цикл ее рекурсивной работы. Это решение резко повысило качество: на экстремально сложных судоку точность выросла с 56,5% до 87,4%.
Впечатляющие результаты при минимальных ресурсах
TRM показывает поразительные успехи на разных задачах:
- Sudoku-Extreme — 87,4% точности против 55% у HRM.
- Maze-Hard (лабиринты 30×30) — 85,3% против 74,5%.
- ARC-AGI — 44,6% на первой части теста и 7,8% на второй. Эти результаты превосходят не только HRM, но и многие огромные LLM.Для сравнения: популярная модель Gemini Pro 2.5 набирает всего 4,9% на ARC-AGI-2.
Процесс обучения TRM тоже сделали проще и дешевле. Упростился механизм, который определяет, когда остановить цикл уточнения и перейти к следующему примеру.
Что это значит для будущего ИИ?
Исследование Samsung показывает важную идею: чтобы решать действительно сложные логические задачи, не обязательно создавать модели на миллиарды параметров. Правильно построенная архитектура, умеющая рассуждать и исправлять себя, может быть: компактной, эффективной, быстрой в обучении и при этом невероятно умной.
Так мы приблизились к более устойчивому ИИ, который может работать на меньших ресурсах и решать задачи с упором на разум, а не масштаб.
- Освой нейросеть Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
- УЧАСТВОВАТЬ ЗА 0 РУБ.
- Расскажем, как получить подписку
- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросеть DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ