Мы посвятили эту статью сразу нескольким LLM с открытым исходным кодом, потому что одно лучшей не существует. Есть много критериев оценки моделей, и различные исследовательские группы решают, какие показатели нужнее.

Благодаря Hugging Face появилась публичная таблица лидеров для программ LLM с открытым исходным кодом. В нем проводятся тесты по 6 ключевым бенчмаркам с использованием Eleuther AI Language Model Evaluation Harness. Результаты суммируются, и каждая большая языковая модель получает окончательную оценку.

В таблице лидеров есть несколько быстрых фильтров для потребительского класса, моделей периферийных устройств и т.д. Также доступны несколько настраиваемых столбцов, таких как размер модели, метод квантования и много всего другого.

Falcon 3: для среды с ограниченными ресурсами

Falcon 3 — новая итерация открытых моделей больших языков, разработанных Институтом технологических инноваций (TII) в Абу-Даби. Фалькон демонстрирует впечатляющую производительность для небольших LLM и одновременно демократизирует доступ к передовому ИИ, обеспечивая эффективную работу на легких ПК, включая ноутбуки.

Характеристики:

  • несколько размеров модели: параметры 1B, 3B, 7B и 10B
  • обучена на 14 триллионах токенов, что более чем в два раза превышает показатели предшественника
  • качественное рассуждение и большие возможности тонкой настройки
  • расширенные контекстные окна до 32 тыс. лексем (кроме модели 1B с 8 тыс.)
  • многоязычная поддержка (английский, французский, испанский и португальский языки)
  • вариант Falcon3-Mamba-7B с использованием альтернативной архитектуры State Space Model (SSM)

Можно применять в генерации текста и кода, математических и научных задачах, многоязычных приложениях, тонкой настройке для конкретных доменов или задач.

ОНЛАЙН-ПРАКТИКУМ
ЗАПУСК DEEPSEEK R1 ЛОКАЛЬНО НА СВОЕМ КОМПЬЮТЕРЕ
ЧТО БУДЕТ НА ОБУЧЕНИИ?
  • ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
  • Где и как применять? Потестируем модель после установки на разных задачах
  • Как дообучить модель под себя?

Gemma 2: для сложной разработки и внедрения ИИ

Gemma 2 — еще одна LLM с открытым исходным кодом от Google, созданная на основе тех же технологий, которые использовались для моделей Gemini. Она предлагает высокую производительность для своего размера и разработана с упором на сложную разработку ИИ и эффективное развертывание.

Характеристики:

  • несколько размеров модели: параметры 2B, 9B и 27B
  • повышенная производительность: модель 27B превосходит более крупные собственные модели
  • оптимизирован для эффективного вывода на различном оборудовании: от периферийных устройств до облачных развертываний
  • встроенные усовершенствования безопасности
  • широкая совместимость с фреймворками (Keras, JAX, PyTorch, Hugging Face и т.д.)
  • дополнительные инструменты: ShieldGemma для безопасности контента и Gemma Scope для понимания модели

Подходит для ответов на вопросы и обобщения, больших исследований и разработки в области ИИ, AI-приложений на устройствах с моделью 2B.

Phi-3.x / 4: для экономичных разработок в области ИИ

Phi-3.x / 4 является малой языковой моделью (SLM) с открытым исходным кодом от Microsoft. Она отличается высокой производительностью и экономичностью.

О том, что такое SLM и какие типы нейросетей бывают, читайте в нашей прошлой статье.

 

В обновлениях Phi-3.5 расширена мультиязычная поддержка, улучшено понимание многокадровых изображений и применена новая архитектура MoE.

Phi-4, более новая модель, делает упор на качество информации, а не на ее объем. Она была обучена на отфильтрованном публичном контенте и академических ресурсах. Модель достигла впечатляющей производительности в ряде бенчмарков при использовании всего 16B параметров.

Характеристики:

  • несколько размеров модели: 3,8B (мини), 7B (малая), 14B (средняя) и 42B (MoE) параметров для Phi-3.x; 16B для Phi-4
  • поддержка длинных контекстных окон до 128К лексем для Phi-3.x, 16К для Phi-4
  • многоязычные возможности (более 20 языков)
  • мультимодальная поддержка с Phi-3.5vision для понимания изображений
  • архитектура Mixture-of-Experts (MoE) для повышения эффективности
  • оптимизирован для ONNX Runtime и различных аппаратных целей
  • разработан в соответствии со стандартом Microsoft Responsible AI Standard

Ориентирован на генерацию текста и кода, многоязычные приложения, математические рассуждения, зависающие приложения.

Тут мы говорили о зарубежных нейросетях. Как насчет того, чтобы углубиться в отечественный ИИ? Подробно разберем лучшие российские нейросети на бесплатном вебинаре.

Итог

Подчеркнем еще раз — выбор хорошего LLM с открытым исходным кодом зависит от конкретного случая использования, ведь такие модели, как Falcon, Gemma и Phi превосходят друг друга в средах разработки, производительности и экономии.

Учитывайте такие факторы, как требования к задачам, настройки развертывания и доступные ресурсы, чтобы ваш год прошел с топовыми LLM!

РОССИЙСКИЕ НЕЙРОСЕТИ ДЛЯ ЖИЗНИ И КАРЬЕРЫ В 2025
Присоединяйся к онлайн-вебинару.
В прямом эфире разберем и потестируем лучшие на сегодняшний день отечественные ИИ!
Вы узнаете о том:
  • Выполним базовые задачи на российских нейросетях и посмотрим на результаты!
  • PDF-инструкцию «Как сделать нейрофотосессию из своего фото бесплатно, без иностранных карт и прочих сложностей»
  • Покажем 10+ способов улучшить свою жизнь с ИИ каждому — от ребенка и пенсионера до управленца и предпринимателя
Участвовать бесплатно
ОБЗОРНЫЙ ПРАКТИКУМ ПО НАШУМЕВШИМ НЕЙРОСЕТЯМ
DEEPSEEK И QWEN
За 2 часа сделаем полный обзор новых мощных AI-моделей, которые бросают вызов ChatGPT
Вы узнаете:
  • Возможность получить Доступ в Нейроклуб на целый месяц
  • Как AI ускоряет работу и приносит деньги
  • За 2 часа вы получите четкий план, как начать работать с AI прямо сейчас!
Участвовать бесплатно