Nvidia представила Nemotron 3 Super, новаторскую языковую модель с 120 миллиардами параметров, разработанную для удовлетворения растущих потребностей многоагентных ИИ-систем. Эта модель объединяет три различные архитектуры — модели пространства состояний (Mamba), трансформеры и новую технологию Latent Mixture-of-Experts (LatentMoE) — чтобы обеспечить беспрецедентную пропускную способность и возможности рассуждения, оставаясь при этом коммерчески жизнеспособной благодаря модифицированной лицензии с открытым исходным кодом.
Проблема Масштабирования в ИИ-Агентах
Распространение ИИ-агентов, способных решать сложные задачи с долгосрочным горизонтом (например, разработка программного обеспечения или кибербезопасность), создает проблему масштабирования. Эти агенты требуют обработки огромных объемов данных, но традиционные модели испытывают трудности с поддержанием экономии затрат в таких масштабах. Nvidia Nemotron 3 Super напрямую решает эту проблему, оптимизируя производительность и эффективность.
Архитектурная Инновация: Триадный Подход
Основная сила Nemotron 3 Super заключается в его гибридной архитектуре. Он объединяет три ключевые технологии:
- Гибридная Основа Mamba-Transformer: Это сочетает в себе скорость моделей пространства состояний Mamba-2 (обработка последовательностей с линейной сложностью) с точным ассоциативным запоминанием слоев внимания Transformer. В результате получается модель, способная поддерживать контекстное окно в 1 миллион токенов без чрезмерных накладных расходов на память.
- Latent Mixture-of-Experts (LatentMoE): В отличие от традиционных конструкций MoE, LatentMoE сжимает токены перед маршрутизацией их к специализированным «экспертным» моделям. Это позволяет системе консультироваться с четырьмя разами большим количеством экспертов при тех же вычислительных затратах, что критически важно для агентов, переключающихся между разнообразными задачами.
- Многоточечное Предсказание (MTP): Nemotron 3 Super одновременно предсказывает несколько будущих токенов, функционируя как встроенная модель черновика. Это ускоряет структурированные задачи генерации (например, код или вызовы инструментов) до 3 раз.
Оптимизация Blackwell: Скорость и Эффективность
Модель оптимизирована для GPU-платформы Nvidia Blackwell, предварительно обучена в NVFP4 (4-битная плавающая точка). Это обеспечивает четырехкратное ускорение вывода по сравнению с 8-битными моделями на предыдущей архитектуре Hopper без потери точности.
В ходе сравнительных испытаний Nemotron 3 Super в настоящее время занимает 1-е место в DeepResearch Bench, демонстрируя свою способность проводить тщательные исследования по большим наборам документов. Он также превосходит GPT-OSS-120B и Qwen3.5-122B по пропускной способности до 2,2 и 7,5 раза соответственно в условиях высокой загрузки.
Лицензия Nvidia Open Model: Коммерческое Использование с Гарантиями Безопасности
Модель выпущена под лицензионным соглашением Nvidia Open Model, которое разрешает коммерческое использование, но включает в себя важные оговорки о «гарантиях безопасности». Эти положения защищают Nvidia от судебных разбирательств в отношении интеллектуальной собственности и гарантируют, что функции безопасности модели не будут отключаться без надлежащей замены. В частности, лицензия прекращается, если пользователи отключают механизмы безопасности или инициируют судебные разбирательства в отношении авторских прав/патентов против Nvidia.
Внедрение в Отрасль и Будущие Последствия
Выпуск был встречен с энтузиазмом со стороны разработчиков и лидеров отрасли. Nvidia развертывает модель как микросервис NIM, обеспечивая локальную и облачную интеграцию через Dell AI Factory, HPE, Google Cloud, Oracle, AWS и Azure. Такие компании, как CodeRabbit, Siemens и Palantir, уже интегрируют модель в производственные рабочие процессы.
По мере того как ИИ-агенты становятся более сложными, спрос на эффективные высокопроизводительные языковые модели будет только расти. Nemotron 3 Super представляет собой значительный шаг вперед в удовлетворении этой потребности, обеспечивая «мозговой потенциал» большой модели с операционной эффективностью специалиста.




























