Gate News повідомляє, що 12 березня NVIDIA випустила відкриту модель великого мовлення Nemotron 3 Super, розроблену для сценаріїв багатьох агентів. Загальна кількість параметрів моделі становить 120 мільярдів, вона використовує гібридну архітектуру Mamba-Transformer MoE, при обробці кожного токена активується лише 12 мільярдів параметрів. Основна технологія «Latent MoE» дозволяє зменшити розмір вбудовування токенів до низькорозрядного латентного простору та маршрутизувати їх до експертних мереж, що дозволяє одночасно активувати 4 експерти з обчислювальними затратами одного експерта. Продуктивність обробки в порівнянні з попереднім поколінням Nemotron Super зросла до 5 разів. Модель підтримує вікно контексту до 1 мільйона токенів, що підходить для автономних агентів, які потребують тривалого збереження стану робочого процесу. У бенчмарку PinchBench, що оцінює навантаження агентів, Nemotron 3 Super отримала 85.6%, що є найвищим показником серед відкритих моделей. NVIDIA також відкрила набір даних для тренування понад 100 трильйонів токенів, 15 середовищ для навчання з підсиленим навчанням та оцінювальні схеми, ліцензовані за NVIDIA Nemotron Open Model License. Модель вже доступна на платформах Hugging Face, build.nvidia.com, Perplexity, OpenRouter та підтримує розгортання через Google Cloud, Oracle, AWS Bedrock, Azure тощо. Компанії Perplexity, CodeRabbit, Cadence, Dassault Systèmes, Siemens вже почали її використовувати.