Nvidia wprowadziła Nemotron 3 Super, przełomowy model języka o 120 miliardach parametrów, zaprojektowany w celu zaspokojenia rosnących potrzeb wieloagentowych systemów AI. Model ten łączy trzy różne architektury — modele przestrzeni stanów (Mamba), transformatory i nową technologię Latent Mixture-of-Experts (LatentMoE) — aby zapewnić niespotykaną przepustowość i możliwości wnioskowania, zachowując jednocześnie opłacalność komercyjną dzięki zmodyfikowanej licencji open source.
Problem skalowania w agentach AI
Rozprzestrzenianie się agentów AI zdolnych do rozwiązywania złożonych problemów w perspektywie długoterminowej (na przykład rozwój oprogramowania lub cyberbezpieczeństwo) stwarza problem skalowania. Agenci ci wymagają do przetworzenia ogromnych ilości danych, ale tradycyjne modele mają trudności z utrzymaniem oszczędności na taką skalę. Nvidia Nemotron 3 Super bezpośrednio rozwiązuje ten problem, optymalizując wydajność i efektywność.
Innowacja architektoniczna: podejście triadyczne
Główną siłą Nemotron 3 Super jest jego hybrydowa architektura. Łączy w sobie trzy kluczowe technologie:
- Podstawa hybrydowa Mamba-Transformer: Łączy w sobie szybkość modeli przestrzeni stanów Mamba-2 (sekwencje przetwarzania o złożoności liniowej) z precyzyjnym uczeniem się skojarzeniowym warstw uwagi Transformera. Rezultatem jest model zdolny do obsługi okna kontekstowego zawierającego 1 milion tokenów bez ponoszenia nadmiernego obciążenia pamięci.
- Ukryta mieszanka ekspertów (LatentMoE): W przeciwieństwie do tradycyjnych projektów MoE, LatentMoE kompresuje tokeny przed skierowaniem ich do wyspecjalizowanych modeli „eksperckich”. Dzięki temu system może konsultować się z czterokrotnie większą liczbą ekspertów przy tym samym koszcie obliczeniowym, co ma kluczowe znaczenie w przypadku agentów przełączających się między różnymi zadaniami.
- Przewidywanie wielopunktowe (MTP): Nemotron 3 Super jednocześnie przewiduje wiele przyszłych tokenów, działając jako wbudowany model roboczy. Przyspiesza to zadania generowania strukturalnego (takie jak wywoływanie kodu lub narzędzi) nawet 3-krotnie.
Optymalizacja Blackwell: szybkość i wydajność
Model jest zoptymalizowany dla platformy GPU Nvidia Blackwell, wstępnie przeszkolony w NVFP4 (4-bitowy zmiennoprzecinkowy). Zapewnia to czterokrotnie większą prędkość wnioskowania w porównaniu z modelami 8-bitowymi w poprzedniej architekturze Hoppera, bez utraty precyzji.
W testach porównawczych Nemotron 3 Super zajmuje obecnie pierwsze miejsce w rankingu DeepResearch Bench, demonstrując swoją zdolność do przeprowadzania dokładnych badań dużych zestawów dokumentów. Przewyższa także GPT-OSS-120B i Qwen3.5-122B pod względem przepustowości odpowiednio aż 2,2 i 7,5 razy w warunkach dużego obciążenia.
Licencja Nvidia Open Model: wykorzystanie komercyjne z gwarancjami bezpieczeństwa
Model wydawany jest na podstawie umowy licencyjnej Nvidia Open Model, która dopuszcza wykorzystanie komercyjne, ale zawiera ważne klauzule „gwarancji bezpieczeństwa”. Postanowienia te chronią firmę Nvidia przed sporami dotyczącymi własności intelektualnej i zapewniają, że funkcje bezpieczeństwa modelu nie zostaną wyłączone bez odpowiedniej wymiany. W szczególności licencja wygaśnie, jeśli użytkownicy wyłączą mechanizmy bezpieczeństwa lub wszczęją postępowanie sądowe dotyczące praw autorskich/patentowych przeciwko Nvidii.
Wdrożenie w branży i przyszłe implikacje
Wydanie spotkało się z entuzjazmem programistów i liderów branży. Nvidia wdraża ten model jako mikrousługę NIM, zapewniając integrację lokalną i chmurową za pośrednictwem Dell AI Factory, HPE, Google Cloud, Oracle, AWS i Azure. Firmy takie jak CodeRabbit, Siemens i Palantir już integrują ten model z procesami produkcyjnymi.
W miarę jak agenci sztucznej inteligencji stają się coraz bardziej wyrafinowani, zapotrzebowanie na wydajne i wydajne modele językowe będzie tylko rosło. Nemotron 3 Super stanowi znaczący krok naprzód w zaspokajaniu tej potrzeby, zapewniając moc mózgu dużego modelu z wydajnością operacyjną specjalisty.
