Loading...
Nemotron 3 Super, NVIDIA lancia il modello AI open da 120 miliardi di parametri pensato per i sistemi agentici
Tecnologia

Nemotron 3 Super, NVIDIA lancia il modello AI open da 120 miliardi di parametri pensato per i sistemi agentici

Disponibile in formato audio

L'architettura ibrida Mamba-Transformer e il sistema Mixture-of-Experts promettono di ridefinire l'efficienza nell'inferenza: solo 12 miliardi di parametri attivi su 120 totali, con una finestra di contesto da un milione di token

Il nuovo modello di NVIDIA: cosa cambia con Nemotron 3 Super

NVIDIA ha annunciato il rilascio di Nemotron 3 Super, un modello di intelligenza artificiale open da 120 miliardi di parametri progettato specificamente per applicazioni multi-agente. La notizia, che arriva in un momento di fortissima competizione nel settore dei large language model, segna un passaggio significativo: non si tratta soltanto di un modello più grande, ma di un'architettura pensata per essere radicalmente più efficiente.

Il dato che colpisce, e che merita di essere compreso a fondo, è la discrepanza tra parametri totali e parametri attivi. Su 120 miliardi complessivi, durante la fase di inferenza — cioè quando il modello genera effettivamente risposte — ne vengono impiegati appena 12 miliardi. Una frazione. È come avere un'orchestra da cento elementi in cui, di volta in volta, suonano solo i dieci musicisti più adatti al brano. Il risultato è un abbattimento drastico delle risorse computazionali necessarie, senza sacrificare la qualità dell'output.

Architettura ibrida e Mixture-of-Experts: i dettagli tecnici

Dietro Nemotron 3 Super c'è un'architettura che mescola due approcci fino a poco tempo fa considerati alternativi: il modello Mamba e l'ormai classico Transformer. L'architettura ibrida Mamba-Transformer combina la capacità dei Transformer di gestire relazioni complesse tra token con l'efficienza sequenziale di Mamba, un'architettura basata su state space model che riduce significativamente il costo computazionale nel processare sequenze molto lunghe.

A questo si aggiunge il sistema Mixture-of-Experts (MoE), che rappresenta il cuore della strategia di efficienza del modello. In un'architettura MoE, la rete neurale è suddivisa in molteplici sotto-reti specializzate — gli "esperti" — e un meccanismo di routing decide, per ogni input, quali attivare. È proprio questo meccanismo a spiegare il rapporto 120 a 12: i parametri esistono tutti, ma solo una porzione mirata viene coinvolta per ogni singola richiesta.

Stando a quanto emerge dalle specifiche diffuse da NVIDIA, la combinazione di queste tre innovazioni — architettura ibrida, sistema MoE e ottimizzazione dell'inferenza — rende Nemotron 3 Super particolarmente adatto a scenari in cui più agenti AI devono operare simultaneamente, coordinarsi e scambiarsi informazioni in tempo reale.

Un milione di token di contesto: perché conta

L'altra novità di peso è la finestra di contesto da un milione di token. Per dare un ordine di grandezza: un milione di token equivale approssimativamente a 750.000 parole, ovvero diversi libri interi. Questo significa che il modello può "tenere a mente" una quantità enorme di informazioni durante una singola conversazione o un singolo task.

Per i workflow agentici, una finestra di contesto così ampia non è un lusso. È una necessità. Quando più agenti collaborano su un compito complesso — analizzare un corpus documentale, gestire una catena di decisioni, condurre ricerche articolate — la capacità di mantenere coerenza su sequenze lunghe diventa il fattore discriminante tra un sistema che funziona e uno che perde il filo.

Non è un caso che la corsa all'ampliamento della finestra di contesto sia diventata uno dei terreni di competizione più accesi tra i principali laboratori di ricerca sull'intelligenza artificiale. NVIDIA, con questa mossa, si posiziona nella fascia alta del mercato.

Open source e sistemi agentici: la strategia di NVIDIA

La scelta di rilasciare Nemotron 3 Super come modello open merita attenzione. NVIDIA, tradizionalmente dominante nel settore hardware con le sue GPU, sta consolidando una presenza sempre più strutturata anche sul versante software e dei modelli linguistici. Rendere il modello accessibile alla comunità di ricerca e agli sviluppatori non è filantropia: è una strategia precisa per creare un ecosistema attorno alla propria infrastruttura.

I sistemi agentici — architetture in cui più modelli AI operano come agenti autonomi, ciascuno con un ruolo specifico — rappresentano quello che molti osservatori considerano la prossima frontiera dell'intelligenza artificiale applicata. Non più un singolo chatbot che risponde a domande, ma reti di agenti capaci di pianificare, eseguire e verificare compiti complessi. In ambiti come la ricerca scientifica, ad esempio, l'approccio multi-agente sta già mostrando risultati promettenti, come dimostrano anche le applicazioni nel campo della scoperta di farmaci attraverso l'AI.

Nemotron 3 Super, con la sua efficienza nell'inferenza e la finestra di contesto estesa, sembra tagliato su misura per questo tipo di scenari.

Il quadro più ampio: dove si colloca Nemotron 3 Super

Il rilascio di Nemotron 3 Super si inserisce in una fase di accelerazione senza precedenti nel campo dell'intelligenza artificiale. La competizione tra modelli open e proprietari si è fatta serratissima, e la tendenza ad architetture sempre più efficienti — capaci di fare di più con meno risorse — sta ridisegnando le regole del gioco.

Sul piano europeo, la questione dell'accesso a modelli AI avanzati e della sovranità tecnologica resta centrale. La strategia europea per l'intelligenza artificiale punta proprio a garantire che il continente non resti semplice consumatore di tecnologie sviluppate altrove. L'apertura di modelli come Nemotron 3 Super, in questo senso, potrebbe rappresentare un'opportunità per i centri di ricerca e le università del vecchio continente, che avrebbero accesso a strumenti di frontiera senza dover sostenere i costi proibitivi dello sviluppo da zero.

Resta da vedere, naturalmente, come il modello si comporterà nei benchmark indipendenti e nelle applicazioni reali. Le specifiche sulla carta sono impressionanti, ma la storia recente dell'AI insegna che la distanza tra le promesse architetturali e le prestazioni effettive può essere significativa. Quello che appare chiaro, però, è che NVIDIA non intende limitarsi a vendere le GPU su cui girano i modelli altrui. Vuole essere protagonista anche nella partita dei modelli stessi. E con Nemotron 3 Super, ha giocato una carta di peso.

Pubblicato il: 12 marzo 2026 alle ore 15:22

Domande frequenti

Quali sono le principali innovazioni introdotte da Nemotron 3 Super rispetto ai precedenti modelli AI?

Nemotron 3 Super introduce un'architettura ibrida Mamba-Transformer, un sistema Mixture-of-Experts (MoE) e una finestra di contesto da un milione di token. Queste innovazioni garantiscono maggiore efficienza computazionale e una miglior gestione di compiti complessi in scenari multi-agente.

Come funziona il sistema Mixture-of-Experts (MoE) in Nemotron 3 Super e quali vantaggi offre?

Il sistema MoE suddivide la rete neurale in più sotto-reti specializzate e attiva solo quelle più adatte per ciascun input, utilizzando solo 12 miliardi di parametri su 120 disponibili in fase di inferenza. Questo riduce drasticamente le risorse computazionali necessarie senza compromettere la qualità delle risposte.

Perché la finestra di contesto da un milione di token è importante per i sistemi agentici?

Una finestra di contesto così ampia permette al modello di mantenere coerenza e memoria su conversazioni o task molto lunghi, fondamentali quando più agenti collaborano su compiti complessi. Questo rende Nemotron 3 Super particolarmente adatto a workflow avanzati e multi-agente.

Perché NVIDIA ha scelto di rilasciare Nemotron 3 Super come modello open source?

La scelta open source mira a creare un ecosistema di ricerca e sviluppo attorno all'infrastruttura NVIDIA, facilitando l'adozione del modello da parte di università e centri di ricerca. È una strategia per rafforzare la presenza NVIDIA non solo nell'hardware ma anche nel settore dei modelli AI.

Qual è il potenziale impatto di Nemotron 3 Super nel contesto europeo della ricerca AI?

Nemotron 3 Super può offrire ai centri di ricerca e alle università europee accesso a tecnologie di frontiera senza i costi di sviluppo di un proprio modello. Questo contribuisce alla sovranità tecnologica europea e favorisce l'innovazione nel settore AI.

Savino Grimaldi

Articolo creato da

Savino Grimaldi

Giornalista Pubblicista Savino Grimaldi è un giornalista laureando in Economia e Commercio, con una solida esperienza maturata nel settore della formazione. Da anni lavora con competenza nell’ambito della formazione professionale, distinguendosi per una conoscenza approfondita delle politiche attive del lavoro e delle dinamiche che legano istruzione, occupazione e sviluppo delle competenze. Alla preparazione economica e professionale affianca una grande passione per la lettura e per il giornalismo, che ne arricchiscono il profilo umano e culturale. Spazia con disinvoltura tra diverse tematiche, offrendo sempre il proprio punto di vista con equilibrio, sensibilità e spirito critico.

Articoli Correlati