{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

NVIDIA celebra i 25 anni della GeForce 3: Jensen Huang racconta la scintilla che ha acceso l'era dell'intelligenza artificiale

Dal primo chip con shader programmabili alla nascita di CUDA: il fondatore di NVIDIA ripercorre un quarto di secolo di evoluzione tecnologica che ha ridefinito il computing mondiale

* Venticinque anni dalla GeForce 3: molto più di una scheda grafica * Shader programmabili: la svolta che cambiò tutto * Da CUDA all'intelligenza artificiale: una catena di conseguenze * Il peso della ricerca nel computing ad alte prestazioni

Venticinque anni dalla GeForce 3: molto più di una scheda grafica {#venticinque-anni-dalla-geforce-3-molto-piu-di-una-scheda-grafica}

C'è un filo rosso che collega una scheda video pensata per i videogiochi del 2001 ai data center che oggi alimentano ChatGPT, i modelli di linguaggio e l'intera infrastruttura dell'intelligenza artificiale globale. Quel filo, stando a Jensen Huang, parte esattamente dalla GeForce 3.

In una conversazione organizzata per celebrare il 25° anniversario del lancio di quella GPU, il fondatore e CEO di NVIDIA ha riavvolto il nastro della storia aziendale con la lucidità di chi sa di aver scommesso — e vinto — su un'intuizione che allora sembrava marginale. La GeForce 3, ha spiegato Huang, non fu semplicemente un prodotto di successo commerciale. Fu il primo tassello di un'architettura concettuale che avrebbe trasformato NVIDIA da produttore di chip grafici in colosso del _computing ad alte prestazioni_.

Una metamorfosi tutt'altro che scontata. Nel 2001, il mercato delle GPU era dominato dalla corsa alle prestazioni nei videogiochi, e pochi — forse nessuno al di fuori dei laboratori di Santa Clara — immaginavano che quelle stesse unità di calcolo parallelo avrebbero un giorno reso possibile addestrare reti neurali con miliardi di parametri.

Shader programmabili: la svolta che cambiò tutto {#shader-programmabili-la-svolta-che-cambio-tutto}

Il cuore tecnico della questione sta negli shader programmabili. Prima della GeForce 3, le GPU eseguivano operazioni grafiche secondo pipeline fisse e rigide: il chip sapeva fare bene alcune cose, ma non era possibile istruirlo a farne di diverse. Con l'introduzione dei vertex shader e dei pixel shader programmabili, NVIDIA aprì una breccia.

Per la prima volta, gli sviluppatori potevano scrivere piccoli programmi da eseguire direttamente sulla GPU. Era una libertà inedita. «Quella fu la porta», ha sintetizzato Huang, collegando senza esitazione quel passaggio architetturale alla nascita di CUDA — la piattaforma di calcolo parallelo lanciata da NVIDIA nel 2006 — e, a cascata, all'intero ecosistema dell'intelligenza artificiale contemporanea.

La logica del ragionamento è lineare ma potente: senza una GPU programmabile, non ci sarebbe stato motivo di sviluppare un framework software generalista come CUDA. E senza CUDA, i ricercatori di machine learning non avrebbero avuto lo strumento che ha reso economicamente e tecnicamente praticabile l'addestramento di modelli di deep learning su larga scala.

Da CUDA all'intelligenza artificiale: una catena di conseguenze {#da-cuda-allintelligenza-artificiale-una-catena-di-conseguenze}

CUDA — acronimo di Compute Unified Device Architecture — è oggi il linguaggio universale del calcolo su GPU. Ma quando fu presentato, nel 2006, rappresentava una scommessa rischiosa. NVIDIA investì risorse enormi per convincere la comunità scientifica e accademica che le schede grafiche potevano essere usate per compiti ben lontani dal rendering: simulazioni fisiche, analisi finanziaria, bioinformatica.

I primi a cogliere il potenziale furono proprio i ricercatori universitari. E fu nelle università che CUDA trovò terreno fertile, con gruppi di ricerca che iniziarono a sperimentare l'accelerazione GPU per problemi di calcolo scientifico. Oggi, gran parte della ricerca avanzata — dalla modellazione climatica allo studio dei segnali precoci di invecchiamento cerebrale — si appoggia su architetture di calcolo che discendono direttamente da quella intuizione.

Huang non ha mancato di sottolineare il passaggio cruciale: intorno al 2012, quando Alex Krizhevsky vinse la competizione ImageNet utilizzando una rete neurale addestrata su GPU NVIDIA, il cerchio si chiuse. La linea GeForce, nata per i gamer, aveva generato l'infrastruttura tecnologica che avrebbe ridefinito l'intelligenza artificiale.

Il peso della ricerca nel computing ad alte prestazioni {#il-peso-della-ricerca-nel-computing-ad-alte-prestazioni}

La traiettoria di NVIDIA illumina un tema più ampio: il ruolo degli investimenti a lungo termine nella ricerca tecnologica. Nel 2001, dedicare risorse alla programmabilità delle GPU non rispondeva a una domanda di mercato esplicita. Fu una scelta strategica, quasi visionaria, che avrebbe dato i suoi frutti solo anni — anzi, decenni — dopo.

È un modello che trova riscontri anche nel panorama italiano della ricerca. I recenti 37,5 milioni di euro stanziati per il contratto di ricerca universitaria 2025 rappresentano un segnale importante, ma la lezione che arriva dalla Silicon Valley è chiara: le innovazioni dirompenti nascono quando si investe su percorsi il cui ritorno non è immediatamente quantificabile.

Oggi NVIDIA vale oltre 2.000 miliardi di dollari. I suoi chip — dalle H100 alle B200 — sono il motore fisico dell'era dell'intelligenza artificiale generativa, contesi da Big Tech, governi e centri di ricerca di tutto il mondo. Eppure, come Huang ha voluto ricordare, tutto è cominciato con una scheda grafica da 399 dollari che prometteva ombre più realistiche nei videogiochi.

La storia della GeForce 3 è, in fondo, un promemoria: le rivoluzioni tecnologiche raramente si annunciano come tali. Spesso si presentano sotto forma di un dettaglio tecnico — uno _shader programmabile_, un'architettura leggermente più flessibile — che solo col tempo rivela la sua portata. E chi sa riconoscere quel dettaglio, e scommetterci sopra, finisce per riscrivere le regole del gioco.

Pubblicato il: 13 marzo 2026 alle ore 11:06