{/* Extracted from Header.astro - Use appropriate classes/styles if animations needed */}

Intelligenza artificiale e memoria: Dell prevede una domanda fino a 625 volte superiore entro il 2028

Il fondatore di Dell Technologies traccia uno scenario senza precedenti per il mercato DRAM, con possibili carenze fino al 2027 e hyperscaler già in corsa per assicurarsi le forniture dei prossimi cinque anni

* Il superciclo della memoria AI secondo Michael Dell * Numeri fuori scala: cosa significano 625 volte * Hyperscaler in prima linea: la corsa agli accordi di fornitura * Carenza DRAM fino al 2027: un collo di bottiglia strutturale * Le ricadute su ricerca e sistema universitario

Il superciclo della memoria AI secondo Michael Dell {#il-superciclo-della-memoria-ai-secondo-michael-dell}

C'è un dato che Michael Dell ha voluto mettere nero su bianco, e che da solo basta a ridimensionare qualsiasi previsione prudente sul futuro dell'infrastruttura tecnologica globale: la domanda di memoria legata all'intelligenza artificiale potrebbe crescere fino a 625 volte rispetto ai livelli attuali. Non entro un orizzonte lontano, ma da qui al 2028.

Il fondatore e CEO di Dell Technologies ha delineato questo scenario parlando del cosiddetto superciclo della memoria_, un fenomeno che il settore dell'hardware conosce bene ma che questa volta, stando a quanto emerge dalle analisi di mercato, assume proporzioni mai viste prima. La causa è semplice da individuare, assai più complessa da gestire: i modelli di intelligenza artificiale generativa, i _large language model e le applicazioni di machine learning richiedono quantità di memoria DRAM (Dynamic Random Access Memory) che crescono esponenzialmente ad ogni nuova generazione.

E la domanda, a oggi, non mostra il minimo segnale di rallentamento.

Numeri fuori scala: cosa significano 625 volte {#numeri-fuori-scala-cosa-significano-625-volte}

Per comprendere la portata della previsione di Dell, occorre contestualizzare. Quando si parla di un incremento di 625 volte, ci si riferisce al fabbisogno complessivo di memoria ad alta larghezza di banda, quella che alimenta le GPU e gli acceleratori utilizzati nei data center per l'addestramento e l'inferenza dei modelli AI. Ogni nuovo modello, ogni aggiornamento architetturale, ogni ampliamento delle finestre di contesto si traduce in un appetito di memoria sempre più vorace.

Non si tratta di una crescita lineare. È una curva che si impenna, e che costringe l'intera filiera produttiva a ripensare tempi e volumi. Michael Dell ha sottolineato come questo superciclo sia strutturalmente diverso dai precedenti boom della memoria, perché alimentato da una convergenza di fattori: la diffusione capillare dell'AI generativa, l'espansione dei servizi cloud e la competizione tra le grandi piattaforme tecnologiche per offrire capacità computazionale sempre maggiore.

Hyperscaler in prima linea: la corsa agli accordi di fornitura {#hyperscaler-in-prima-linea-la-corsa-agli-accordi-di-fornitura}

A muoversi per primi sono stati, prevedibilmente, gli hyperscaler, i giganti del cloud computing come Amazon Web Services, Microsoft Azure e Google Cloud. Questi operatori stanno investendo cifre colossali nella memoria e, come sottolineato dagli analisti del settore, hanno già iniziato a stipulare accordi di fornitura a lungo termine con i principali produttori mondiali di DRAM, in particolare Samsung, SK Hynix e Micron.

La novità è la durata di questi contratti: non più accordi annuali o biennali, ma impegni che si estendono su un arco di cinque anni. Un segnale inequivocabile. Le aziende che dominano il cloud computing non stanno semplicemente reagendo alla domanda corrente, ma si stanno posizionando per un orizzonte temporale in cui la disponibilità di memoria sarà un fattore competitivo decisivo.

È una dinamica che ricorda, per certi versi, la corsa alle materie prime critiche, dove chi si muove prima e con maggiore determinazione si assicura un vantaggio difficile da colmare. E proprio come accade per le materie prime, anche nel caso della memoria DRAM l'offerta non può essere aumentata con la stessa velocità della domanda.

Carenza DRAM fino al 2027: un collo di bottiglia strutturale {#carenza-dram-fino-al-2027-un-collo-di-bottiglia-strutturale}

Qui si annida il problema più serio. La produzione di chip di memoria ad alte prestazioni richiede tempi lunghi: costruire o ampliare un impianto di fabbricazione (una _fab_, nel gergo del settore) costa miliardi di dollari e può richiedere dai due ai tre anni prima di raggiungere la piena operatività. È un vincolo fisico e industriale che nessuna iniezione di capitale può aggirare nel breve periodo.

Il risultato? Il mercato DRAM resta sotto forte pressione, con analisti e operatori che prevedono possibili carenze almeno fino al 2027. Una condizione che rischia di creare un collo di bottiglia per l'intero ecosistema dell'intelligenza artificiale: se non c'è abbastanza memoria, anche i processori più potenti restano parzialmente inutilizzati.

Questa tensione strutturale tra domanda e offerta avrà inevitabilmente effetti sui prezzi. Chi ha necessità di espandere la propria infrastruttura AI, che si tratti di un'azienda tecnologica o di un ente di ricerca pubblico, dovrà fare i conti con costi crescenti e tempi di approvvigionamento dilatati.

Le ricadute su ricerca e sistema universitario {#le-ricadute-su-ricerca-e-sistema-universitario}

Lo scenario tracciato da Dell non riguarda soltanto i colossi della Silicon Valley. Le implicazioni si estendono a chiunque operi nel campo della ricerca computazionale avanzata, comprese le università e gli enti di ricerca italiani che negli ultimi anni hanno accelerato l'adozione di infrastrutture AI per progetti in ambiti che vanno dalla biomedicina alla linguistica computazionale, dalla fisica delle particelle alle scienze sociali.

In un contesto di risorse strutturalmente limitate come quello del sistema accademico italiano, la possibile carenza di componenti chiave e l'aumento dei costi di approvvigionamento rischiano di ampliare il divario con i centri di ricerca meglio finanziati a livello internazionale. È una questione che meriterebbe una riflessione strategica, tanto a livello di singoli atenei quanto nelle sedi istituzionali dove si decidono gli investimenti in ricerca e innovazione. Così come in altri ambiti della ricerca scientifica, dove i risultati arrivano solo dopo anni di impegno costante e investimenti mirati, come dimostra ad esempio il recupero dell'ozono dopo 38 anni di politiche internazionali, anche nel campo delle infrastrutture AI la lungimiranza nelle scelte di oggi determinerà la competitività di domani.

Il messaggio di Michael Dell, in definitiva, è tanto chiaro quanto scomodo: la fame di memoria dell'intelligenza artificiale non si fermerà. E chi non si prepara per tempo rischia di restare tagliato fuori da una trasformazione tecnologica che, nel bene e nel male, sta ridisegnando le regole del gioco.

Pubblicato il: 10 aprile 2026 alle ore 07:23