Loading...
Meta accelera sui chip AI proprietari: quattro generazioni MTIA in arrivo entro due anni
Tecnologia

Meta accelera sui chip AI proprietari: quattro generazioni MTIA in arrivo entro due anni

Disponibile in formato audio

Il colosso di Zuckerberg punta a ridurre la dipendenza da fornitori esterni con un'architettura modulare a chiplet. Centinaia di migliaia di acceleratori già operativi nei datacenter globali.

La strategia di Meta nel silicio

Meta non vuole più dipendere esclusivamente dai chip di terze parti per alimentare la propria infrastruttura di intelligenza artificiale. La direzione è ormai chiara, e il ritmo impressiona: il gruppo guidato da Mark Zuckerberg ha annunciato un piano che prevede il lancio di quattro generazioni successive dei propri acceleratori MTIA nell'arco di soli due anni. Una cadenza che non ha precedenti tra le big tech impegnate nello sviluppo di silicio proprietario.

La sigla MTIA sta per Meta Training and Inference Accelerator, una famiglia di chip pensati specificamente per i carichi di lavoro legati all'intelligenza artificiale generativa — dai modelli linguistici di grandi dimensioni ai sistemi di raccomandazione che governano i feed di Facebook, Instagram e Threads.

Già nel 2023, come avevamo raccontato in occasione della prima presentazione pubblica del progetto, Meta lancia una nuova era con il suo chip IA per contrastare Nvidia. Quella prima generazione rappresentava un segnale d'intenti. Oggi, a distanza di poco più di due anni, il segnale si è trasformato in una strategia industriale a tutti gli effetti.

Quattro generazioni in ventiquattro mesi: la roadmap MTIA

Stando a quanto emerge dagli ultimi annunci dell'azienda, il piano prevede un ciclo di sviluppo serrato. Quattro iterazioni del chip MTIA dovranno succedersi entro il 2027-2028, ciascuna con miglioramenti incrementali in termini di prestazioni, efficienza energetica e capacità di gestire modelli AI sempre più complessi.

È un approccio che ricorda — e per certi versi supera — la cadenza biennale tipica dei produttori di semiconduttori tradizionali. Meta sembra voler comprimere i tempi, consapevole che nel mercato dell'AI generativa ogni mese di ritardo si traduce in uno svantaggio competitivo misurabile.

La prima generazione, introdotta nel 2023, era focalizzata principalmente sui carichi di inference — il processo attraverso cui un modello già addestrato genera risposte o previsioni. Le generazioni successive puntano ad ampliare il raggio d'azione, coprendo anche fasi di training più impegnative dal punto di vista computazionale.

Architettura modulare e chiplet riutilizzabili

Uno degli aspetti tecnicamente più rilevanti della strategia Meta riguarda l'architettura modulare adottata per gli MTIA. Anziché progettare ogni generazione da zero — un processo costoso, lungo e soggetto a rischi — gli ingegneri di Menlo Park hanno optato per un design basato su chiplet riutilizzabili.

In termini semplici, il chip non è un blocco monolitico. È composto da moduli funzionali più piccoli (i chiplet, appunto) che possono essere combinati, aggiornati o sostituiti singolarmente. Questo approccio offre vantaggi significativi:

  • Riduzione dei tempi di sviluppo: non è necessario riprogettare l'intero chip ad ogni iterazione.
  • Flessibilità: i chiplet possono essere assemblati in configurazioni diverse a seconda del carico di lavoro target.
  • Efficienza nei costi di produzione: i moduli già validati vengono riutilizzati, abbattendo i costi di verifica e test.
  • Scalabilità: è possibile aumentare le prestazioni aggregando più chiplet senza attendere un salto di processo produttivo.

Non è un caso che questa filosofia progettuale stia guadagnando terreno nell'intera industria dei semiconduttori. AMD, Intel e lo stesso consorzio UCIe (Universal Chiplet Interconnect Express) stanno spingendo nella medesima direzione. Meta, però, ha il vantaggio di progettare chip destinati esclusivamente ai propri datacenter, il che consente ottimizzazioni verticali impossibili per un fornitore generalista.

Datacenter e scala industriale

I numeri parlano da soli. Meta ha dichiarato di aver già distribuito centinaia di migliaia di chip MTIA all'interno della propria rete globale di datacenter. Non si tratta dunque di un progetto sperimentale confinato in un laboratorio, ma di un deployment su scala industriale che affianca — e in prospettiva potrebbe parzialmente sostituire — gli acceleratori forniti da Nvidia e da altri produttori.

Per un'azienda che gestisce piattaforme utilizzate da miliardi di persone ogni giorno, il controllo diretto sull'hardware AI rappresenta una leva strategica fondamentale. Significa poter ottimizzare il rapporto tra prestazioni e consumo energetico, ridurre la dipendenza dalla disponibilità (e dai prezzi) delle GPU sul mercato, e adattare il silicio alle esigenze specifiche dei propri modelli — a partire dalla famiglia LLaMA.

L'investimento in chip proprietari si inserisce peraltro in un contesto di spesa infrastrutturale senza precedenti. Meta ha più volte ribadito l'intenzione di investire decine di miliardi di dollari in infrastruttura AI nei prossimi anni, e lo sviluppo degli MTIA è un tassello centrale di questa strategia.

Il quadro competitivo

Meta non è sola in questa corsa. Google ha i suoi chip TPU, giunti ormai alla sesta generazione. Amazon sviluppa i processori Trainium e Inferentia per AWS. Microsoft ha presentato il proprio acceleratore Maia. Persino Apple integra capacità di machine learning direttamente nei suoi SoC.

Ma ciò che distingue la mossa di Meta è la velocità dichiarata. Quattro generazioni in due anni significano un ciclo di iterazione di circa sei mesi — un ritmo che, se mantenuto, potrebbe consentire al gruppo di colmare rapidamente il divario prestazionale rispetto alle soluzioni più mature.

Resta da capire, naturalmente, quanto queste promesse si tradurranno in risultati concreti. Lo sviluppo di chip ad alte prestazioni è un terreno dove i ritardi sono la norma, non l'eccezione. E la competizione con Nvidia — che domina il mercato degli acceleratori AI con le sue GPU della famiglia Blackwell — rimane asimmetrica per esperienza, ecosistema software e base installata.

Eppure la direzione intrapresa da Meta appare difficilmente reversibile. In un mondo dove l'accesso alla potenza di calcolo AI è diventato un collo di bottiglia strategico, progettare i propri chip non è più un lusso. È una necessità.

Pubblicato il: 12 marzo 2026 alle ore 11:47

Domande frequenti

Cosa sono i chip MTIA sviluppati da Meta?

I chip MTIA (Meta Training and Inference Accelerator) sono acceleratori progettati da Meta specificamente per gestire carichi di lavoro di intelligenza artificiale generativa, come modelli linguistici di grandi dimensioni e sistemi di raccomandazione utilizzati sulle principali piattaforme del gruppo.

Quali vantaggi offre l'architettura modulare basata su chiplet adottata da Meta?

L'architettura modulare consente di ridurre i tempi di sviluppo, offrire maggiore flessibilità nell'assemblaggio dei chip, abbattere i costi di produzione grazie al riutilizzo dei moduli validati e garantire una scalabilità efficiente delle prestazioni.

Come si inserisce la strategia dei chip MTIA nel contesto dei datacenter di Meta?

Meta ha già distribuito centinaia di migliaia di chip MTIA nei propri datacenter a livello globale, puntando a ottimizzare le prestazioni, ridurre i consumi energetici e diminuire la dipendenza da fornitori esterni come Nvidia.

Qual è la roadmap prevista per i chip MTIA nei prossimi anni?

Meta ha pianificato il lancio di quattro generazioni successive dei chip MTIA nell'arco di due anni, con cicli di sviluppo di circa sei mesi ciascuno, puntando a miglioramenti incrementali in prestazioni, efficienza ed elaborazione di modelli AI sempre più complessi.

Come si posiziona Meta rispetto ai principali concorrenti nel settore dei chip AI?

Meta si distingue per la rapidità del proprio ciclo di sviluppo rispetto a concorrenti come Google, Amazon e Microsoft, pur dovendo affrontare la forte competizione di Nvidia che domina ancora il mercato degli acceleratori AI grazie a esperienza e ampia base installata.

Redazione EduNews24

Articolo creato da

Redazione EduNews24

Articoli pubblicati da parte della redazione di EduNews24.it

Articoli Correlati