* Fotoni come neuroni: la scoperta * Come funziona: interferenza quantistica e memoria associativa * La rete di Hopfield, versione ottica * Il limite fondamentale e le prospettive * Verso data center ispirati al cervello
C'è un esperimento che sembra uscito da un racconto di fantascienza, eppure arriva dai laboratori di tre istituzioni italiane di primo piano. Particelle di luce, i fotoni, sono state utilizzate per simulare i meccanismi della memoria associativa, lo stesso principio che ci permette di riconoscere un volto a partire da un dettaglio sfuocato o di completare una melodia dopo averne ascoltato le prime note. Lo studio, frutto della collaborazione tra Cnr-Nanotec, Istituto Italiano di Tecnologia (Iit) e Sapienza Università di Roma, segna un passo concreto verso una nuova generazione di sistemi di calcolo ispirati al funzionamento del cervello.
Fotoni come neuroni: la scoperta {#fotoni-come-neuroni-la-scoperta}
Il cuore della ricerca è tanto semplice da enunciare quanto complesso da realizzare: i fotoni possono comportarsi come i nodi di una rete neurale. Non metaforicamente. Sfruttando le proprietà dell'interferenza quantistica, il gruppo di ricerca ha dimostrato che singole particelle di luce sono in grado di codificare informazioni, immagazzinarle e, soprattutto, recuperarle in modo associativo. In altre parole, il sistema ottico riesce a restituire un dato completo anche quando riceve in ingresso un'informazione parziale o disturbata dal rumore.
È un risultato che si colloca all'incrocio tra fisica quantistica, neuroscienze computazionali e ingegneria dell'informazione. E che arriva in un momento in cui la ricerca sui meccanismi della memoria sta producendo scoperte inattese anche in ambiti molto diversi, come dimostra Il Ruolo Sconosciuto delle Piastrine nella Memoria.
Come funziona: interferenza quantistica e memoria associativa {#come-funziona-interferenza-quantistica-e-memoria-associativa}
Per comprendere la portata dello studio occorre fare un passo indietro. La memoria associativa è quel meccanismo, tipico delle reti neurali biologiche, che permette di richiamare un ricordo completo a partire da uno stimolo incompleto. Il cervello umano lo fa continuamente, senza apparente sforzo. Riprodurre questo processo in un sistema artificiale è invece enormemente complicato.
Il team italiano ha scelto una strada radicalmente diversa rispetto ai tradizionali approcci elettronici. Ha utilizzato l'interferenza quantistica, il fenomeno per cui i fotoni, sovrapponendosi, possono rafforzarsi o cancellarsi a vicenda in modo controllato. Manipolando con precisione questi schemi di interferenza, i ricercatori sono riusciti a codificare pattern di informazione nelle proprietà dei fotoni e a recuperarli successivamente, proprio come farebbe un sistema di memoria.
Stando a quanto emerge dallo studio, il processo funziona in modo intrinsecamente parallelo: i fotoni esplorano simultaneamente molteplici configurazioni, una caratteristica che i sistemi classici possono solo emulare con grande dispendio di risorse.
La rete di Hopfield, versione ottica {#la-rete-di-hopfield-versione-ottica}
Il modello teorico di riferimento è la rete di Hopfield, un'architettura di rete neurale introdotta dal fisico John Hopfield nel 1982, e che gli è valsa il Premio Nobel per la Fisica 2024 insieme a Geoffrey Hinton. Si tratta di un sistema in cui ogni nodo è connesso a tutti gli altri e l'intera rete converge spontaneamente verso stati stabili, detti _attrattori_, che corrispondono ai ricordi immagazzinati.
Il risultato ottenuto dai ricercatori italiani è significativo: i fotoni, nel loro setup sperimentale, si comportano esattamente come i nodi di una rete di Hopfield. Ricevono un input parziale e "scivolano" verso il pattern memorizzato più vicino, completando l'informazione mancante. Il tutto avviene alla velocità della luce, letteralmente.
Questo approccio si inserisce in un filone di ricerca più ampio che sta esplorando le proprietà della luce in contesti del tutto inediti. Non è la prima volta che i fotoni rivelano comportamenti sorprendenti: basti pensare alla recente Scoperta Unica: Creato un Blob di Luce che Combina Proprietà Liquide e Solide, che ha mostrato come la luce possa assumere stati della materia ibridi.
Il limite fondamentale e le prospettive {#il-limite-fondamentale-e-le-prospettive}
Lo studio non si limita a dimostrare che il sistema funziona. Mette in luce anche un limite fondamentale nella capacità di memoria della rete ottica. Come nelle reti di Hopfield classiche, esiste una soglia oltre la quale il sistema inizia a confondere i pattern memorizzati, generando errori nel recupero delle informazioni. Questo vincolo, lungi dall'essere un difetto, rappresenta un dato cruciale per la progettazione di futuri dispositivi: conoscere i confini di un sistema è il primo passo per superarli.
I ricercatori del Cnr, dell'Iit e della Sapienza hanno quantificato questa soglia nel regime fotonico, fornendo così una mappa precisa delle potenzialità e dei limiti dell'architettura. Un contributo che sarà fondamentale per chi, nei prossimi anni, cercherà di scalare la tecnologia verso applicazioni pratiche.
La ricerca si affianca ad altri sforzi internazionali volti a sfruttare la meccanica quantistica per l'elaborazione delle informazioni. L'approccio ottico-quantistico, in particolare, potrebbe rivelarsi complementare a quello dei computer quantistici tradizionali, che seguono un paradigma diverso ma condividono l'obiettivo di superare i colli di bottiglia del calcolo classico.
Verso data center ispirati al cervello {#verso-data-center-ispirati-al-cervello}
Il contesto in cui questa ricerca si inserisce è tutt'altro che accademico. I data center che alimentano l'intelligenza artificiale consumano quantità impressionanti di energia elettrica: secondo le stime dell'Agenzia Internazionale dell'Energia, il loro fabbisogno potrebbe raddoppiare entro il 2030. Il calcolo neuromorfico, ovvero lo sviluppo di hardware che replica le logiche del cervello biologico, è oggi considerato una delle strade più promettenti per invertire questa tendenza.
Il cervello umano, d'altronde, esegue operazioni di una complessità straordinaria consumando appena 20 watt, l'equivalente di una lampadina fioca. Un singolo addestramento di un grande modello linguistico, per confronto, può richiedere megawatt di potenza per settimane.
I fotoni, in questo scenario, offrono vantaggi intrinseci:
* Velocità: le operazioni avvengono alla velocità della luce * Basso consumo energetico: i fotoni non generano calore come gli elettroni nei circuiti tradizionali * Parallelismo naturale: le proprietà quantistiche consentono di elaborare più informazioni simultaneamente * Scalabilità: i circuiti fotonici integrati sono compatibili con le tecnologie di produzione esistenti
Lo studio italiano dimostra che questi vantaggi teorici possono tradursi in un funzionamento concreto di tipo neurale. La strada verso un processore neuromorfico ottico capace di sostituire i chip tradizionali nei data center è ancora lunga, ma la direzione appare ora decisamente più chiara.
Quel che è certo è che la ricerca italiana, con la collaborazione tra enti come il Cnr, l'Iit e la Sapienza, si conferma protagonista in un campo che ridefinirà il modo in cui le macchine elaborano le informazioni. E forse, un giorno, anche il modo in cui consumano energia per farlo.