Loading...
Nasce Averi: L'Istituto dell'Ex OpenAI per la Sicurezza e la Verifica dei Modelli di Intelligenza Artificiale
Ricerca

Nasce Averi: L'Istituto dell'Ex OpenAI per la Sicurezza e la Verifica dei Modelli di Intelligenza Artificiale

Miles Brundage presenta a Milano il nuovo AI Verification and Evaluation Research Institute per definire standard globali sulla valutazione dell’IA

Nasce Averi: L'Istituto dell'Ex OpenAI per la Sicurezza e la Verifica dei Modelli di Intelligenza Artificiale

Indice dei paragrafi

  • Introduzione: la necessità di sicurezza nei modelli di IA
  • Il ruolo strategico di Miles Brundage e la nascita di Averi
  • Fondi e finanziamenti da Silicon Valley: un segnale per il settore
  • I nuovi standard di verifica: il quadro di “garanzia dell’IA”
  • Averi e le pratiche di valutazione dei modelli di intelligenza artificiale
  • L’importanza degli enti terzi e la trasparenza nei processi di verifica
  • Impatto per sviluppatori, aziende e policy maker
  • Milano capitale della ricerca sulla sicurezza dell’IA
  • Analisi dello scenario globale e perché serve un istituto come Averi
  • Prospettive future e sintesi finale

Introduzione: la necessità di sicurezza nei modelli di IA

La rivoluzione dell’intelligenza artificiale ha trasformato ogni settore della società contemporanea, dai servizi finanziari alla sanità, dall’istruzione all’industria. Tuttavia, con la crescita della complessità e della diffusione dei modelli di intelligenza artificiale, si sono moltiplicate anche le preoccupazioni legate alla loro sicurezza, affidabilità e trasparenza. Incidenti, bias discriminatori e opacità nei processi decisionali sottolineano quanto sia urgente una verifica rigorosa e una definizione di standard globali condivisi.

In questo contesto, si inserisce la fondata iniziativa dell’AI Verification and Evaluation Research Institute (Averi), annunciato a Milano da Miles Brundage, ex responsabile delle politiche di OpenAI, con l’obiettivo di diventare un punto di riferimento internazionale per la sicurezza dei modelli di IA.

Il ruolo strategico di Miles Brundage e la nascita di Averi

Brundage è una delle figure più ascoltate e rispettate nel panorama globale dell’intelligenza artificiale. Dopo il suo ruolo cruciale in OpenAI, egli ha deciso di fondare a Milano l’AI Verification and Evaluation Research Institute (Averi), con la missione di mettere al centro dei processi di sviluppo dell’IA la sicurezza, la trasparenza e l’affidabilità. Come sottolineato dallo stesso Brundage nella conferenza di presentazione, "le aziende che sviluppano intelligenze artificiali hanno il dovere civico di sottoporre i loro modelli a valutazioni indipendenti, per garantire sicurezza e correttezza nei confronti degli utenti e della società nel suo complesso".

Un approccio innovativo nella verifica dei modelli IA

La proposta innovativa di Averi consiste nel non operare come revisore diretto, ma definire gli standard che dovranno essere rispettati dalle aziende e dai revisori esterni, creando così una "infrastruttura etica" per l’intero settore. L’ambizione del nuovo istituto di sicurezza per l’intelligenza artificiale è quella di indicare le best practices e i parametri minimi sotto cui nessun modello dovrebbe essere rilasciato sul mercato.

Fondi e finanziamenti da Silicon Valley: un segnale per il settore

Uno dei dati che più fa riflettere sull’importanza strategica di Averi è il finanziamento iniziale ottenuto: 7,5 milioni di dollari provenienti da finanziatori della Silicon Valley. Si tratta di una cifra di rilievo nel campo della ricerca sulla sicurezza IA e testimonia l’interesse crescente degli investitori americani nel sostenere progetti ad alto impatto sociale e tecnologico.

La fiducia della Silicon Valley nella sicurezza dei modelli IA

Molte aziende della Silicon Valley hanno ormai compreso che l’innovazione senza sicurezza è un rischio troppo alto. Investire in istituti come Averi consente sia di migliorare la reputazione delle aziende tecnologiche, sia di affrontare in modo proattivo i crescenti controlli normativi in arrivo dagli Stati Uniti e dall’Unione Europea. La trasparenza, la verificabilità e l’affidabilità diventano quindi asset strategici per la futura competitività globale.

I nuovi standard di verifica: il quadro di “garanzia dell’IA”

Al centro della proposta di Averi vi è una novità metodologica: il quadro di "garanzia dell’IA" con livelli di test. Questo sistema prevede una valutazione multilivello delle intelligenze artificiali, dalla fase di prototipazione fino al rilascio pubblico, passando per auditing specializzati in grado di individuare potenziali criticità legate a bias, sicurezza e privacy.

Struttura e livelli del quadro di garanzia IA

Secondo il quadro sviluppato da Averi, ogni modello IA dovrà:

  • Superare test controllati in ambienti simulati
  • Sottoporsi a valutazioni di impatto sociale, con particolare attenzione ai rischi di discriminazione o di automazione incontrollata
  • Essere verificato rispetto agli standard internazionali di sicurezza informatica
  • Ottenere una certificazione pubblica di compliance agli standard definiti

Questo sistema a livelli permette di adattare le verifiche alla natura, alla complessità e al rischio di ciascun modello, garantendo allo stesso tempo trasparenza verso utenti finali e stakeholder pubblici.

Averi e le pratiche di valutazione dei modelli di intelligenza artificiale

Nelle raccomandazioni pubblicate da Averi, elaborate grazie anche al contributo di esperti selezionati e studiosi di IA, vengono illustrati i passaggi necessari per una valutazione completa dei modelli. Questi passi sono stati resi pubblici per la prima volta anche a beneficio di startup, aziende e policy maker.

I passaggi fondamentali secondo Averi:

  1. Analisi iniziale del modello IA: raccolta, descrizione della base dati, obiettivi, rischi noti e potenziali.
  2. Testing controllato: test di sicurezza, affidabilità, resistenza a manipolazioni e attacchi (ad esempio, adversarial testing).
  3. Verifica dell’equità: screening rigoroso per individuare bias di genere, razza, provenienza geografica, etc.
  4. Documentazione trasparente: tutte le procedure di valutazione devono essere documentate e rese disponibili a soggetti terzi.
  5. Certificazione e follow-up: ottenimento di una certificazione provvisoria e controlli periodici sul comportamento del modello IA dopo il rilascio.

Questa serie di operazioni consente non solo di migliorare la sicurezza dei modelli di intelligenza artificiale, ma anche di dotare aziende e sviluppatori di strumenti concreti per prevenire danni e controversie giudiziarie. Il fatto che siano rese disponibili pubblicamente rappresenta un passo verso la democratizzazione delle best practice.

L’importanza degli enti terzi e la trasparenza nei processi di verifica

Una delle sottolineature principali di Brundage riguarda la necessità che tutte le aziende facciano valutare i propri modelli da enti terzi. Questa direttiva si allinea alle più recenti raccomandazioni europee in materia di intelligenza artificiale e alle iniziative legislative negli Stati Uniti volte a contrastare comportamenti elusivi, modalità black box e rischi sistemici.

I vantaggi della verifica da parte di enti terzi:

  • Imparzialità: garantisce che il giudizio non sia influenzato da interessi aziendali diretti.
  • Competenza: i revisori esterni possono vantare competenze multidisciplinari difficilmente replicabili in house.
  • Affidabilità: una verifica indipendente rafforza la fiducia del pubblico e dei partner commerciali.
  • Trasparenza: il processo diventa trasparente e i risultati possono essere confrontati pubblicamente.

Se questi criteri verranno rispettati, sarà più difficile che si ripetano casi di discriminazione algoritmica o abusi da parte di grandi piattaforme digitali.

Impatto per sviluppatori, aziende e policy maker

Il lavoro di Averi influirà profondamente non solo sulle aziende che progettano intelligenze artificiali, ma anche su sviluppatori individuali, startup e pubbliche amministrazioni. La creazione di standard di valutazione IA condivisi semplifica la fase di compliance alle normative, riduce i rischi di sanzioni e migliora la qualità dei prodotti tecnologici.

Come cambia la quotidianità delle aziende tech

Le imprese tecnologiche dovranno integrare sin dall’inizio processi di verifica e check continui nei cicli di sviluppo software. Le linee guida di Averi rappresentano uno strumento prezioso per:

  • Individuare e correggere vulnerabilità prima della diffusione dei modelli
  • Ridurre i costi di gestione delle crisi reputazionali
  • Migliorare la trasparenza verso clienti e stakeholder
  • Favorire una cultura aziendale attenta all’etica e alla responsabilità sociale

Per i policy maker istituzionali, avere un set di standard e di best practices validati a livello internazionale consentirà di scrivere norme più efficaci e attuabili.

Milano capitale della ricerca sulla sicurezza dell’IA

La scelta di Milano come sede principale dell’istituto non è casuale: la città lombarda si sta progressivamente affermando come uno dei poli tecnologici più avanzati d’Europa, con università, startup e centri di ricerca all’avanguardia nella ricerca sulla sicurezza AI Milano. Questo ecosistema favorisce sinergie tra settore pubblico e privato e attira i migliori talenti italiani e internazionali.

Averi e i ponti tra Italia, Europa e Stati Uniti

Averi potrà svolgere un importante ruolo di collegamento tra la ricerca europea e quella extraeuropea. Grazie al suo dialogo costante con interlocutori della Silicon Valley e delle istituzioni comunitarie, rappresenterà un punto di mediazione importante nell’elaborazione delle policy globali sull’intelligenza artificiale.

Analisi dello scenario globale e perché serve un istituto come Averi

Nel 2024 il panorama dell’intelligenza artificiale è sempre più frammentato e competitivo: dagli Stati Uniti alla Cina, ogni area del mondo tenta di imporsi sulla regolamentazione, sugli standard etici e sulla direzione della ricerca. In questa corsa alla supremazia tecnologica, il tema della sicurezza dei modelli IA rischia talvolta di essere trascurato in favore dell’innovazione a ogni costo.

L’approccio di Brundage e di Averi è, invece, quello di costruire un nuovo equilibrio tra rapidità di sviluppo e protezione degli utenti dagli abusi. La verifica da parte di enti terzi, la pubblicazione di procedure dettagliate e la definizione di framework multilivello sono strumenti indispensabili per evitare effetti collaterali imprevisti (deep fake, propagazione di bias, manipolazione dell’informazione, ecc.).

Prospettive future e sintesi finale

La nascita dell’AI Verification and Evaluation Research Institute (Averi) segna quindi un punto di svolta per il settore AI e pone Milano e l’Italia all’avanguardia nella regolamentazione e nella verifica dei modelli IA da enti terzi. Il progetto lanciato da Miles Brundage si distingue non solo per la solidità scientifica e la trasparenza delle sue pratiche, ma anche per il sostegno economico ottenuto dalla Silicon Valley e per la volontà di aggregare comunità scientifiche, imprese e amministrazioni pubbliche sotto una bandiera comune: quella della garanzia IA a livelli di test.

Un approccio di questo tipo rappresenta non solo una scelta strategica, ma anche una responsabilità verso il futuro di tutti. Solo stabilendo regole chiare e promuovendo la collaborazione tra enti indipendenti, imprese e regolatori internazionali sarà possibile sviluppare modelli di intelligenza artificiale realmente sicuri, responsabili e rispettosi dei diritti umani, garantendo il progresso senza lasciare indietro i valori fondamentali della nostra società.

In sintesi: l’iniziativa di Miles Brundage e del suo team con Averi pone le basi per una nuova stagione della tecnologia AI, più sicura, più responsabile e incentrata sulle esigenze reali delle persone. Il valore di questa innovazione sarà misurato non solo dalla qualità dei risultati tecnici, ma dalla capacità di ridurre i rischi e di aumentare la fiducia collettiva nei confronti delle nuove intelligenze artificiali.

Pubblicato il: 24 gennaio 2026 alle ore 14:52

Savino Grimaldi

Articolo creato da

Savino Grimaldi

Articoli Correlati