Una nuova tecnica per addestrare le intelligenze artificiali 

Un recente studio condotto dal Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing (ICSC) delle Università di Torino e Catania ha esaminato lo sviluppo di processi di apprendimento di intelligenza artificiale che possono superare mancanze di dati adeguati e garantiscono la protezione della privacy.

La ricerca ha utilizzato una tecnica chiamata ‘Continual Learning’, un approccio federato e decentralizzato al processo di apprendimento. Questo approccio implica una divisione del processo di allenamento dell’intelligenza artificiale in diverse fasi, con ciascuna fase che coinvolge un solo nodo della rete dedicato all’addestramento e i soli dati disponibili a livello locale.

Nell’approccio federato, i dati rimangono in possesso dei proprietari, il che è particolarmente utile in situazioni in cui i dati non possono essere resi pubblici a causa di preoccupazioni sulla privacy o politiche di non condivisione.

L’apprendimento federato è basato sull’idea di utilizzare la vasta mole di dati disponibili, ad esempio nei Data Lake, per addestrare modelli di intelligenza artificiale, anche in assenza di un vero e proprio Data Lake.

Il ‘Continual Learning’ rappresenta un’evoluzione dell’apprendimento federato, poiché in questo processo gli algoritmi non sono visti come oggetti statici, ma ricevono sempre nuovi dati, consentendo l’evoluzione costante dei modelli.

Il processo riduce la possibilità di propagazione di errori attraverso la condivisione di dati ‘deep fake‘, ovvero dati sintetici generati per riprodurre gli esempi per i quali l’intelligenza artificiale ha fornito risposte corrette.

I ricercatori del Centro Nazionale ICSC hanno sviluppato una nuova versione di questa tecnica, caratterizzata da un processo continuativo e incrementale, che consente al modello di apprendere continuamente e di migliorare la sua accuratezza ad ogni round di allenamento.

La ricerca ha testato la validità della tecnica addestrando due diversi algoritmi di intelligenza artificiale per la diagnostica medica, utilizzando raccolte di dati sanitari sia pubbliche che appartenenti agli ospedali coinvolti nell’addestramento.

L’esperimento ha dimostrato come il ‘Continual Learning’ possa fornire performance superiori rispetto all’approccio tradizionale e ha evidenziato come la tecnica possa essere utilizzata in situazioni in cui la privacy dei dati è cruciale.

Questa ricerca fa parte delle attività della flagship 4 dello Spoke 1 del Centro Nazionale ICSC e segue una linea di ricerca già iniziata negli ultimi anni. Attualmente, lo Spoke 1 di ICSC sta lavorando su un futuro follow-up industriale e sulla validazione della tecnica su una scala più ampia.

La tecnica appare particolarmente adatta per essere sfruttata in altri settori, come quello bancario, caratterizzato da una forte necessità di protezione della privacy dei dati, in cui potrebbe svolgere un ruolo determinante nell’addestramento di algoritmi di intelligenza artificiale dedicati, ad esempio, al riconoscimento delle frodi.”

Condividi sui social

Articoli correlati