Una nuova architettura per l’Intelligenza Artificiale

Intelligenza Artificiale

Le enormi esigenze di calcolo computazionale dell’Intelligenza artificiale richiedono architetture dedicate. Un gruppo di ricerca internazionale è al lavoro per definire l’architettura

Dietro ai facili entusiasmi per i primi traguardi importanti raggiunti dall’intelligenza artificiale, si nascondono ancora diversi ostacoli da superare, prima di poter affermare la tecnologia come vero e proprio strumento di innovazione al servizio delle imprese.

Per quanto possano apparire già rivoluzionare le possibilità di un’IA generativa, in realtà il margine di errore è ancora troppo elevato per rivelarsi affidabile, anche all’interno di processi produttivi e decisionali. I primi esempi di successo non mancano, ma restano confinati ad applicazioni molto mirate e, soprattutto, frutto di investimenti importanti, non alla portata di tutti.

Alle origini dei problemi attuali – aspetto noto per gli addetti ai lavori, affrontato e superato ogni volta si sia presentata una novità epocale – c’è la potenza di calcolo. Prima ancora di pensare alla generazione vera e propria di contenuti o previsioni, è infatti necessario procedere all’apprendimento dei sistemi, elaborando quantità di dati al di sopra di ogni attuale applicazione. Soprattutto, il livello di affidabilità è direttamente proporzionale alla quantità di dati acquisiti, raffinati e utilizzati.

Non a caso, la situazione attuale ha fatto la fortuna di Nvidia, azienda storica nel mondo delle schede grafiche per applicazioni estreme dal punto di vista computazionale come videogiochi o videoediting. Come successo in passato però, il futuro passa per una soluzione più mirata, la stessa che ha portato all’aggiunta di schede dedicate al crescere delle funzioni multimediali introdotte nei computer.

Figura 1 – C’è anche un ricercatore italiano, Vincenzo Lomonaco, nel gruppo internazionale di ricerca per sviluppare una nuova architettura dedicata ad assecondare le esigenze di calcolo dell’Intelligenza artificiale
Figura 1 – C’è anche un ricercatore italiano, Vincenzo Lomonaco, nel gruppo internazionale di ricerca per sviluppare una nuova architettura dedicata ad assecondare le esigenze di calcolo dell’Intelligenza artificiale

Soluzioni nuove per una tecnologia nuova

“La crescita di interesse per il mondo dell’IA è stata tale da non aver avuto ancora il tempo per sviluppare soluzioni dedicate – conferma Vincenzo Lomonaco, ricercatore presso il Dipartimento di Informatica dell’Università di Pisa –. Tutta la parte di machine learning è costruita su principi di algebra lineare, gli stessi alla base dei videogiochi e questo ha portato l’attenzione verso le tecnologie Nvidia”.

Nel pieno di popolarità ed entusiasmo iniziali, questa è una soluzione comunque più che accettabile. A lungo termine, però, servono risposte mirate, in grado di giustificare gli investimenti nel settore e una crescita più organica. Anche perché presto i limiti attuali saranno comunque raggiunti. “Tecnologie e metodologie esistenti sono destinate ad arrivare a un livello di saturazione – prosegue Lomonaco –. Per superare l’inevitabile fase di rallentamento, bisogna sviluppare un nuovo paradigma e ora siamo vicini a questo picco di apprendimento”.

In concreto, significa progettare e realizzare un’architettura a misura di intelligenza artificiale. Esattamente come in passato è stato fatto inserendo nei PC schede grafiche, schede audio e schede di rete, o integrando il parallelismo all’interno dei processori dopo un primo approccio nell’affiancare più processori. In questo caso, con una sfida in più. “Tutto questo deve rientrare anche in una visione sostenibile. Non basta progettare nuovi componenti in grado di soddisfare le esigenze di calcolo computazionale, bisogna intervenire anche sul fabbisogno energetico”.

Più potenza significa infatti anche più consumi e quindi più costi. Anche per chi non volesse addentrarsi negli aspetti sostenibili dell’argomento, è questo un impatto che comunque è da tenere in considerazione in sede economica. Inoltre, non basta investire in una nuova piattaforma, bisogna anche essere disposti a svilupparla. L’80% dei costi riguarda di solito il ciclo di vita di un progetto hardware, anche solo per tenerlo allineato all’evoluzione.

Intelligenza artificialeL’unione fa la forza… di calcolo

La soluzione non è naturalmente semplice e per questo al momento uno dei progetti più promettenti è frutto di una collaborazione tra un gruppo internazionale di ricercatori coordinato dal Neuromorphic AI Lab NUAI Lab della University of Texas di San Antonio, del quale fa parte lo stesso Vincenzo Lomonaco. L’obiettivo è creare dei microprocessori in grado di replicare i sistemi di apprendimento biologico, così da rendere l’Intelligenza Artificiale più flessibile, efficiente e sostenibile anche dal punto di vista ambientale.

“La fallibilità dell’Intelligenza Artificiale è ancora troppo alta e questo perché, così come la conosciamo oggi, si basa su sistemi di apprendimento automatico troppo rigidi, che la rendono incapace di affrontare condizioni nuove, non precedentemente incontrate durante un processo di addestramento precedente”.

In particolare, c’è un aspetto sul quale è importante intervenire, del quale è praticamente impossibile sentirne parlare fuori dagli ambienti degli addetti ai lavori, ma fondamentale se si guarda all’evoluzione. “Oggi facciamo apprendere una grande quantità di informazioni tutte insieme, ma ogni volta che emerge una novità su un determinato tema, dobbiamo aggiornare il sistema da zero. Tutto ciò, oltre a essere poco efficiente, ha anche dei costi altissimi, sia in termini economici sia ambientali, visto l’elevato consumo di energia e le conseguenti emissioni di CO2 di questi processi”.

In cifre, aggiornare un sistema di AI può arrivare a costare fino a diversi milioni di euro. Per avere un’idea dell’impronta ambientale basti pensare come secondo un recente studio dell’Università del Massachusetts, l’addestramento di diversi modelli di intelligenza artificiale di grandi dimensioni arrivi a emettere una quantità di anidride carbonica equivalente a cinque volte quella emessa da un’auto statunitense media durante il proprio ciclo di vita, compreso il processo di produzione.

Uno dei nodi principali da superare è nella necessità di ripetere le procedure di apprendimento dei sistemi di IA a ogni aggiornamento dei dati, con un enorme impiego di risorse di calcolo
Uno dei nodi principali da superare è nella necessità di ripetere le procedure di apprendimento dei sistemi di IA a ogni aggiornamento dei dati, con un enorme impiego di risorse di calcolo

Intelligenza Artificiale: non si finisce mai di imparare

La soluzione è l’Apprendimento Automatico Continuo (noto anche come Continual Learning o Lifelong Learning), grazie al quale si mette in grado un sistema di AI di assimilare un gran numero di conoscenze in sequenza, senza dimenticare quelle acquisite in precedenza.

Dal punto di vista computazionale, e quindi del relativo hardware, si tratta di qualche cosa di inedito. Se inizialmente ci si può affidare a una soluzione esistente, il futuro non potrà fare a meno di un’architettura dedicata. “È necessario modificare gli attuali paradigmi computazionali ed eliminare i vincoli infrastrutturali esistenti.  Per questo abbiamo gettato le basi di un nuovo metodo di apprendimento incrementale, basato sul co-design hardware-software, ossia sulla progettazione simultanea di componenti hardware e software, così da dar vita ad un sistema di lifelong learning per l’AI che sia robusto e autonomo”.

 La rigidità degli attuali sistemi di apprendimento ne ha favorito una rapida diffusione, ma in prospettiva futura tende a diventare un limite, da superare con architetture più flessibili e chip realizzati su misura
La rigidità degli attuali sistemi di apprendimento ne ha favorito una rapida diffusione, ma in prospettiva futura tende a diventare un limite, da superare con architetture più flessibili e chip realizzati su misura

Naturalmente, una volta raggiunto questo obiettivo, sarà necessario un ulteriore passo. Gli algoritmi attuali sono giustamente disegnati sulla base dei requisiti disponibili. Di fronte a una nuova architettura sarà necessario anche pensare ad algoritmi di nuova generazione che, lavorando in modo più simile all’intelligenza umana, permetteranno All’IA di accrescere le proprie conoscenze in modo progressivo, con consumi che si avvicinano a quelli di una lampadina.

Per quanto importante sia il tema sostenibilità, è importante anche sottolineare come attualmente l’impatto energetico del mondo ICT sui consumi complessivi non sia certamente tra i più importanti. Con una tendenza però al rialzo, da cui l’esigenza di affrontare la situazione per tempo.

“Siamo ancora agli inizi del progetto, ma gli obiettivi e il potenziale sono già chiari. Serve un hardware in grado di supportare il continue learning e consentire lo sviluppo dei progetti di IA. Dobbiamo prendere spunto dal funzionamento del cervello umano, capace di aggiungere informazioni con un dispendio minimo di energia”.

Nel frattempo, il Gruppo è al lavoro per tracciare questa strada, allargare il raggio d’azione del progetto per arrivare a individuare i componenti già esistenti e quelli invece ancora da sviluppare. L’obiettivo è un framework, o più di uno a seconda dell’applicazione, in grado di andare oltre le configurazioni attuali. A livello di ricerca, l’ostacolo maggiore è proprio quello di passare da un concetto di microchip capace di lavorare in inferenza – quindi ideale per le previsioni – a uno invece in grado di gestire l’aggiornamento.

“Anche i modelli attuali definiti smart, in realtà si rivelano troppo complessi, articolati e costosi al riguardo – conclude Vincenzo Lomonaco –. I componenti da cui partire, compresi i chip dedicati o gli acceleratori, non ci mancano. Ora, dobbiamo andare oltre, progettare e realizzare moduli a misura di IA”.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome