Secondo le stime della società di ricerche e consulenza Arizton, nei prossimi anni il comparto globale dei chip AI si espanderà con un ritmo di crescita a due cifre, per effetto del rapido aumento di applicazioni AI come il machine learning, o i sistemi autonomi che necessitano di potenti funzionalità di elaborazione. Diversi settori industriali, dall’assistenza sanitaria, al mondo automotive, al settore finanziario, richiedono chip specializzati per il supporto dei workload AI
Intelligenza artificiale (AI) ed AI generativa (GenAI) continuano a guidare lo sviluppo del comparto dei semiconduttori, portando in primo piano il ruolo dei chip AI. In effetti, le GPU (graphics processing unit) e i processori AI utilizzati nelle applicazioni data center sono stati i motori principali per l’industria dei chip nel 2024: lo ha dichiarato George Brocklehurst, VP Analyst della società di ricerche di mercato e consulenza Gartner, aggiungendo che “la crescente domanda di gestione di carichi di lavoro di AI e di AI generativa ha condotto i data center a diventare il secondo più grande mercato per i semiconduttori nel 2024, dopo gli smartphone. I ricavi derivanti dai semiconduttori per data center ammontano a 112 miliardi di dollari nel 2024, rispetto ai 64,8 miliardi di dollari del 2023”. E ciò in un quadro complessivo di ricavi mondiali per i semiconduttori che nel 2024 sono stati pari a 626 miliardi di dollari, con un aumento del 18,1% rispetto al 2023. I ricavi globali dell’industria dei chip, prevede Gartner, nel 2025 raggiungeranno i 705 miliardi di dollari.
Circuiti integrati dedicati alla AI
Quando si parla di chip AI si fa riferimento a una particolare categoria di circuiti integrati (IC), appositamente progettati per supportare ed eseguire in maniera efficiente i carichi di lavoro (workload) generati dalle applicazioni e funzionalità di intelligenza artificiale. Alcune di queste funzionalità possono essere, ad esempio, i workload di apprendimento automatico (machine learning – ML), di elaborazione del linguaggio naturale (natural language processing – NLP) o di analisi dei dati.
Il perché, con l’avvento e la diffusione dell’intelligenza artificiale, stia diventando sempre più cruciale sviluppare, progettare e integrare nei server e computer di nuova generazione queste tipologie di chip si spiega con il fatto che, in sostanza, i chip tradizionali non sono stati espressamente concepiti e ottimizzati per gestire i carichi di lavoro della AI. Per chip ‘tradizionali’ si intendono, ad esempio, i dispositivi CPU (central processing unit), o anche le classiche GPU (graphics processing unit), oggi comunque largamente adottate per il training e l’inferenza dei modelli AI.
Le CPU sono processori ‘general-purpose’, per uso generico, quindi non specifico, ed eseguono calcoli e istruzioni in modalità sequenziale: sono considerate i cervelli dei computer, e gestiscono un’ampia gamma di calcoli, funzioni e operazioni, che spaziano dalle operazioni aritmetiche e logiche, al trasferimento di dati tra i componenti del computer, al controllo dell’utilizzo della memoria e del flusso di dati tra la RAM e la CPU, al controllo dei programmi, alla comunicazione con le varie periferiche (mouse, tastiera, stampante, monitor, e quant’altro), alle interazioni con il sistema operativo. Benché siano in grado di eseguire workload di intelligenza artificiale, le CPU non sono ottimizzate per supportare le onerose attività di calcolo parallelo, di norma richieste per la gestione di reti neurali complesse.
In maniera analoga, e in un certo senso, tale ragionamento vale anche per le GPU. Le GPU vengono generalmente catalogate tra i chip AI, ma in realtà sono state originariamente sviluppate e progettate per accelerare il rendering nella grafica computerizzata, quindi l’elaborazione delle immagini. Basti ricordare le unità di elaborazione grafica integrate nelle schede video e motherboard di PC e computer ordinari. Tuttavia, a differenza delle CPU, le GPU sono caratterizzate da un’architettura di elaborazione parallela che le rende molto più indicate per il supporto di workload AI rispetto alle CPU. Tra l’altro, nell’ambito dei vari dispositivi elettronici, le GPU si trovano oggi comunemente integrate anche all’interno dei SoC (system-on-chip), che costituiscono il cuore pulsante delle varie tipologie di smartphone.
Chip AI: essenziali per moderne applicazioni, ma sussistono sfide
Più l’intelligenza artificiale si evolve, attraverso innovazioni come la AI generativa, ed entra profondamente nella vita quotidiana delle persone, più i chip AI diventano essenziali nella creazione delle soluzioni AI di nuova generazione: non solo perché le classiche CPU, basate su elaborazione sequenziale, stenterebbero a tenere il passo e a fornire la velocità di calcolo richiesta, ma anche perché risulterebbero meno efficienti dal punto di visto energetico, e meno convenienti sotto il profilo economico.
Le applicazioni AI moderne, come quelle che utilizzano l’apprendimento profondo (deep learning – DL), generano infatti enormi volumi di dati, richiedendo complessi calcoli matematici, e, in questi casi d’uso, le CPU tradizionali, oltre a creare colli di bottiglia in termini di prestazioni e ritardi nei tempi di calcolo, consumerebbero più energia per eseguire le stesse operazioni, in confronto a chip AI specializzati come le GPU o le NPU (neural processing unit). In aggiunta, per ottenere performance di elaborazione comparabili a quelle delle GPU o NPU sarebbe necessario implementare nel progetto un numero molto maggiore di CPU, e ciò porterebbe a un incremento dei costi hardware, nonché dei costi energetici e di raffreddamento dei sistemi. Infine, va anche detto che, sempre più spesso, le applicazioni AI moderne sono caratterizzate da requisiti di elaborazione real-time, e da questo punto di vista le CPU non sono dispositivi in grado di fornire tali livelli di performance.
Nonostante la strategicità dei chip AI per continuare a innovare la tecnologia AI, sussistono comunque sfide che rallentano una loro ampia adozione nel mercato. Da un lato, esiste il ruolo predominante dello stato di Taiwan nella fabbricazione di chip, e in particolare di foundry come TSMC (Taiwan Semiconductor Manufacturing Company), che produce chip AI all’avanguardia, in primis quelli sviluppati da NVIDIA. Dall’altro lato si può affermare che, spesso, la domanda computazionale dei modelli AI tende a superare i progressi compiuti nella progettazione di chip AI. I modelli AI continuano a crescere in termini di dimensioni e complessità, e non sempre l’evoluzione dell’hardware riesce a tenere il passo: si pensi, ad esempio, ai modelli linguistici di grandi dimensioni (large language model – LLM), che alimentandosi attraverso enormi dataset, e basandosi su miliardi di parametri, richiedono una capacità di calcolo esponenzialmente crescente.

AI chip, nel 2029 un mercato globale da oltre 117 miliardi di dollari
Il mercato globale dei chip AI, stando alle stime più recenti, pubblicate a febbraio, della società di ricerche e consulenza Arizton, è previsto passare, dai 23,19 miliardi di dollari del 2023, a un valore di 117,50 miliardi di dollari entro il 2029, espandendosi nel periodo preso in considerazione dello studio (2024-2029) con un tasso annuo di crescita composto (CAGR) pari al 31,05%. La domanda di chip AI, conferma la ricerca, è guidata da vari fattori, come la rapida crescita delle applicazioni di intelligenza artificiale, tra cui machine learning, elaborazione dati, e sistemi autonomi, che richiedono potenti funzionalità di elaborazione. Inoltre, aggiunge lo studio, via via che industrie come la sanità, il settore automobilistico e finanziario adottano le tecnologie AI, si intensifica la necessità di chip specializzati ad elevata capacità computazionale, efficienza e bassa latenza. A contribuire all’espansione del comparto sono anche i progressi compiuti nell’edge computing, che richiedono chip AI per elaborare i dati localmente, anziché in server cloud centralizzati. Infine, come accennato, l’evoluzione in corso degli algoritmi AI e i crescenti volumi di dati concorrono a guidare la domanda, da parte del mercato, di soluzioni hardware AI più solide ed efficienti.
Tra i lanci di prodotto più recenti, la ricerca Arizton menziona, nell’ottobre 2024, l’annuncio da parte di AMD, dei processori della serie Ryzen AI Pro 300, basati su processo di fabbricazione a 4 nanometri, dotati della nuova architettura Zen 5, e di NPU in grado di fornire una potenza fino a 55 TOPS (Trillions of Operations Per Second), per eseguire funzionalità avanzate, come la cattura e la traduzione del linguaggio in modalità live durante le conference call.

C’è poi, nel marzo 2024, il lancio, da parte di NVIDIA, della piattaforma Blackwell, una nuova architettura GPU progettata per alimentare la AI generativa, modelli AI con mille miliardi di parametri, e al contempo ridurre in maniera significativa costi e consumi di energia.
Arizton cita anche, nel 2023, l’annuncio, all’evento Microsoft Ignite, dei chip custom-designed Azure Maia AI Accelerator e Azure Cobalt CPU,volti a migliorare l’infrastruttura e le prestazioni della AI.
Tipologie di chip AI
La peculiarità che identifica i chip AI, e consente una gestione efficiente dei workload di intelligenza artificiale, è la capacità di elaborazione parallela. Diversamente dai chip general-purpose, privi di questa funzionalità, i chip AI, in virtù delle loro facoltà di elaborazione parallela resa possibile da un’architettura che integra un elevato numero di core di elaborazione, sono in grado di eseguire più operazioni contemporaneamente.
Esistono differenti tipologie di chip AI, e tra queste si possono individuare alcuni dispositivi maggiormente adottati.
GPU. Pur essendo nate originariamente per facilitare l’elaborazione grafica, le GPU, grazie alla loro architettura parallela e all’elevato numero di core, si sono rivelate molto efficaci per l’esecuzione di workload AI, e vengono oggi largamente utilizzate sia nella fase di training dei modelli di intelligenza artificiale, sia nella fase di inferenza, in cui il modello addestrato viene usato per fare previsioni o prendere decisioni. In effetti, sebbene l’inferenza richieda in genere minor potenza computazionale rispetto al training del modello, può comunque rappresentare un’operazione a intenso utilizzo di risorse di calcolo, specie quando si ha a che fare con modelli linguistici di grandi dimensioni, o in applicazioni AI che devono funzionare in tempo reale.
FPGA. I dispositivi FPGA (field programmable gate array) si caratterizzano come chip AI riprogrammabili, ed hanno quindi il vantaggio della riconfigurabilità, che li rende personalizzabili e flessibili in rapporto alla capacità di eseguire specifici algoritmi di AI.
ASIC. Diversamente dagli FPGA, gli ASIC (application-specific integrated circuit) non sono riprogrammabili, ma sono circuiti integrati sviluppati per una singola e specifica funzione, che, nel caso d’uso dell’intelligenza artificiale, può essere l’accelerazione di un particolare modello di AI.
NPU. Le unità di elaborazione neurale sono chip AI che rientrano più correttamente nella categoria degli acceleratori AI, ossia chip AI maggiormente specializzati, e specificamente sviluppati per accelerare le attività di elaborazione nelle reti neurali artificiali (ANN). Le NPU elaborano i dati ispirandosi al funzionamento del cervello umano, e sono in grado di velocizzare i calcoli necessari per supportare workload come il riconoscimento di immagini o l’elaborazione del linguaggio naturale. Si può affermare che per attività di elaborazione di rete neurale altamente specializzate, soprattutto su dispositivi edge o in applicazioni embedded dove il consumo di energia è un fattore critico, le NPU possono rivelarsi più efficienti e convenienti rispetto alle GPU. Queste ultime rimangono comunque un’opzione potente e vantaggiosa nei casi d’uso in cui l’obiettivo è sviluppare sistemi AI concepiti per eseguire un’ampia varietà di funzioni e dove conta molto la versatilità del modello nel gestire diversi tipi di dati e nell’affrontare differenti compiti.