La capacità produttiva di SK hynix e Samsung è già allocata. Tre cicli di prodotto bloccati dagli hyperscaler americani lasciano l’Europa in coda sul fronte della memoria per il calcolo ad alte prestazioni.
La capacità produttiva di HBM4, la memoria a larghissima banda che alimenta gli acceleratori per intelligenza artificiale, risulta in larga parte già prenotata fino alla fine del decennio, sulla base degli impegni che i principali clienti hanno siglato negli ultimi mesi con i fornitori coreani. Le conferme degli ordini arrivate nelle ultime settimane da NVIDIA, AMD e dai principali hyperscaler americani indicano che la quota più significativa della capacità disponibile è stata vincolata a questi clienti per più cicli di prodotto, lasciando fuori dal tavolo la quasi totalità dei progetti europei di calcolo ad alte prestazioni. Dietro l’allocazione c’è un duopolio sostanziale: SK hynix e Samsung Electronics, che insieme controllano una quota largamente maggioritaria della produzione globale di High Bandwidth Memory, hanno saturato i propri stabilimenti di Icheon e Pyeongtaek per i prossimi tre cicli di prodotto. E il collo di bottiglia non riguarda tanto la fabbricazione delle DRAM stack quanto la disponibilità di capacità di packaging avanzato CoWoS, anch’essa concentrata in pochi siti asiatici.
Il salto generazionale dell'HBM4
HBM4 segna il passaggio dall’interfaccia a 1024 bit di HBM3E a un bus a 2048 bit, raddoppiando la banda passante per stack e portandola oltre 1,6 terabyte al secondo. Ogni modulo monta dodici o sedici layer di DRAM impilati verticalmente attraverso vie passanti il silicio, le cosiddette TSV, per una capacità che arriva a 36 gigabyte per stack nelle configurazioni 16-Hi. La densità si traduce in un risparmio energetico stimato attorno al trenta per cento rispetto alla generazione precedente a parità di banda, dato non trascurabile per i data center hyperscale dove il consumo della memoria pesa per quote a doppia cifra sui kilowatt totali del rack.
L’altra novità è il base die. Su HBM3E la base era prodotta dallo stesso fornitore della DRAM, su HBM4 SK hynix ha scelto di affidare il base die a TSMC, sfruttando i nodi logici a 5 e 12 nanometri della fonderia taiwanese per integrare nella memoria funzioni di logica avanzata: gestione del power delivery, possibilità di integrare forme di calcolo near-memory e in-memory, debug strutturato. È un cambiamento architetturale che lega in modo strutturale la fortuna del produttore coreano alla disponibilità di wafer TSMC e che Samsung, almeno per ora, non segue perché dispone di una propria fonderia interna. La scelta di SK hynix è coerente con il quadro che abbiamo ricostruito sulla dipendenza dell’industria mondiale dalla supply chain di TSMC, e ne accentua un aspetto: la memoria ad alte prestazioni non è più un prodotto separabile dalla logica.
Sold out fino al 2029
La saturazione della capacità non è una sorpresa: già nel quarto trimestre 2024 SK hynix aveva confermato che le linee HBM3E erano allocate per l’intero 2025, e i rapporti finanziari del primo trimestre 2026 indicano che HBM4 segue lo stesso schema con un ciclo addirittura più aggressivo. NVIDIA, che destina la quasi totalità della propria pipeline alla famiglia di acceleratori Rubin, ha impegnato in anticipo una parte molto rilevante della produzione SK hynix dei prossimi due anni: secondo fonti di settore riportate da TrendForce e Yonhap News, SK hynix si è aggiudicata circa il settanta per cento della fornitura HBM4 per la piattaforma Vera Rubin. AMD ha sottoscritto un memorandum d’intesa pluriennale con Samsung per la fornitura di HBM4 destinata agli acceleratori Instinct della famiglia MI400. Gli hyperscaler con acceleratori proprietari completano il quadro della domanda allocata: Google con i TPU di nuova generazione, Amazon con la famiglia Trainium, Microsoft con Maia.
Sul lato europeo l’allocazione dichiarata è marginale. Nessuno dei progetti di supercalcolo del consorzio EuroHPC ha contratti diretti significativi con i due produttori coreani, e gli operatori industriali europei che integrano memoria HBM nei propri sistemi – dalle apparecchiature di test elettronico ai sistemi radar di nuova generazione, dagli oscilloscopi di fascia alta alle piattaforme di acquisizione dati per la fisica delle particelle – si trovano di fatto in coda dietro i grandi clienti americani. Il rischio operativo che ne deriva è duplice: tempi di lead time che superano i diciotto mesi e prezzi unitari che, secondo le rilevazioni TrendForce del primo trimestre 2026, viaggiano con un premio prossimo al quaranta per cento rispetto alle stime di inizio 2025.
Il collo di bottiglia del packaging avanzato
Il vero strangolatore della catena non è la DRAM ma il packaging CoWoS di TSMC, l’unica tecnologia in volume che permette di affiancare gli stack HBM all’acceleratore di calcolo su un interposer di silicio. La capacità CoWoS di TSMC è più che raddoppiata fra 2024 e 2025, con le stime di settore che indicavano già a inizio 2025 un target di 75.000 wafer-equivalenti mensili entro fine anno, ma resta sotto la domanda. Samsung ha sviluppato una propria soluzione di packaging avanzato a Cheonan che dovrebbe entrare in volume nel secondo semestre, con tempi e rese ancora da verificare. Intel Foundry, che propone l’EMIB come alternativa, gestisce per ora volumi compatibili soprattutto con la propria roadmap interna di acceleratori.
In Europa il packaging avanzato per HBM è sostanzialmente assente. Gli stabilimenti tedeschi e francesi della filiera – Infineon, STMicroelectronics, Bosch – operano su tecnologie di packaging molto diverse, orientate al power management, all’automotive e all’analogico. La fabbrica congiunta TSMC-Bosch-Infineon-NXP di Dresda, che entrerà in produzione nel 2027, è dimensionata sui 12 e 28 nanometri per applicazioni automotive, non sull’advanced packaging logico-memoria. La distanza tecnologica fra l’Asia e il continente europeo, su questo specifico segmento, si può stimare nell’ordine dei sette-otto anni.
L’Europa fuori dal tavolo
Le ricadute per l’industria italiana ed europea sono prevalentemente indirette ma significative. I produttori europei di apparecchiature scientifiche e industriali che utilizzano FPGA o acceleratori con HBM integrata devono pianificare con due anni di anticipo gli stock o accettare di ricevere componentistica con un ciclo di vita più breve. Per le piccole serie i prezzi unitari sono diventati proibitivi: un acceleratore con 192 gigabyte di HBM3E che nel 2024 costava intorno ai venticinquemila euro nel segmento industriale oggi viaggia stabilmente sopra i trentottomila. Il mercato dei sistemi di test e misura ad alte prestazioni, nel quale la componentistica europea ha posizioni rilevanti, è fra i settori più esposti alla pressione sui costi.
L’altra ricaduta è di tipo strategico. La dipendenza dalla memoria coreana si somma alla dipendenza dalla logica taiwanese e americana, configurando un perimetro di sovranità tecnologica sempre più ristretto. La Commissione europea sta valutando misure di stoccaggio strategico nell’ambito del Critical Raw Materials Act, ma la categoria HBM non è esplicitamente coperta: si tratta di un componente di sistema, non di una materia prima, e ricade nella zona grigia della regolazione comunitaria. Il quadro si complica ulteriormente se si tiene conto delle ritorsioni cinesi sui materiali critici come il gallio e dei dazi americani della Sezione 232, che intervengono a monte e a valle della stessa filiera.
La radice industriale coreana
Il duopolio Samsung–SK hynix non è il risultato di una congiuntura ma di vent’anni di politica industriale. Seoul ha trattato la memoria DRAM come industria strategica nazionale dagli anni Novanta, sostenendo gli investimenti in capacità attraverso le banche pubbliche e accettando, nei momenti di sovrapproduzione, i bilanci pesantemente in rosso pur di non cedere la leadership manifatturiera. La svolta sul fronte HBM è arrivata nel 2014 con la prima generazione del prodotto, sviluppata da SK hynix in partnership con AMD per gli acceleratori grafici professionali. Quella che era una scommessa di nicchia è diventata, dieci anni dopo, l’asse portante del comparto memoria coreano: come confermano i risultati finanziari annuali di SK hynix, HBM rappresenta oggi la componente dominante dei profitti operativi della divisione DRAM, con ricavi HBM più che raddoppiati nel 2025 rispetto al 2024.
Il governo Lee Jae-myung, insediato nel 2025, ha rafforzato la cornice di politica industriale con il cosiddetto K-Chips Act, che concede crediti d’imposta superiori al venti per cento sugli investimenti in capacità di fonderia avanzata e packaging, e con il piano per il Mega Cluster di Yongin, che prevede la realizzazione di sei nuove fab nei prossimi vent’anni. È una scelta che non ha equivalenti dimensionali in Europa: il pacchetto di investimenti coreano si avvicina ai 470 miliardi di dollari complessivi al 2042, una cifra che rende la rincorsa europea matematicamente difficile sui volumi.
Cosa aspettarsi nei prossimi diciotto mesi
La traiettoria di breve periodo è già scritta. SK hynix porterà in volume HBM4 nel secondo trimestre 2026, Samsung dovrebbe seguire entro fine anno, Micron ha annunciato l’ingresso nel mercato HBM4 per il primo semestre 2027 ma con quote marginali. La saturazione resta strutturale almeno fino al 2028, quando l’ampliamento delle linee Pyeongtaek-3 di Samsung e la nuova fab M15X di SK hynix dovrebbero aggiungere capacità sufficiente a riequilibrare il mercato. Sul fronte del packaging, l’aumento di capacità CoWoS di TSMC nel 2027 sarà determinante per allentare la stretta.
Per il tessuto industriale italiano la priorità è gestire il rischio di approvvigionamento. Gli ingegneri di sistema che lavorano su roadmap pluriennali con componenti HBM dovrebbero rivedere i piani di acquisto, considerare alternative come la memoria GDDR7 dove la banda è sufficiente, e – quando possibile – disaccoppiare le architetture dalla disponibilità di una specifica generazione di memoria. Non è una soluzione, è un adattamento. La discontinuità di fondo, ovvero la concentrazione coreana del segmento HBM, resta la cornice di questo decennio.
Leggi anche
→ Il grande scisma: TSMC batte ogni record mentre la Cina conquista il 41% del mercato domestico AI
→ L'Iran dichiara NVIDIA, Apple e Google "obiettivi legittimi": cosa rischia la supply chain AI
→ Hormuz chiuso, chip a rischio: l'ultimatum di Trump scade oggi
→ Guerra del Golfo, l'elio e il nodo criogenico



