L’integrazione di algoritmi di intelligenza artificiale e machine learning rende i sistemi elettronici embedded più intelligenti e autonomi in molteplici applicazioni, tra cui quelle automotive e di automazione industriale. Nel contempo, nell’era della AI e dell’edge computing, i paradigmi di sicurezza dell’elettronica embedded devono evolversi, per proteggere dispositivi e sistemi in infrastrutture sempre più decentralizzate e distribuite, in cui il malware, potenziato dalla AI generativa, riesce a bypassare le misure di difesa
Nel 2025 l’industria embedded, come il mondo ICT, appare fondamentalmente sempre più dominata da due grandi trend e sfide tecnologiche: intelligenza artificiale (AI) e sicurezza. Nei prossimi anni queste due componenti saranno destinate a formare un binomio indissolubile, che influenzerà in modo radicale l’evoluzione dei sistemi elettronici embedded, sia a livello hardware, sia sul versante software. Un terzo elemento, anch’esso d’importanza nodale nei sistemi embedded, resta l’efficienza energetica, anche nei sistemi ad alte prestazioni, soprattutto quando le applicazioni sono alimentate a batteria, o nei casi d’uso e negli ambienti in cui i dispositivi hanno a disposizione risorse limitate.
Del resto, le limitazioni a livello di risorse (capacità di calcolo, memoria, spazio di storage) e il basso consumo energetico sono due tra le principali caratteristiche che identificano la natura dei sistemi embedded: sistemi specializzati, che integrano hardware e software personalizzato e ottimizzato per rispondere ai requisiti di una determinata applicazione, eseguendo funzioni specifiche, e spesso operando in tempo reale. Sistemi che sono progettati per essere più robusti e affidabili dei convenzionali server e computer installati in data center e uffici, perché di norma funzionano in applicazioni industriali, aerospaziali, automotive, e possono essere esposti a condizioni estreme di temperatura, pressione, vibrazioni, radiazioni, shock elettrici o meccanici, che i normali dispositivi elettronici commerciali non sopporterebbero. Si pensi, ad esempio, ai dispositivi PLC (programmable logic controller) e ai sensori presenti in un sistema di controllo industriale, o alle ECU (electronic control unit), le centraline elettroniche che presiedono varie funzioni di controllo (motore, condizionamento, guida, dispositivi di sicurezza) negli autoveicoli.
Hardware embedded: l'aumento della capacità di calcolo per la AI
In tema di aumento della capacità di elaborazione per gestire workload come quelli AI, l’hardware embedded tende a seguire il percorso di trasformazione in atto nell’information technology (IT): qui, nel terzo trimestre del 2024, il comparto globale dei server, secondo le più aggiornate stime della società di ricerche di mercato e consulenza IDC, ha registrato una crescita della spesa del 100,8%, guidata dalla continua implementazione su larga scala di server GPU da parte di hyperscaler e altri grandi acquirenti IT. Nei prossimi cinque anni, prevede IDC, il mercato globale dei server si espanderà con un tasso di crescita annuale composto (CAGR) pari al 21,8%, alimentato dagli investimenti in infrastruttura, dalle iniziative di modernizzazione, dai progetti AI e ML (machine learning) e dalle implementazioni edge.
In maniera analoga, il comparto globale dei computer embedded sta espandendosi nei vari settori industriali, sotto l’effetto della pressante domanda di automazione, di infrastrutture di edge computing e delle innovazioni nell’intelligenza artificiale: lo rileva la società di consulenza IMARC Group, secondo la quale, questo mercato, dai 49,68 miliardi di dollari del 2024, raggiungerà 91,41 miliardi di dollari nel 2033, crescendo, nel periodo della previsione (2025-2033), con un CAGR pari al 6,66%. Settori come l’automazione industriale, l’automotive, l’aerospazio, l’assistenza sanitaria, spiega Imarc, stanno guidando l’adozione, e sfruttando i sistemi embedded per l’esecuzione di attività di elaborazione in tempo reale, e per le loro caratterisitche di efficienza e affidabilità.

L’integrazione di AI e ML nei sistemi embedded porta a un significativo aumento delle loro funzionalità ed efficienza, consentendo di realizzare applicazioni più smart in diversi settori industriali. Incorporando algoritmi AI e ML, i dispositivi embedded sono in grado di analizzare dati in real-time, di prendere decisioni informate, e di adattarsi autonomamente a condizioni mutevoli: e ciò, chiarisce Imarc, risulta particolarmente vantaggioso in ambiti come il settore automobilistico o l’automazione industriale, dove la manutenzione predittiva, la diagnostica evoluta e l’automazione intelligente giocano un ruolo critico. In aggiunta, l’abilità dei dispositivi embedded di elaborare dati complessi localmente permette di ridurre la latenza e il consumo di banda, innalzando le prestazioni e migliorando l’esperienza utente.
Largo alle unità di elaborazione neurale (NPU)
Esemplificando in che modo il trend di integrazione di AI e ML stia ridefinendo il panorama dell’embedded computing, Imarc menziona la collaborazione, annunciata a giugno 2024, tra Connection, Microsoft, Qualcomm e altri partner OEM di primo piano, per introdurre sul mercato i Copilot+ PC, che rappresentano una nuova generazione di dispositivi Windows-based progettati per i workload AI. Questi PC, dotati di un’architettura di sistema evoluta e di unità NPU (neural processing unit) installate a bordo, promettono un’esperienza di intelligenza artificiale 100 volte più efficiente rispetto ai dispositivi della generazione precedente. In particolare, nei Copilot+ PC la piattaforma Qualcomm Snapdragon X Series è un system-on-chip (SoC) realizzato con processo a 4 nanometri che, oltre a una CPU (central processing unit) Oryon, e a una GPU (graphics processing unit) Adreno, integra una NPU Hexagon con capacità di elaborazione di 45 TOPS (tera operations per second).

Le NPU simulano le reti neurali del cervello umano, e sono microprocessori specializzati, progettati in maniera specifica per accelerare i calcoli, le attività di elaborazione, nelle reti neurali artificiali e nelle applicazioni di ML e deep learning (DL). Le NPU svolgono un ruolo non sostitutivo, ma complementare rispetto alle tradizionali CPU e GPU, e, stando alle previsioni della società di ricerche di mercato e consulenza Grand View Research (GVR), costituiscono un comparto in forte crescita, che, da un valore di 281,4 milioni di dollari del 2024, raggiungerà 813,0 milioni di dollari entro il 2030, espandendosi con un CAGR stimato del 19,3% (2024-2030). La diffusione delle NPU è alimentata dalla rapida crescita delle applicazioni di AI e ML in svariati settori, come l’industria manifatturiera e automobilistica: si pensi ad esempio ai veicoli autonomi o ai sistemi di analisi dei dati in tempo reale. Tra i recenti sviluppi, GVR cita la recente introduzione, da parte di Intel, della serie di processori Core Ultra 200V, che includono una NPU ottimizzata per eseguire modelli di intelligenza artificiale quattro volte più velocemente rispetto alla precedente generazione, e conservare al contempo efficienza energetica.

Le NPU, scrive la società di ricerche e consulenza VDC Research in un documento sulle previsioni per il 2025 in merito a IoT, tecnologia embedded e industriale, fondono elevate prestazioni e consumo di energia relativamente basso. In confronto alle GPU, anch’esse in grado di fornire elaborazione parallela per i workload AI, le NPU sono spesso fisicamente più piccole e richiedono meno energia, offrendo prestazioni equivalenti. E ciò le rende adatte per applicazioni edge AI che spaziano dai sistemi alimentati a batteria fino alle infrastrutture industriali. In virtù della loro scalabilità, le NPU hanno giocato un ruolo chiave nel consentire una efficiente elaborazione dei workload AI nei sistemi basati su MCU (microcontroller unit), e, aggiunge VDC, continuano a crescere con la loro funzione di acceleratori hardware integrati in altri dispositivi, che includono ad esempio le CPU, le MPU (microprocessor unit) o i SoC (system-on-chip). Tuttavia, le NPU stanno anche diffondendosi sotto forma di acceleratori standalone nei single-board computer (SBC).
Permangono comunque ancora problemi da affrontare nell’uso delle NPU, in quanto i vari produttori di questi dispositivi hanno sviluppato differenti architetture hardware, e tale frammentazione del comparto ha ostacolato il supporto generalizzato dei principali framework e strumenti open source: di conseguenza, chiarisce VDC, a seconda del fornitore di NPU, una particolare unità di elaborazione neurale potrebbe non essere ottimizzata per il funzionamento con TensorFlow, Pytorch, ONNX, o altri popolari framework AI, utilizzati da alcuni gruppi di OEM e organizzazioni ingegneristiche.
Imperativo dell'elettronica embedded: rafforzare la sicurezza nell’edge
Nel mondo dell’elettronica embedded, la diffusione di paradigmi tecnologici che sono sostanzialmente individuabili nella Internet of Things (IoT), nella industrial IoT (IIoT) e nell’edge computing ha fatto diventare la sicurezza informatica, e la cybersecurity, aspetti chiave, a cui assegnare la massima priorità, anche in ambienti tradizionalmente disconnessi ed ‘air-gapped’ come quelli industriali. Per ricordare l’entità dell’impatto che un attacco cibernetico è in grado di produrre sulle varie organizzazioni basta citare due recenti e noti incidenti di sicurezza, come l’attacco ransomware del 2021 alle reti di oleodotti di Colonial Pipeline, o l’attacco alla supply chain che nel 2020 ha colpito la società texana SolarWinds. Ma vale la pena menzionare anche un dato eloquente, riportato nel rapporto Clusit 2024 sulla sicurezza ICT in Italia, secondo cui, nel nostro paese, nel primo semestre del 2024, l’industria manifatturiera è risultata il settore più colpito, quello che ha registrato il maggior numero di incidenti cyber, pari al 19% del totale. Le conseguenze di una violazione per le organizzazioni colpite possono essere più o meno gravi: si va dai rallentamenti e interruzioni della continuità operativa aziendale, ai cali di produzione; dalle perdite finanziarie, alle sanzioni amministrative per la mancata conformità con i regolamenti di settore; dalla riduzione della competitività, alla perdita di immagine e reputazione dell’impresa.

Portando l’elaborazione dati e le risorse di storage più vicino alla fonte dove i dati stessi vengono generati, l’edge computing, che comprende anche i dispositivi IoT embedded basati su AI, conduce a una considerevole espansione della superficie di attacco potenzialmente sfruttabile dai criminali informatici. Senza poi considerare che tale superficie di attacco, nelle infrastrutture virtualizzate e containerizzate, in aumento anche nei sistemi embedded, può ulteriormente estendersi dinamicamente in rapporto alla proliferazione di macchine virtuali, sistemi operativi host e guest, e all’avvio automatico di container e workload, che possono introdurre nuove vulnerabilità.
Più elaborazione e storage dei dati migrano dai data center centralizzati verso l’edge, a bordo di device come sensori intelligenti, dispositivi IoT o server locali, più tale decentralizzazione, avverte VDC, crea sfide di cybersecurity che vanno indirizzate reimmaginando l’approccio alla protezione. Nell’edge computing i dati sono distribuiti in vari siti e dispositivi, e in questi ambienti meno controllati ciascun nodo può trasformarsi in un potenziale bersaglio per un attacco cyber. D’altra parte, occore sempre tenere presente che nel mondo embedded molti dispositivi edge hanno potenza di calcolo e memoria limitate, rendendo problematico implementare le tradizionali misure di sicurezza a più elevato consumo di risorse, adottate in genere nell’IT.
Il 2025, prevede VDC, promette quindi di essere un anno in cui l’edge computing richiederà un approccio più olistico, adattivo e decentralizzato alla cybersecurity. Le raccomandazioni per i sistemi elettronici embedded comprendono l’implementazione di protocolli di sicurezza decentralizzati per proteggere i dati in ogni nodo, il potenziamento delle tecniche di cifratura per i dati in transito, e l’attuazione di metodologie di progettazione per realizzare dispositivi elettronici sicuri “by design”, e protetti nativamente contro tentativi di manomissione o sfruttamento. In aggiunta, AI e apprendimento automatico (ML) possono essere adottati per monitorare le minacce, e rispondere in tempo reale, rendendo più dinamica e adattiva la postura di sicurezza di una data organizzazione. Ciò vale, a maggior ragione, nel contesto di crescente sofisticatezza degli attacchi cibernetici, che sfruttano la AI generativa (GenAI) per personalizzare e adattare il comportamento del malware a seconda del tipo di ambiente, consentendogli di bypassare le misure di difesa e protezione implementate nei sistemi embedded.