Come le velocità di clock influenzano test e misure

Che i dati dei test siano esclusivamente pass/fail è una convinzione ampiamente diffusa, ma piuttosto lontana dalla realtà. Anche se gli strumenti tradizionali con funzionalità fisse rinviano solo i risultati al Pc host del sistema di test, gran parte del processo di elaborazione del segnale viene nascosto da involucri di plastica. Il processore all'interno dello strumento determina la velocità delle misure; ciò accade soprattutto per le misure di elaborazione avanzate, per applicazioni come gli oscilloscopi, basati su forme d'onda, suoni, vibrazioni e Rf. Anche gli analizzatori di spettro più veloci, presenti oggi sul mercato e basati su Fft utilizzano soltanto il 20% del proprio tempo di misura per l'acquisizione del segnale; il restante 80% è dedicato all'elaborazione del segnale per un determinato algoritmo. In uno strumento distribuito cinque anni fa, la ripartizione è persino peggiore. L'elaborazione del segnale può finire per dominare fino al 95% del tempo di misura. Poiché investire ogni anno in un portfolio di strumenti completamente nuovi non rappresenta un'opzione da poter prendere in considerazione, l'utilizzo di attrezzature di test antiquate per il collaudo di dispositivi complessi e moderni è realtà. Gran parte dei dipartimenti di test finisce così per generare, a livello di prestazioni, un ampio divario tra la potenza di elaborazione dei propri sistemi e le reali esigenze di elaborazione. I sistemi di test modulari sono caratterizzati da tre elementi principali e distinti: il controller, lo chassis e la strumentazione. Il controller funziona come un Pc industriale, contiene la di un sistema. Il vantaggio principale di questo approccio è la possibilità di sostituire la Cpu con una tecnologia di elaborazione più moderna, conservando i componenti restanti (chassis/backplane e strumentazione) nel sistema di test. Per la maggior parte dei casi d'uso, conservare la strumentazione, aggiornando l'elaborazione consente di estendere maggiormente la vita di un sistema di test modulare rispetto a uno strumento tradizionale. Sia gli strumenti modulari che tradizionali si affidano alle più moderne tecnologie dei processori per incrementare la velocità dei test, ma i sistemi modulari sono molto più agili ed economici da aggiornare rispetto agli strumenti tradizionali.

I cambiamenti nel mercato dei processori
Nel 2005, Intel lancia sul mercato il primo processore multicore, l'Intel Pentium D. Abituati a sfruttare la potenza di processori sempre più veloci, gli sviluppatori software furono costretti a prendere in considerazione nuove tecniche di programmazione parallele per poter continuare a raccogliere i benefici della legge di Moore. Come spiega chiaramente Geoffrey Moore nel suo libro Crossing the Chasm, l'adozione della tecnologia segue una curva a campana rispetto al tempo, e presenta cinque tipologie di partecipanti: gli innovatori, i primi utilizzatori, la maggioranza precoce, la maggioranza tardiva e i ritardatari. Alcuni settori, come quello dei videogiochi e del rendering di video, hanno adottato rapidamente le tecniche di programmazione parallela, altri, invece, si sono rivelati più lenti. Purtroppo, gli ingegneri che si occupano di test automatizzati rientrano nella categoria della maggioranza tardiva, quando si tratta di utilizzare tecniche di programmazione parallela. Le ragioni potrebbero essere molteplici, ma, probabilmente, il motivo principale è che non disponevano di incentivi per riprogettare l'architettura software per i processori multicore. Fino ad oggi, gran parte dei test automatizzati, hanno sfruttato tecnologie come Intel Turbo Boost per aumentare la velocità di un singolo core su un processore quad-core, riducendo i tempi di test delle architetture software sequenziali, ma si tratta di una tecnologia ormai in fase di stallo. Numerosi fattori, come la dissipazione del calore, impediscono alla velocità del processore di aumentare. Per mantenere basso il consumo di energia, migliorando le prestazioni, Intel e altri produttori di processori si stanno convertendo alla tecnologia many-core; basti pensare al processore Intel Xeon con otto core logici. Il risultato è un processore con una velocità di clock simile a quella del modello precedente, ma con un maggior numero di core computazionali, in grado di elaborare i dati.

Le applicazioni pronte ai processori many-core
Nel settore dei test alcune aree applicative sono tra le principali candidate per l'impiego dei processori many-core. Nel McClean Report del 2015, i ricercatori di IC Insights hanno esaminato numerosi aspetti del mercato dei semiconduttori, tra cui l'aspetto economico. Hanno affermato che "per alcuni chip complessi, i costi del collaudo possono raggiungere la metà dei costi complessivi... i tempi di test più lenti stanno allungando i tempi di collaudo." Inoltre, hanno osservato che "i test paralleli sono stati e continuano ad essere un elemento chiave fondamentale per la riduzione dei costi..." La ricerca ha dimostrato che così come l'uomo ha difficoltà a svolgere quotidianamente attività di lavoro multitasking, i sistemi sperimentano l'overhead quando eseguono test in parallelo. Nei test per i semiconduttori, i responsabili del collaudo utilizzano la Pte (Parallel Test Efficiency) di un sistema di test per misurare l'overhead. Se il software di test è stato progettato correttamente, l'aumento dei core di elaborazione in un sistema di test dovrebbe influenzare positivamente la Pte per una determinata routine di test. Per investire nel test automatizzato, i responsabili dei test devono prendere in considerazione diversi fattori, come lo spazio, il throughput ottimale di elementi-per-ora e i costi complessivi, considerando che il passaggio a una potenza di elaborazione parallela, solitamente, ha un impatto positivo sull'azienda, migliorando la Pte. L'industria dei semiconduttori, tuttavia, non è l'unica ad adottare il test parallelo. Sarebbe piuttosto complicato trovare un sistema di test wireless, in grado di collaudare meno di quattro dispositivi contemporaneamente. I processori many-core sono, dunque, pronti a influenzare qualsiasi settore che debba testare la connettività wireless o i protocolli di comunicazione cellulare in un dispositivo. Non sono un segreto le attuali ricerche e prototipazioni del 5G, una tecnologia che supererà di gran lunga le ampiezze di banda degli attuali strumenti Rf. Oltre a elaborare tutti i dati rinviati dall'analizzatore di segnali a banda larga per un singolo protocollo, i sistemi di test wireless devono testare più protocolli in parallelo. Un produttore di smartphone, ad esempio, nell'immediato futuro dovrà testare non solo il 5G, ma anche gran parte delle tecnologie cellulari precedenti, come il Bluetooth, l'802.11 e qualsiasi altra variante di connettività. In generale, ogni nuovo protocollo di comunicazione richiede algoritmi di test più 'assetati' di processore, rispetto ai predecessori. Così come i processori many-core contribuiscono ad aumentare la Pte in un sistema di test per semiconduttori, incrementare il rapporto tra core di elaborazione, protocolli e dispositivi sotto test aiuterà a ridurre ulteriormente i tempi di collaudo.

Software applicativo
Il software si è evoluto da elemento di poca importanza a componente chiave nei test e nelle misure. Con il cambiamento nel mercato delle Cpu, precedentemente menzionato, gli ingegneri di test, oggi, devono affrontare una sfida ancora più complessa: tentare di implementare architetture software per il test parallelo. Utilizzando un linguaggio di programmazione general-purpose come C o C++, implementare correttamente tecniche di collaudo parallelo, spesso, richiede mesi di sviluppo. Quando il time to market è una priorità, gli ingegneri e i responsabili di test devono dare importanza alla produttività del programmatore. Adottare software per lo sviluppo di codici di test specifici per le applicazioni (ad esempio LabView di National Instruments) e un software per la gestione di test (come TestStand) sposta il lavoro amministrativo dell'elaborazione parallela e del thread dai dipartimenti di test allo staff R&D software dell'azienda.. Un software specifico per le applicazioni consente agli ingegneri di test di concentrarsi sul codice, che è essenziale per effettuare i test sui dispositivi.

Prepararsi al futuro
Nell'ultimo decennio la complessità è aumentata a ritmi straordinari, senza mostrare segni di rallentamento. Il lancio del prossimo modello di comunicazione per cellulari è programmato per il 2020. Gartner sostiene che, entro il 2022, nel mondo ogni famiglia avrà più di 500 dispositivi connessi e i sensori, probabilmente, saranno più piccoli del diametro di un capello umano. Le aspettative crescenti dei consumatori verso esperienze di alta qualità richiedono ai produttori progettazioni e test efficaci e competitivi. Saranno necessari ingegneri di test per il collaudo dei prodotti e per garantire che funzionino in modo affidabile e sicuro. Per raggiungere questo obiettivo con profitto, bisognerà adottare un approccio modulare, incentrato sul software, capace di dar rilievo al test parallelo. L'utilizzo dell'elaborazione many-core non è più un'opzione; è ora un requisito per continuare a ottenere profitti dal punto di vista economico. L'unica domanda restante è come i dipartimenti di test cambieranno i loro approcci software per sfruttare i vantaggi dei core di elaborazione aggiuntivi.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome