Strumenti avanzati per misurazioni di dati seriali ad alta velocità

L’obiettivo di questo articolo è di definire l’equalizzazione e la non-equalizzazione nei sistemi per dati seriali. Detto questo procediamo nello spiegare l’ambiente che si affronta nei sistemi di misurazione e collaudo non-equalizzati. Cominciamo col definire il ruolo degli strumenti di collaudo e misura nei riguardi dei dati seriali ad alta velocità che è quello di aiutare nello sviluppo di sistemi che trasmettano i dati con alti bit-rate e bassi numeri di errori. La velocità è definita in bit/s (o Gigabit/s) e la frequenza di errori è definita in termini di Ber (Bit error rate) dunque equivale al numero di bit errati diviso il numero di bit trasmessi, pertanto l’obiettivo dello strumento è quello di misurare il Ber nel modo più rapido e accurato possibile. Nei test di conformità inoltre l’obiettivo è di garantire che un sistema una volta entrato in produzione in volumi funzioni correttamente e, ancor più importante, che i singoli pezzi del sistema funzioneranno assieme. In altre parole è importante poter quantificare e testare vari aspetti affinché i singoli elementi del sistema possano interoperare una volta connessi e la capacità di progettare e costruire sistemi in questo modo è alla base del nostro mondo high-tech. Infatti la capacità di progettare e misurare le prestazioni dei singoli elementi in relazione tra loro è un livello di astrazione di cui gli ingegneri hanno bisogno per progettare sistemi complessi.

I sistemi non equalizzati
Nell’ambito dei sistemi non equalizzati la situazione è tale per cui le componenti isolate dei sistemi possono essere misurate e analizzate globalmente per determinare la prestazione del sistema, mentre nell’ambito dei sistemi per dati seriali ad alta velocità la misurazione di connettori, chip trasmittenti, chip riceventi e backplane và analizzata separatamente e facilmente. Tradizionalmente per esempio un backplane viene misurato con la Tdr (Time Domain Reflectometry) per determinare se il backplane stesso e le sue connessioni sono “buone”, nel senso che non hanno dispersioni, hanno l’impedenza richiesta e poco discontinuità di impedenza. Attualmente viene utilizzato un analizzatore vettoriale di network, tradizionalmente strumento primario di un ingegnere nell’ambito delle microonde, per eseguire queste misure sotto forma di Parametri S e le misurazioni di Parametri S e Tdr sono grosso modo modi equivalenti per ottenere le stesse informazioni. Le misurazioni dei backplane e dei connettori utilizzando strumenti di analisi per network sono ciò che si può definire misurazioni statiche, in quanto le misurazioni descritte offrono misurazioni dei componenti che essenzialmente determinano il comportamento dei componenti nel loro complesso in ogni dato momento, anche se in maniera complicata. In altre parole la misurazione di un componente del canale ottenuta tramite un Vna consente di predire o simulare qualunque aspetto del componente nel sistema. La misurazione del comportamento del trasmittente nell’ambito non equalizzato si basa essenzialmente sull’analisi del jitter e l’industria degli strumenti per la misurazione del jitter offre molteplici metodi per la sua misurazione, suddividendo le varie sorgenti in random e deterministico, con l’ambito deterministico che include il jitter periodico e quello dipendente dai dati. Le misurazioni includono anche il noise o “rumore” suddivisi in random noise, cross-talk e distorsione. Il noise e la sua manifestazione in qualità di jitter sono un problema che merita attenzione, mentre la distorsione può anche dipendere dai dati stessi ed è questa particolare situazione che porta verso la preferenza di sistemi equalizzati. Quando si analizzano il jitter e gli effetti del noise è molto utile poter esaminare il diagramma ad occhio che rappresenta le forme d’onda del voltaggio in vicinanza del punto di decisione per ogni singolo bit sovrapposto. Il jitter tende a “chiudere” l’occhio orizzontalmente e il noise invece tende a “chiudere” l’occhio verticalmente, pertanto la “chiusura” dell’occhio segnala l’aumento della possibilità d’errore e dunque del Ber. La Fig. 1 mostra i tipici elementi di analisi del jitter e visualizza un segnale a 10 Gb trasmesso in ambiente quasi perfetto. L’analisi è eseguita utilizzando un WaveMaster 8 Zi, un oscilloscopio real-time di LeCroy con fino a 30 GHz di banda. La chiusura massima totale dell’occhio (quindi il jitter totale) con un Ber di 10-12 (1 trilione di bit) è stimato a 16.7 ps e questa è una stima di 4,6 milioni di unità intervallo (UI). Questo significa che se la stima è corretta e 1 trilione di bit sono stati acquisiti nel diagramma ad occhio nell’angolo alto a sinistra, allora l’area aperta orizzontalmente nel centro dell’occhio sarebbe ampia 83,3 ps. In conclusione negli ambienti non-equalizzati i canali sono misurati approssimativamente utilizzando l’analisi del jitter. Questa può sembrare una semplificazione, ma descrive generalmente la situazione.

La velocità aumenta
senza che ci siano migliorie dei canali

Oggi assistiamo a maggiori velocità di trasmissione non accompagnate da tangibili miglioramenti nella qualità dei canali. Questo non vuol dire che non ci sia alcun miglioramento dei canali, ma che questo avanzamento non è al passo con l’aumento delle velocità di trasmissione, e in alcuni casi si rende necessario un significativo aumento di velocità (forse anche il doppio) di trasmissione su di infrastrutture di canali pre-esistenti e non migliorate. Nell’ambiente di trasmissione ad alta velocità, alcune caratteristiche dei canali tendono a definire l’effettiva prestazione del sistema. Queste sono:
1 - La dispersione del canale, sebbene insignificante alle basse velocità, diventa enormemente influente alle alte velocità, causando l’accorciamento dei segnali al ricevente.
2 - La dispersione del canale in funzione della frequenza causa gravi distorsioni del segnale, visto che le componenti di segnale a maggiori frequenze sono attenuate in relazione alle componenti a frequenza minore.
3 - Le discontinuità di impedenza causano riflessioni che “rimbalzano” nel circuito, facendo sì che rimasugli di simboli precedenti arrivino in ritardo rispetto ai simboli stessi (in alcuni casi con molto ritardo). Questi effetti sono dovuti all’ampiezza della base del chip, ai connettori e a imperfezioni dei pin nei connettori.

Altri effetti, incluso il cross-talk, aggravano ulteriormente questa situazione, causando distorsioni del segnali nei dati o nel pattern, che in alcuni casi impediscono qualunque possibilità di decodifica affidabile.

Il ruolo dell’equalizzazione
L’equalizzazione è definita come l’azione per rendere uguali. Quando i canali hanno dispersione, specificamente una dispersione dovuta alla frequenza, le componenti di frequenza del segnale trasmesso arrivano al ricevente con ampiezze diseguali causando distorsioni. L’equalizzazione in questo contesto si riferisce al rendere queste ampiezze ineguali nuovamente uguali, e quindi di fatto compensando la distorsione; lo stesso può dirsi della fase. Le variazioni di fase dipendenti dalla frequenza (oppure le variazioni nei ritardi di gruppo) fanno sì che le componenti di frequenza del segnale arrivino in momenti diversi, pertanto l’equalizzazione può essere semplicemente descritta come l’azione necessaria per far arrivare le componenti del segnale equivalenti in termini di tempo e magnitudine. Oggi l’equalizzazione si riferisce a tutte le tecniche utilizzabili per compensare gli effetti indesiderati del canale, di solito confinate agli effetti dipendenti dai dati. I metodi applicati per l'equalizzazione includono la pre-enfasi del trasmittente, l’equalizzazione lineare del ricevente e l’equalizzazione del feedback decisionale. La pre-enfasi (o de-enfasi a seconda di come la si voglia vedere) è in effetti la pre-distorsione del segnale che serve ad anticipare l’effettiva distorsione del canale. Generalmente coinvolge l’aumento della magnitudine delle componenti in alta frequenza relativa alle componenti a bassa frequenza per anticipare la dispersione del canale. La pre-enfasi del trasmittente è di solito implementata con un filtro di risposta agli impulsi (impulse response filter – FIR) mentre gli equalizzatori lineari del ricevente (Les) agiscono come la pre-enfasi ma nella parte terminale del canale.
I vari metodi includono filtri trasversali (anch’essi FIR) che sommano le versioni ritardate del segnale ricevuto consentendo un’equalizzazione basata su simboli pregressi e futuri che arrivano al ricevente (con un ritardo nella pipeline). In ultimo la Dfe (Decision Feedback Equalization), la quale utilizza le decisioni prese nella decodifica dei bit al ricevente per anticipare la verosimiglianza dei futuri bit decisionali in arrivo, è sempre più utilizzata. Siccome è presente un elemento non lineare nel sistema (lo slicer) il Dfe è considerato non lineare. La pre-enfasi del trasmittente e il Dfe sono largamente in uso al giorno d’oggi e solitamente vengono utilizzate contemporaneamente più forme di equalizzazione per sfruttare i vantaggi e mitigare gli svantaggi di ambo i tipi di equalizzatori.

Le sfide dell’equalizzazione
dal punto di vista delle misure

Il canale in un sistema equalizzato non può mai essere considerato ideale e questo rappresenta immediatamente una sfida. Succede infatti che il canale sia stato misurato con ad esempio con un Vna e la risposta analizzata per verificare che lo stesso non abbia subito una dispersione apprezzabile, diciamo di qualche dB. Inoltre si è verificato che non avesse delle deformazioni, delle cunette o cavità risonanti per essere certi che l’impedenza fosse omogenea e che non ci fossero importanti effetti derivanti dalle connessioni o bavette. Infine la dispersione di ritorno è stata esaminata per verificare il buon allineamento della linea e che significativi quantitativi di segnale non fossero riflessi indietro. Questo non è certo semplice nell’ambito di un sistema equalizzato. A seconda del carico degli equalizzatori i canali possono mostrare grandi quantità di dispersione, importanti “risucchi” nella risposta dovuti alle bavette e risultati molto disomogenei nelle risposte di magnitudine e fase. La Fig. 5 mostra proprio questo esempio. Rappresenta infatti uno dei sei casi studiati dalla Backplane Ethernet task force 802.3 quando l’obiettivo era di trasmettere 10 Gb/s su questo specifico backplane in esame. Nonostante siano in corso vari sforzi per definire delle specifiche, risulta ancora difficile trovare una correlazione tra le misurazioni del backplane con un Vna e le prestazioni complessive del sistema, e in generale le misurazioni confermano soltanto la pessima situazione di affidabilità (senza equalizzazione). Inoltre, mentre è teoricamente possibile determinare se un particolare canale sarà in grado di funzionare, rimane comunque uno spettro molto variabile nelle prestazioni del canale di cui tenere conto, e nessuna buona soluzione disponibile che possa certificare la capacità del canale di operare correttamente. L’equalizzazione usata è impostabile e in alcuni casi adattiva e pertanto in grado di compensare grosse variazioni nelle prestazioni del canale che non possono essere prontamente comprese analizzando solo i Parametri S. I 7 canali stessi non operano in maniera isolata, ma sono terminati da un lato nel ricevitore e dall’altro nel trasmittente, pertanto il canale nel suo complesso interagisce in maniera molto complessa con loro. La natura differenziale del sistema aggiunge ulteriori complicazioni. I Parametri S in modalità mista sono d’aiuto nel semplificare alcune cose, ma a seconda di come sono utilizzati possono “semplificare via” alcuni effetti importanti di cui tenere conto. Ad esempio in un sistema differenziale, anche mentre vengono trasmessi segnali differenziali, si verifica una tendenza alla conversione di modalità (ovvero la conversione di segnali tra modalità differenziali e comuni e vice versa) nel punto delle terminazioni che può portare alcuni componenti del segnale a rimbalzare in giro per il circuito in maniera non richiesta, rendendo spesso inadeguato considerare il sistema come un sistema differenziale semplificato. Tutto questo porta a una semplice considerazione: i canali e i trasmettitori non possono venir misurati in maniera indipendente per garantirne una efficace interoperazione. Per riassumere la situazione si può dire che i connettori, i cavi e i canali sono progettati secondo specifiche misurabili con gli analizzatori di network, misurazioni che sono subito disponibili, ma le importanti specifiche dei chip non sono altrettanto disponibili. Questo non è dovuto al fatto che i produttori di chip nascondano delle informazioni, ma al fatto che non c’è un comune denominatore che descriva le condizioni di interoperabilità. In alcuni casi il produttore di chip specificherà quali canali potranno funzionare col chip stesso, ma questi tenderanno ad essere troppo limitanti per la progettazione del sistema (ndr: il canale può essere anche peggiore ma funzionare meglio), oppure il produttore specificherà condizioni del canale che risulteranno in un malfunzionamento ma che tendono ad essere troppo vaghe (ndr: si verificheranno situazioni in cui le specifiche del canale saranno rispettate ma il sistema comunque non sarà funzionante). Anche quando le cose funzionano è difficile quantificare il margine di errore presente, nonostante una certa visione si abbia esaminando quanto vicini siano vari coefficienti dei tap dell’equalizzatore agli edge.
Ci si trova quindi di fronte a sfide che possono essere così riassunte:
1 - Agli ingegneri manca un denominatore comune per definire le condizioni di interoperabilità tra i canali e i trasmettitori.
2 -I test di conformità impongono test che, alla fine, non garantiscono l’interoperabilità.
3 - Quando i sistemi non sono interoperanti correttamente è impossibile determinare quale loro porzione non sta funzionando e quando funzionano non è possibile determinare entro quali margini.

Generalmente è impossibile accedere al segnale equalizzato. Questo significa che i punti di sonda sono limitati ai punti immediatamente agli estremi del canale, che è poi l’input del chip ricevente. Il punto di input dello slicer è all’interno del chip ed è considerato inaccessibile in circostanze normali.

Una soluzione migliorata
aumenta l’accuratezza della Signal Integrity

Come soluzione a tutti i problemi di cui sopra, LeCroy propone sulla serie WaveMaster 8 Zi e SDA 8 Zi una versione migliorata della suite per l’integrità di segnale Eye Doctor che consente il de-embedding delle schede usate per il test e dei cavi di interconnessione, la modellizzazione della pre-enfasi e della de-enfasi, l’emulazione del canale seriale e della equalizzazione del ricevitore. Con SDA 8 Zi è possibile, usando l’oscilloscopio su acquisizioni fino a 256 Mpts, compensare o emulare gli effetti del canale o dell’equalizzazione al ricevitore, e quindi misurare segnali con la stessa accuratezza in qualunque punto del circuito e in qualsiasi condizione di test. Con il lancio della serie WaveMaster 8 Zi, Eye Doctor è stato migliorato e reso più accessibile e facile da usare con un significativo aumento dell’intuitività del suo uso, anche nei casi più complessi. Per quanto riguarda la profondità di analisi la nuova serie WaveMaster 8 Zi offre ancor più potenzialità di analisi con funzioni matematiche, grafici nel dominio del tempo e della frequenza, analisi statistiche, test sulle maschere assieme a nuovi metodi di operare che consentono di ottenere risposte in modo ancora più veloce. L’opzione WMZi-Spectrum, recentemente introdotta, consente analisi nel dominio della frequenza quali la densità spettrale di potenza, emulando esattamente la funzione di un analizzatore di spettro. Una tabella visualizza i valori di frequenza e ampiezza dei picchi in frequenza e i valori dei parametri di lettura sono più accurati e sono acquisiti più velocemente (750.000 misure al secondo) rispetto a qualsiasi oscilloscopio. È possibile sommare o sottrarre, moltiplicare o dividere una qualsiasi coppia di parametri standard o personalizzati e si possono concatenare fino a 8 funzioni o operazioni matematiche. Gli strumenti LeCroy consentono di integrare programmi di terze parti nel flusso di elaborazione dell’oscilloscopio permettendo di sviluppare un nuovo algoritmo matematico o di misurazione e di impiegarlo direttamente nell’oscilloscopio mostrando i risultati in tempo reale.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome