Compressione dati per applicazioni spaziali

Le più recenti missioni spaziali, soprattutto nell'ambito dell'osservazione terrestre, sono caratterizzate da un incremento significativo della quantità di informazioni generate; per alcune applicazioni Sar ad elevata risoluzione e ampio swath il data rate massimo di dati generati dallo strumento ottico può arrivare anche a 500 Gbps, laddove la banda passante per la trasmissione a Terra è tipicamente inferiore a 100 Mbps. Non deve quindi stupire un crescente interesse nell'ambiente verso le tecniche di compressione dati per applicazioni spaziali. Alla fine dello scorso anno si è tenuta a Tolosa, presso la sede locale del Cnes, l'agenzia spaziale francese, la seconda edizione della conferenza biennale Obpdc (On-board Payload Data Compression) sulla compressione dati per sistemi di bordo. Vi hanno partecipato 65 persone, provenienti da 13 nazioni diverse, con una significativa rappresentanza della industria europea del settore e delle principali agenzie nazionali e comunitarie. La conferenza ha proposto interessanti novità per quanto concerne gli algoritmi di compressione e presentato i sistemi allo stato dell'arte; alcuni degli spunti più interessanti sono riassunti di seguito.

Compressione senza perdita:
proposte di revisione dello standard

Molte applicazioni nel settore, soprattutto nell'ambito della ricerca scientifica, richiedono l'adozione di algoritmi di compressioni dati senza perdita per evitare l'introduzione di artefatti nell'informazione ricostruita. In quest'ambito, lo standard 121.0-B-1 attualmente supportato dal Ccsds (Consultative Committe for Space Data System), il comitato che raccoglie le principali agenzie spaziali nel mondo, si basa su di un encoder a lunghezza variabile che opera su blocchi di J simboli di ingresso pre-elaborati. Non esistono raccomandazioni esplicite sullo schema di pre-elaborazione, sebbene la soluzione più diffusamente adottata si basi su predizione e codifica delle differenze. L'encoder entropico raccomandato è invece l'algoritmo Rice-Golomb. Lo schema è adattativo, selezionando dinamicamente l'opzione di codifica (tra quelle disponibili) che consente di ottenere il simbolo di lunghezza inferiore. Selezionato per la sua relativa semplicità, che ne consente un'implementazione hardware che richiede poche risorse, l'algoritmo funziona bene nel caso di una distribuzione di probabilità geometrica dei campioni in ingresso ma raggiunge scarsi fattori di compressione in presenza di outliers. Questi sono tipicamente legati ad upsed indotti da radiazione o, più in generale, imputabili al rumore della sorgente; nell'ambito della missione Gaia è stato ad esempio stimato che fino al 5% dei campioni acquisiti medianti sensori Ccd potrebbero essere corrotti da eventi indotti da particelle ionizzanti. Una soluzione possibile al problema, come evidenziato dai ricercatori dell'Università di Barcellona, risiede nell'adozione di un encoder di tipo sub esponenziale al posto dello schema Rice-Golomb. In un tale encoder, adottato pure nell'algoritmo Felics per la compressione senza perdita di immagini in bianco e nero, la lunghezza dei codici cresce infatti soltanto logaritmicamente rispetto alla lunghezza del simbolo in ingresso quando questa sia maggiore o uguale a 2k+1, dove k è un parametro di configurazione. Risultati migliori possono ovviamente essere ottenuti mediante encoder di tipo aritmetico, a scapito tuttavia di una maggiore complessità computazionale, non sempre compatibile con le risorse disponibili nei sistemi di bordo. In alternativa alla specifica Ccsds, gli stessi ricercatori dell'Università di Barcellona hanno poi presentato un nuovo schema di compressione denominato Fapec (Fully Adaptive Prediction Error Coder) che mostra migliori risultati pur esibendo una complessità computazionale confrontabile con quella dello standard. Fapec si basa sull'encoder Pec sviluppato nell'ambito di un programma di ricerca tecnologico denominato Goca finanziato dall'Esa e introduce un layer adattativo nella selezione dei parametri di codifica.
L'algoritmo Pec utilizza, infatti, tre diversi schemi di codifica a lunghezza variabile - denominati LE (Low-Entropy), DS (Double-Smoothed) ed LC (Large Coding); in ognuno, il simbolo da codificare viene decomposto in quattro campi di lunghezza (h,i,j,k) configurabile mediante tabella. Il layer adattativo introdotto in Fapec consente di calcolare dinamicamente tale tabella sulla base dei parametri statistici della distribuzione dei simboli in ingresso. Le simulazioni effettuate, assumendo una distribuzione laplaciana dell'informazione alla sorgente, mostrano che, in presenza di livelli di rumore intorno all'1%, l'efficienza dell'algoritmo Ccsds si riduce al di sotto del 90% del limite di Shannon (in alcuni casi arrivando anche al 60%) mentre Fapec si mantiene tra l'85% ed il 95% di questo. Su dati reali, Fapec consente un incremento del fattore di compressione di circa il 5% nel caso peggiore rispetto alla specifica Ccsds; nel caso migliore, raggiunge un fattore di compressione doppio. Per dimostrare la fattibilità dell'algoritmo su piattaforme disponibili per il settore spazio, i ricercatori dell'Università di Barcellona ne hanno pure realizzato un'implementazione su Fpga ProAsic-3L (che dispone di risorse confrontabili con quelle dei dispositivi space-qualified RT-AX2000) che assicura un data rate di 32 Mbps in ingresso con una occupazione di solo il 12% delle risorse.

Compressioni dati per sensori
multi-spettrali e iper-spettrali

L'impiego di sensori multi-spettrali e iper-spettrali in missioni di osservazioni terrestre è da più di qualche anno in continuo aumento. Sensori multi-spettrali e iper-spettrali permettono di acquisire la stessa immagine a diverse frequenze nello spettro elettromagnetico, dall'infrarosso all'ultravioletto. Questo consente di rivelare segnature specifiche di elementi altrimenti non osservabili nella sola regione visibile. Le applicazioni principali vanno dall'agricoltura alla mineralogia, dalla fisica e alla sorveglianza civile e militare. Tuttavia, come è evidente, i sensori iper-spettrali generano elevata quantità di informazioni richiedendo quindi l'adozione di tecniche di compressione con perdita per la memorizzazione a bordo e la trasmissione a terra dei dati. I metodi tradizionali adottano trasformate 3D, decorrelando i campioni in ingresso dapprima lungo le bande e quindi spazialmente. Esibiscono tuttavia elevata complessità computazionale. Durante l'OBPDC 2010, i ricercatori del Politecnico di Torino e dell'Università di Siena hanno presentato un nuovo schema di compressione basato su predittori spazio-spettrali, quantizzatori Utq (Uniform‐Threshold Quantization) e ottimizzazione Rate-Distorsion. Rispetto, ad esempio, alla specifica Jpeg2000 - Part 2, l'algoritmo mostra una complessità largamente inferiore e un Psnr più elevato fino anche a rate di 0.25 bpp; a più bassi fattori di compressione (tipicamente tra 2 e 3.5 bpp) le prestazioni, in termini di rapporto segnale rumore, sono confrontabili pure con gli algoritmi near-lossless. Nello schema proposto, l'immagine è decomposta in blocchi di NxN pixel (con N tipicamente pari a 16) senza regioni di sovrapposizione al fine di consentire la parallelizzazione delle operazioni. Il predittore adottato codifica mediante predizione spaziale la prima banda di ogni blocco. Le bande successive vengono quindi predette, ognuna dalla precedente, mediante un modello lineare che utilizza un singolo parametro α stimato minimizzando la varianza dell'errore di predizione. Gli errori di predizione sono quantizzati adottando intervalli di uguale larghezza ma valori di quantizzazione dati dai centroidi di questi. L'algoritmo di ottimizzazione RD infine calcola la distorsione del segnale ricostruito sulla base del solo predittore, confrontandola rispetto ad una soglia per stabilire se codificare o meno l'errore di predizione stesso. In altro modo, se l'algoritmo rivela che l'errore di predizione è tale da non aggiungere informazione significativa al segnale ricostruito evita di codificarlo; lo schema funziona evidentemente piuttosto bene ad elevati fattori di compressione. Lo stadio di codifica dell'algoritmo proposto, infine, utilizza codici di Golomb per la prima banda dello spettro e codici esponenziale-Golomb per le successive. Altro spunto interessante emerso durante la conferenza è stato la discussione dell'applicabilità dei metodi CS (Compressive Sampling) alla compressione delle immagini iper-spettrali. La teoria del Compressive Sampling sta, in effetti, suscitando un crescente interesse in diversi ambiti di applicazione. Diversamente da quanto stabilito in generale dal teorema di Shannon sul campionamento dei segnali, essa mostra che per un segnale sparso esiste la possibilità di ricostruzione senza perdita d'informazione sulla base di un numero di campioni inferiore alla sua dimensione. Un segnale si definisce sparso di ordine S in una certa rappresentazione se il numero dei suoi coefficienti diversi da zero in essa è pari a S. Sebbene piuttosto elegante nella sua formulazione, la teoria CS cela un'elevata complessità computazionale nella ricostruzione del segnale soprattutto ad elevate dimensioni. I vantaggi della sua applicabilità sono però decisamente interessanti. Nell'ambito dei sistemi di visione, ad esempio, postula la possibilità di acquisire immagini alla stessa risoluzione di quanto fatto finora con i metodi tradizionali ma con sensori di area minore o, al contrario, immagini di risoluzione più elevata a parità di dimensioni del sensore stesso. Un lavoro presentato da ricercatori di Torino e Siena, realizzato nell'ambito del progetto Satsamp finanziato dall'Esa, ha presentato uno studio preliminare, come si diceva, sull'applicabilità dei metodi CS alle immagini iper-spettrali. In particolare, sono state evidenziate le proprietà di sparsità dei segnali iper-spettrali quando decorrelati tramite trasformata 3D sub-ottima costruita, per ridurre la complessità computazionale del problema, mediante composizione separabile di trasformata 2D Dct nella dimensione spaziale e trasformata 1D Dct nella dimensione dello spettro. Sui dati Airs, in particolare, decomponendo l'immagine in blocchi di 16 x16 x 1024 pixel, è stata mostrata la possibilità di ottenere un Mse in ricostruzione inferiore o uguale a 103 sulla base di un numero di acquisizioni pari al 20% del numero di campioni originari del segnale.

I sistemi di compressione
Oltre alla discussione delle più recenti novità in tema di algoritmi, la conferenza Obpdc ha rappresentato l'occasione per l'industria del settore di presentare le soluzioni hardware per apparati di bordo allo stato dell'arte. Per quanto concerne sistemi completi, il riferimento è certamente rappresentato dall'unità Coreci (COmpression REcording and CIphering) sviluppata da Astrium per il mercato dei satelliti per l'osservazione terrestre. L'unità, modulare ed espandibile, implementa funzioni di compressione dati, memorizzazione a bordo su memorie non volatili e cifratura delle informazioni per la ri-trasmissione a terra mediante schema Aes. Dispone di canale G-Link per la ricezione dei dati dagli strumenti ottici, interfaccia Lvds verso il trasmettitore in banda X e connessione Mil-STD-1553 verso il computer di bordo per scopi di controllo e configurazione. La scheda di compressione si basa sull'Asic Wicom sviluppato da Astrium nella tecnologia Atmel radiation-tolerant a 350 nm. Il dispositivo implementa un algoritmo di compressione dati proprietario basato su trasformata Dwt (sono adottati i filtri previsti anche dallo standard Jpeg-2000) ed encoder Mrcpb (Multi-Resolution Bit Plane Coder) di tipo frame-based. Supporta equalizzazione dell'immagine in ingresso e compressione con e senza perdita su immagini di fino a 16000 pixel per linea e 12 bit per pixel, sostenendo un data rate massimo di 25 Mpixels/s. La scheda di compressione integra fino a 5 dispositivi Wicom in grado di operare in parallelo per un data rate massimo di 125 Mpixels/s. La scheda di memoria si basa invece su dispositivi flash commerciali qualificati da Astrium per applicazioni spaziali; integra due banchi indipendenti di 256 x 2 Gbit. Supporta memorizzazione mediante file system, protezione dei dati mediante schemi Reed-Solomon ed eventuale scrambling della memoria. La configurazione attualmente realizzata per le missioni Spot6 e Spot7 dispone di 4 canali di ingresso e capacità di memoria di 1 Tbit (End-of-life); la dissipazione di potenza è compresa tra 18 W e 75W (in funzione dello stato operativo) mentre le dimensioni sono 305 x 211 x 233 mm³ (L x W x H). Intopix e l'Osservatorio Reale belga hanno invece presentato un prototipo del sistema di compressione proposto per la missione Solar Orbiter. L'unità si basa su processore Leon-2FT e coprocessore realizzato in Fpga Virtex-5, per i quali Xilinx ha recentemente annunciato la disponibilità di una versione radiation-tolerant caratterizzata da resistenza a dose totale di radiazione assorbita fino a 700 KRad(Si) ed immunità da latch-up da singolo evento per eventi con Let fino a 100 Mev-cm2/mg. L'Fpga Virtex-5 implementa attualmente compressione dati mediante algoritmo JPEG-2000 sebbene siano in fase di studio modifiche allo schema per quanto concerne, prevalentemente, le proprietà dei filtri ed i valori di inizializzazione dell'encoder aritmetico, al fine di adattarli al caso specifico. Nella versione definitiva dovranno pure essere integrate funzionalità di pre-processing (denoising, calibrazione, event detection) e post-processing (image selection e prioritization) delle immagini che consentano di discriminare le informazioni utili per ridurre il volume di dati da inviare a terra. Il data-rate atteso in ingresso è 44 Mpixels/s, la dissipazione di potenza stimata per il sistema finale di circa 4 W (± 1W). Su processore Leon-2FT è pure basato il prototipo dell'unità presentata da Eonics per applicazioni generiche di data processing. Il coprocessore adottato in questo caso è però il dispositivo PowerFft sviluppato dalla stessa azienda olandese. Si tratta di un Asic in grado di eseguire operazioni Fft-based ad una frequenza di fino a 100 milioni di campioni complessi per secondo in ingresso, correntemente impiegato in diverse missioni nel settore della difesa e della sicurezza. L'Esa ne ha recentemente acquistato la licenza per la realizzazione di una versione nella tecnologia Atmel radiation-tolerant. La versione di volo del prototipo presentato da Eonics dovrebbe essere realizzato come scheda di formato Vme 2U esteso con una dissipazione di potenza di circa 10 W.

Asic radiation-tolerant
per compressione di immagini

Oltre ai sistemi completi citati, sono pure stati presentati due dispositivi che implementano compressione di immagini con e senza perdita. Cwicom (Ccsds Wavelet Image COMpression), ad esempio, è un Asic che implementa l'algoritmo standard Ccsds 122.0-B-1; il dispositivo è sviluppato nell'ambito di un contratto di ricerca e sviluppo finanziato dall'Esa ed a cui partecipano Astrium e l'italiana TechnoSystem Developments. L'algoritmo Ccsds 122.0 prevede compressione mediante trasformata Dwt e bit-plane encoder di tipo block-based; la trasformata si basa sui filtri 9/7 bi-ortogonale (con coefficienti di tipo float per compressione con perdita) e 9/7 ad interi (per compressione senza perdita). Cwicom supporta le modalità frame-based e push-broom, su immagini con fino a 3496 pixel per linea e 16 bit per pixel. Integra una funzione di equalizzazione per la compensazione della non-uniformità di sensori Ccd, supporta fattori di compressione compresi tra 0.5 bpp e 10 bpp e compressione loss-less. Non necessita di memoria esterna. Realizzato nella tecnologia Atmel ATC18RHA radiation-tolerant a 180 nm (non soggetta a regolamentazione Itar), disponibile nelle versioni QML-Q e QML-V, ha una capacità logica equivalente di circa 1 milione di gate e dispone di circa 5 Mbit di memoria on-chip. Si caratterizza per un data rate massimo sostenuto in ingresso di 60 Mpixels/s ed una dissipazione di potenza (stimata) di 100 mW/Mpix/s. Dispone di interfaccia SPI o SpaceWire (con supporto per il protocollo Rmap) per scopi di configurazione e controllo; presenta porte parallele in ingresso ed in uscita per la ricezione dei dati relativi all'immagine e la trasmissione delle informazioni compresse. Il dispositivo è attualmente in fase di prototyping del codice Hdl su Fpga; i campioni dovrebbero essere realizzati nell'ambito del programma Multiple Project Wafer MPW_E4 previsto per il 2011 (o 2012). Ramon Chip ha invece presentato JPIC, sviluppato in collaborazione con Alma Technologies (Grecia) e MBT/IAI (Israele). Il dispositivo implementa l'algoritmo di compressione Jpeg2000. Dispone di interfacce parallele per i dati in ingresso ed uscita e porta Uart a 1 Mbaud per scopi di controllo e configurazione. Supporta immagini di fino a 2600 pixel per linea e 12 bit per pixel; necessita di memoria Sdram esterna. Progettato nella tecnologia Cmos RadSafe di Ramon Chip e realizzato da Tower Semiconductor con un processo a 180 nm, il dispositivo ha una capacità logica equivalente di circa 700 kgates e integra circa 5 Mbit di memoria embedded. La dissipazione di potenza massima è 3 W mentre la massima frequenza di ingresso è 44 MHz, corrispondente ad un data rate sostenuto di 44 Mpixels/s.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome