Suoni, immagini e silicio

Con l'imminente cessazione delle trasmissioni televisive analogiche terrestri, la transizione da analogico a digitale delle applicazioni audio e video potrà dirsi sostanzialmente completata (sebbene la tradizionale radio AM-FM sembri godere tuttora buona salute). Il 2009 può quindi essere considerato come l'anno conclusivo di una trasformazione che ha avuto inizio nel 1982 con l'avvento del Compact Disc musicale, il primo supporto digitale di largo consumo. Certo, ventisette anni in elettronica equivalgono a un'era geologica, ma sono stati anni densi di eventi epocali per il mondo audio-video: basti pensare alla diffusione di Internet e al boom della telefonia cellulare. Oggi il quadro appare completo: quella che un tempo si chiamava “convergenza” (tra Pc e Tv, in particolare) è ormai un fatto ovvio e scontato, nei negozi si trovano montagne di hard disk multimediali da collegare al televisore, il video è una delle applicazioni principali di Internet (come dimostra il fenomeno YouTube). Le tecnologie digitali hanno preso il sopravvento perché offrono prestazioni superiori alle analogiche sul piano della qualità ma soprattutto su quello della flessibilità: una volta convertiti in bit, suoni e immagini possono essere gestiti in una miriade di modi diversi, il che consente all'industria di aggiungere valore ai prodotti tramite differenziazioni e funzioni aggiuntive. Tra le possibili manipolazioni dei segnali digitali un ruolo di particolare rilievo è occupato dalla compressione, che consente di sfruttare meglio la banda di trasmissione disponibile e i supporti di memoria. Limitata dalle norme di regolano l'uso dello spettro radio e dai vincoli economici che ritardano la diffusione capillare delle fibre ottiche, la banda di trasmissione continua a essere una risorsa scarsa e preziosa. La possibilità di stipare cinque canali televisivi digitali nella stessa banda occupata da un singolo canale analogico, ad esempio, è certamente il principale vantaggio offerto dal digitale terrestre. Va rilevato, comunque, che la transizione delle applicazioni audio-video dall'analogico al digitale non avrebbe avuto luogo se la potenza di elaborazione non fosse divenuta una risorsa abbondante e a buon mercato. Anche in questo caso, quindi, la cosiddetta “legge di Moore” ha giocato un ruolo fondamentale.

La compressione
La compressione può essere considerata come una tecnologia “abilitante” per le applicazioni audio e video digitali; senza di essa sarebbe necessario trattare quantità di dati enormi, tali da rendere impossibile o almeno non conveniente l'uso delle tecnologie digitali. Esistono categorie di prodotti che devono la loro stessa esistenza alle tecniche di compressione: è il caso dei lettori MP3, che sfruttano la possibilità di immagazzinare un gran numero di canzoni in una piccola quantità di memoria flash. Com'è noto, un ruolo di particolare rilievo nel campo delle tecniche di compressione è svolto dal Motion Picture Experts Group, incaricato della creazione di standard riconosciuti da Iso. A questo gruppo - fondato dal torinese Leonardo Chiariglione - si deve la messa a punto di vari importanti standard tra cui Mpeg-2 (utilizzato nella Tv digitale a definizione standard) e il più recente Mpeg-4 Avc (Advanced Video Coding), noto anche con la designazione H.264 assegnata da Itu. Quest'ultimo è utilizzato dai sistemi televisivi ad alta definizione e dai Dvd Blu-ray.
In questo articolo non ci addentreremo nella descrizione degli algoritmi di compressione, numerosissimi e complicatissimi; ci limiteremo pertanto a ricordare alcuni concetti generali. Obiettivo della compressone è ridurre drasticamente il numero di bit utilizzati per rappresentare il suono o l'immagine, mantenendo un livello qualitativo accettabile per l'ascoltatore o lo spettatore. In generale, ciò è ottenuto eliminando l'informazione non percepibile e l'informazione ridondante. La presenza di informazione non percepibile nel segnale audio o video originale si deve al fatto che i “trasduttori” umani (l'orecchio, l'occhio e il cervello) hanno capacità inferiori rispetto ai sistemi di trasduzione elettronica. Ad esempio, alle alte frequenze la capacità dell'orecchio di distinguere toni diversi o livelli sonori diversi diminuisce notevolmente, pertanto queste parti del segnale possono essere codificate con un numero inferiore di bit. Analogamente, la capacità di risoluzione dell'occhio è massima per le differenze di luminosità, ma molto più bassa per le differenze di tinta; l'informazione di crominanza del segnale video, pertanto, può essere rappresentata tramite un numero di pixel molto inferiore rispetto alla luminanza. La presenza di informazione ridondante (cioè ripetitiva) riguarda principalmente il segnale video e non ha cause “naturali” bensì tecnologiche. Le immagini digitali fisse nascono affette da una “ridondanza spaziale”, cioè dalla ripetizione di elementi uguali nello spazio, poiché - a causa del meccanismo della scansione - un'area di colore uniforme corrisponde a una sequenza di pixel identici. Le immagini in movimento nascono affette da “ridondanza temporale”, cioè dalla ripetizione di elementi uguali nel tempo, poiché l'illusione del movimento è ottenuta acquisendo una serie di immagini fisse (generalmente venticinque o trenta al secondo) che sono ovviamente molto simili tra loro. Nel caso di un telegiornale, ad esempio, le differenze tra due quadri consecutivi riguardano perlopiù il viso del giornalista, mentre lo sfondo rimane del tutto identico e quindi la relativa informazione è ripetuta sempre uguale, quadro dopo quadro. L'eliminazione di tutta questa informazione ridondante è ottenuta tramite tecniche di elaborazione sofisticate che richiedono l'uso di potenti Dsp.

Catene completamente digitali
Un altro aspetto che induce a considerare ormai completata la transizione dall'analogico al digitale è il fatto che la digitalizzazione tende a coprire per intero le catene di acquisizione-distribuzione-riproduzione dei contenuti audio e video. Due esempi significativi da questo punto di vista sono la diffusione degli amplificatori audio in classe D e dei display a cristalli liquidi. Gli amplificatori audio in classe D funzionano in un modo paragonabile agli alimentatori switching: in altri termini, le forme d'onda che pilotano l'altoparlante sono ricreate tramite la tecnica Pwm, cioè modulando la larghezza degli impulsi. È interessante osservare che con gli amplificatori in classe D la riproduzione del segnale audio digitale non richiede alcuna riconversione in forma analogica, poiché dal codice binario si passa direttamente alla modulazione Pwm. Per quanto riguarda i display a cristalli liquidi, l'aspetto interessante consiste nel fatto che questi dispositivi sono per loro natura digitali, cioè sono composti di pixel; il tradizionale tubo catodico, invece, è un dispositivo intrinsecamente analogico.

Nuovi prodotti audio-video
Negli ultimi anni le tecnologie digitali hanno consentito la nascita di numerosi prodotti audio-video innovativi, creando nuove opportunità per l'industria elettronica. Ricordiamo, in ordine sparso, i già citati lettori Mp3, abbinabili alle relative “docking station”; i registratori digitali portatili per la registrazione della voce, molto più piccoli dei loro antenati a microcassette e tuttavia capaci di immagazzinare decine di ore di registrazione; i set-top box per la ricezione dei canali digitali satellitari o terrestri; i sistemi home theater, regno di società come Dolby che hanno sviluppato numerose tecnologie di codifica audio digitale multicanale; gli hard disk multimediali, da collegare al televisore; i videoregistratori digitali, per registrare i programmi su disco rigido; i nuovi lettori Dvd, che ora sono in grado di riprodurre anche una varietà di formati audio-video provenienti dal mondo dei Pc; i lettori per i DVD ad alta definizione nel formato BlueRay. Vale la pena ricordare, inoltre, che negli ultimi anni le applicazioni audio-video digitali si sono diffuse notevolmente anche in settori diversi dall'elettronica di consumo: basti citare ad esempio i sistemi di videoconferenza e di videosorveglianza. In materia di nuove applicazioni, un ruolo di particolare rilievo spetta alla televisione ad alta definizione, che offre immagini composte da un numero di pixel (1080 x 1920) nettamente superiore rispetto alla Tv tradizionale. La maggiore finezza dei dettagli consente di guardare lo schermo da una distanza più ravvicinata, cambiando sensibilmente l'esperienza dello spettatore e il suo rapporto con il mezzo televisivo. Il formato 16:9, inoltre, apre la strada a un uso ibrido dell'area dello schermo, che spesso nei canali di informazione comprende una parte di testo leggibile in modo analogo al monitor di un computer. La proliferazione e l'evoluzione di questa grande varietà di sistemi audio-video presuppongono un'adeguata offerta di circuiti integrati capaci di soddisfarne i requisiti in termini di potenza di elaborazione, costo, consumo, livello di integrazione. I produttori di semiconduttori rispondono alle esigenze dell'industria elettronica offrendo una grande varietà di dispositivi per applicazioni audio e video: processori in primo luogo, ma anche chip rivolti a tutte le altre funzioni necessarie per realizzare sistemi completi.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome