Suoni e silicio

La riproduzione del suono è probabilmente l’applicazione elettronica più longeva in assoluto: esisteva già ai tempi della valvola termoionica, esiste ancora oggi e certamente continuerà ad accompagnarci in futuro. In questi ultimi decenni è enormemente aumentata la varietà dei sistemi dotati di altoparlanti, cuffie o auricolari, grazie all’avvento della “multimedialità” nel mondo dei personal computer e alla nascita di nuove tipologie di prodotti come i player Mp3. Anche l’attuale boom del video – elemento chiave per la diffusione delle connessioni Internet a larga banda e della telefonia cellulare di quarta generazione - porta con sé inevitabilmente una crescita delle applicazioni audio: il binomio immagine-suono, infatti, è indissolubile. Le applicazioni audio, insomma, sono decisamente importanti per l’industria elettronica ed è quindi interessante passare brevemente in rassegna alcune delle tendenze in atto.

Elaborazione digitale
Sebbene esistano ancora sorgenti di segnale audio analogico (ad esempio le tradizionali stazioni radio Am ed Fm), si può affermare che oggi l’informazione sonora vive quasi esclusivamente in forma digitale. L’intera catena di produzione, memorizzazione e trasmissione del segnale è ormai digitalizzata, e sarebbe superfluo stilare qui un elenco di supporti di memoria o modalità di comunicazione. L’aspetto da evidenziare è che, grazie alla digitalizzazione, il trattamento del suono è divenuto a tutti gli effetti un’attività di elaborazione dell’informazione digitale, il regno dei Dsp e dei relativi algoritmi. Il Digital Signal Processor (o un processore che svolge funzioni equivalenti) è il cuore di ogni sistema di riproduzione sonora; buona parte delle qualità che l’audiofilo può attribuire a un brano musicale dipende da qualche algoritmo matematico applicato al flusso dei bit. La digitalizzazione ha inoltre aperto la strada a infinite possibilità di codifica, sfruttate generalmente per comprimere il bit rate salvaguardando – per quanto possibile - la qualità sonora. A questo scopo l’industria ha sviluppato decine e decine di formati audio diversi.

Aumento della qualità sonora
Tra le tendenze in atto nel campo dell’audio si può citare innanzitutto la crescente qualità della riproduzione sonora, favorita dai progressi dell’elettronica: l’allargamento delle bande utilizzabili per il trasferimento dei dati e la maggiore disponibilità di memoria a buon mercato consentono di trattare maggiori quantità di informazione e quindi di migliorare la fedeltà. Alla tradizionale stereofonia si sono affiancati sistemi che impiegano sei o otto canali, come ad esempio il Dolby Digital e il sistema HD Audio di Intel. La qualità sonora del Compact Disc – frequenza di campionamento di 44,1 kilohertz, risoluzione di 16 bit, gamma dinamica di 96 dB - è oggi considerata come il livello minimo accettabile per i sistemi di riproduzione musicale; i sistemi di qualità superiore raggiungono infatti frequenze di campionamento e risoluzioni di conversione molto più alte (ad esempio 200 kilohertz e 24 bit) e, conseguentemente, offrono una migliore risposta in frequenza e gamme dinamiche molto più ampie. La maggiore disponibilità di memoria a buon mercato potrà anche ridurre il ricorso alla compressione, poiché lo stoccaggio di audio non compresso diventerà economicamente accettabile. Va sottolineato, inoltre, che il miglioramento della qualità della riproduzione sonora si deve anche alle “magie” dei Dsp, che grazie a speciali algoritmi consentono – ad esempio – di gestire in modo ottimale anche altoparlanti di piccole dimensioni come quelli presenti nei sistemi portatili.

Le funzioni di un sistema audio
Un generico “sistema audio” (con riferimento alla riproduzione sonora) può essere descritto sostanzialmente come un processore specializzato nell’elaborazione dell’audio digitale, circondato da una serie di periferiche che nell’insieme svolgono quattro funzioni principali:
1) gestione delle diverse sorgenti sonore, con la conversione in digitale delle sorgenti analogiche e con le elaborazioni necessarie per tenere conto delle differenze tra le frequenze di campionamento delle varie sorgenti digitali;
2) esecuzione degli algoritmi di elaborazione necessari per decodificare l’informazione e per agire sui diversi parametri del suono;
3) interfacciamento con i comandi a disposizione dell’utilizzatore;
4) gestione delle uscite, con la conversione digitale-analogico, il pilotaggio degli amplificatori e l’amplificazione di potenza vera e propria.
In concreto lo svolgimento di queste funzioni richiede numerosi elementi: un Dsp, convertitori A/D, convertitori D/A, interfacce conformi agli standard del settore audio (in particolare S/PDIF, Sony/Philips Digital Interconnect Format, e I2S, Inter-IC Sound), interfacce conformi a standard di uso più generale come Usb, “sample rate converter” per gestire sorgenti sonore caratterizzate da frequenze di campionamento diverse, compressori della gamma dinamica, amplificatori a guadagno variabile, amplificatori di potenza (oggi spesso in classe D, cioè basati su commutazione come gli alimentatori switching), ecc.

Diversi livelli di integrazione
Il mercato offre una enorme varietà di componenti utilizzabili per realizzare sistemi audio rivolti alle più svariate applicazioni, dal telefono cellulare all’home theater, dal lettore Mp3 al televisore ecc. Un aspetto che appare evidente esaminando i cataloghi dei produttori di circuiti integrati è l’offerta di diversi livelli di integrazione. Al livello più basso troviamo chip che implementano un singolo blocco funzionale, ad esempio un Dsp, un convertitore A/D, un convertitore D/A, un amplificatore in classe D ecc. A un livello di integrazione intermedio si collocano circuiti integrati comprendenti più funzioni, ad esempio gli “audio codec”, che integrano in un unico chip i convertitori A/D e i convertitori D/A. Al livello di integrazione più alto, infine, troviamo “system on chip” comprendenti tutto quanto necessario per realizzare uno specifico sistema audio, compresi gli amplificatori in classe D. Come sempre, la scelta del giusto livello di integrazione si basa sul miglior compromesso tra costi e prestazioni. Nei system-on-chip, ad esempio, un unico processo di fabbricazione viene utilizzato per realizzare sia la parte logica sia i convertitori A/D e D/A, il che non sempre consente di ottimizzare la gamma dinamica disponibile. Un convertitore A/D implementato in un chip a sé stante può offrire una gamma dinamica più ampia. Applicazioni audio diverse, quindi, ricorreranno a livelli diversi di integrazione.

Innovazioni nel wireless
Va infine rilevato che il mondo dell’audio è oggi molto più vasto di un tempo; alle tradizionali applicazioni di riproduzione sonora si sono infatti affiancate varie soluzioni innovative nelle quali le tecnologie elettroniche vengono utilizzate per ampliare o migliorare le possibilità di fruizione del suono. È il caso, ad esempio, dei sistemi per la trasmissione wireless del segnale sonoro su brevi distanze e dei sistemi di cancellazione attiva del rumore. Nel primo caso le soluzioni consentono di fare a meno dei cavi che collegano – ad esempio - la cuffia al sistema di riproduzione; si tratta evidentemente di applicazioni wireless, che però mantengono una loro “specificità audio” poiché devono tenere conto delle particolari esigenze poste da questo tipo di segnali. I sistemi di cancellazione attiva del rumore, invece, sono utilizzati per eliminare i suoni esterni che disturbano l’ascolto della musica. Le novità nel campo dell’audio, insomma, non mancano e tutto lascia pensare che – grazie ai continui progressi dei semiconduttori e a un’insaziabile domanda di contenuti sonori – questo settore applicativo dell’elettronica continuerà ad essere attivo e vitale anche in futuro.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome