I circuiti integrati audio stanno assumendo un ruolo importante nella progettazione di sistemi audio, sia in campo professionale, sia in campo consumer. La loro evoluzione in termini di system-on-chip, in particolare nell’integrazione on-chip di tutta la necessaria circuiteria digitale front-end analogica, ha permesso di semplificare enormemente la complessità dei sistemi e allo stesso tempo di esaltarne le prestazioni. Due sono le tecnologie che stanno caratterizzando gli IC audio di nuova generazione, l’elevata integrazione su chip e la completa digitalizzazione a livello di front-end verso gli altri chip sia audio, sia di controllo ed elaborazione, come i Dsp e i microcontrollori.
Integrazione audio su chip
Sanyo ha recentemente introdotto una soluzione di audio processing ad altissima integrazione che consente di eseguire la codifica e decodifica MP3 con consumi di potenza bassissimi (5 mW). La codifica/decodifica MP3 è hardwired, quindi velocissima e allo stesso tempo ottimale. Nella realizzazione di questo chip, denominato LC823425, è stata utilizzata la tecnologia a basso consumo a 90 nanometri per integrare l’intera funzionalità del chip, incluso un Class D headphone amplifier per ridurre ulteriormente il consumo di potenza in fase di playback. Grazie al Dsp embedded il chip, oltra alla funzionalità hardwired per la codifica decodifica MP3, è in grado di eseguire una serie di algoritmi software di elaborazione dell’audio in modo da adattare il chip stesso alle varie soluzioni applicative senza dovergli affiancare un Dsp esterno. Le funzioni accessorie di audio processing sono quelle tipiche degli audio recorder, come la cancellazione del rumore, oppure più avanzate, come la cancellazione del rumore ambientale (per esempio quello prodotto dai motori delle apparecchiature per l’aria condizionata) e di controllo della riproduzione vocale (regolazione della velocità di riproduzione della voce, da 0.5x a 4x). Il chip implementa anche la tecnologia “music extractor” che consente l’estrazione della musica dai dati audio. Grazie a questa funzione è possibile estrarre la musica da una trasmissione radio FM e registrarla separatamente. Un altro esempio di audio system on-chip vene da STMicroelectronics con il suo Sound Terminal Ffx. Si tratta di un dispositivo integrato basato su un sistema di conversione Pcm-Pwm a bassissima distorsione e basso rumore che utilizza un sistema di ricostruzione innovativo che converte il segnale di ingresso in un segnale modulato ad ampiezza di impulso differenziale a 384 kHz e una risoluzione temporale di 100 MHz. Per evitare la distorsione e la generazione di armoniche spurie, il segnale audio viene sovracampionato e linearizzato, quindi interpolato in relazione alla portante. La tecnologia Ffx (Fully flexible amplification) dispone anche di un sistema brevettato di rimozione del rumore. Per esempio l’STA350BW è un digital audio processing system su singolo chip basato sulla tecnologia Ffx, un processore che può essere configurato per operare in ternario, binario, binario differenziale e modulazione phase-shift Pwm. Oltre a controllare tutte le funzioni audio, il chip include anche un’ampia quantità di funzioni di elaborazione del segnale audio digitale, come gli equalizzatori e varie tipologie di filtri idonei a gestire la qualità del segnale audio nelle svariate condizioni esecutive. L’interfaccia audio seriale è molto flessibile e accetta tutti i possibili formati, incluso il diffusissimo formato I2S.
I microfoni Mems
I microfoni Mems sono a tutti gli effetti audio IC, in quanto realizzano tutta la funzionalità microfonica fino a rendere disponibile il segnale audio captato in forma di stream digitale binario su una porta seriale compatibile con gli standard delle porte seriali disponibili su processori Dsp e microcontrollori. Il microfono Mems ADMP441 di Analog Devices è un esempio di microfono omnidirezionale completamente digitale che integra completamente on-chip il sensore microfonico, tutta la catena audio di condizionamento del segnale e un convertitore analogico-digitale con il necessario filtro anti-aliasing e la circuiteria di gestione dell’alimentazione. Dall’esterno il microfono Mems appare come un sottosistema digitale che fornisce i dati audio in modalità di streaming seriale tramite interfaccia seriale I2S. Grazie a questa interfaccia il microfono Mems si connette direttamente al Dsp senza necessitare di un audio codec e soprattutto senza implicare la collocazione su circuito stampato di connessioni analogiche verso dispositivi digitali.
L’audio beamforming
I microfoni Mems sono genericamente omnidirezionali , ovvero sono sensibili a suoni provenienti da qualsiasi direzione. In molte applicazioni non si deve semplicemente registrare il suono, ma si deve anche elaborarlo per ottenere informazioni specifiche di una tra le varie sorgenti audio presenti nell’ambiente. È necessario utilizzare più di un microfono in configurazione di array e applicare opportuni schemi che portano a ottenere una risposta globale con caratteristiche direzionali. La configurazione a beamformer dei microfoni consente di ottenere un microfono equivalente che risulta più sensibile a suoni provenienti da una certa direzione e meno da altre direzioni. Due sono gli schemi fondamentali di configurazione dei microfoni in array per ottenere un effetto direzionale utilizzando microfoni omnidirezionali: broadside array ed endfire array. Il primo schema pone tutti i microfoni su una linea perpendicolare a quella della direzione del suono che si intende privilegiare. Il secondo schema dispone invece i microfoni lungo la stessa linea preferenziale di arrivo del suono. Il broadside array microfonico è uno schema molto semplice di interconnessione ed elaborazione tra i microfoni dell’array che implica solo una combinazione in termini di mixaggio del segnale captato da ognuno dei microfoni. Questa combinazione consente di massimizzare l’attenuazione agli estremi dell’array microfonico e minimizzarla al centro. L’endfire array microfonico richiede uno schema di più complesso di interconnessione ed elaborazione in quanto utilizza un elemento di ritardo prima della ricombinazione dei segnali dei due microfoni anteriore e posteriore. Questa configurazione porta a una risposta a cardioide dell’array microfonico, quindi massimizza nella direzione del suono e minimizza nella direzione opposta. Opportune combinazioni dello schema broadside e dello schema endfire consentono di ottenere comportamenti beamforming dell’array microfonico adatti alle esigenze applicative. Il tool di simulazione che Analog Devices mette a disposizione consente di provare e parametrizzare le configurazioni array microfoniche endfire e broadside a due microfoni per ottenere i dati di direzionalità e risposta in frequenza. I dati ottenibili con queste simulazioni sono utili per dimensionare l’hardware e gli algoritmi di elaborazione audio.
La spazializzazione dell’audio
La parte estrema della catena audio, oltre quella microfonica, è quella di riproduzione, al cui capo ci sono o cuffie o altoparlanti. Il sottosistema di riproduzione audio, che parte dal Dsp o microcontrollore, richiede sia la conversione digitale analogico, sia l’amplificazione e la spazializzazione. Anche in questo caso la catena tende all’elevata integrazione e alla completa digitalizzazione. Texas Instruments ha realizzato su singolo IC la componente di spazializzazione che per molti aspetti consiste di problematiche simili a quelle della cattura spaziale del suono con i microfoni, come il beamforming e la cancellazione delle interferenze (crosstalk). Il beamforming nella riproduzione audio serve a creare aree di ascolto in cui il suono viene esaltato tramite l’aggiunta di onde sonore che interferiscono in maniera additiva con quelle della riproduzione primaria, ottenendo in tal modo un effetto di maggiore presenza e colore timbrico del suono. L’effetto contrario del beamforming è il crosstalk cancelation, il quale utilizza onde sonore che interferiscono con il suono primario in maniera sottrattiva. Si tratta di una tecnica di cancellazione del rumore applicata allo scopo di cancellare il suono del canale sinistro in arrivo all’orecchio destro (in combinazione con quello destro) e viceversa per l’orecchio sinistro relativamente al canale destro. In aggiunta a queste due tecniche di elaborazione del segnale audio per ottenere effetti percettivi spaziali, l’audio IC Spatial Array LM48903 di Texas Instruments implementa anche la tecnica Hrtf (Head Related Transfer Function) che consente di conferire al suono riprodotto caratteristiche spaziali che inducono nell’ascoltatore la percezione che il suono arriva da varie direzioni. Questo è un effetto psicoacustico che in termini di ritardo di arrivo del suono alle due orecchie e di diversa intensità induce nell’ascoltatore la sensazione realistica di una dimensione spaziale tridimensionale del campo sonoro che lo circonda. Questo audio IC Spatial Array dispone di interfaccia audio I2S tramite cui riceve in ingresso due canali audio e li processa internamente per pilotare due altoparlanti con varie tecniche di spazializzazione. L’interfaccia I2S serve anche a programmare la funzionalità del dispositivo oltre che a interconnetterlo al resto della catena audio. Il dispositivo è configurabile anche in schema daisy-chain per implementare schemi di array multipli di altoparlanti di varia natura o per soddisfare standard di riproduzione audio multicanale. Texas Instruments rende disponibile anche un tool per la progettazione del sottosistema di spazializzazione audio basato sui suoi componenti Spatial Array. Si tratta di un tool basato su web che include un generatore di coefficienti per l’array di altoparlanti tramite una interfaccia grafica che consente di configurare il dispositivo (disponibile anche su evaluation board). L’ambiente di progettazione assistita dispone di un editor grafico di geometria dell’array di altoparlanti che consente di definire il numero e la disposizione degli altoparlanti e di ottenere conseguentemente i coefficienti di controllo da applicare al chip.
Circuiti integrati audio/vocali
L’audio vocale è una componente molto importante delle applicazioni audio in generale che, per la natura della voce stessa, ha connotati funzionali tanto specifici da necessitare di funzionalità specializzate e allo stesso tempo altamente integrate. Un esempio di IC audio/Vocale è Smart Voice di STMicroelectronics, un digital audio processor per applicazioni multimicrofoniche scalabile e programmabile per ottenere elevatissima qualità audio in applicazioni di telefonia e di computing ove la voce è un fattore chiave di comunicazione e di interazione. Smart Voice è un audio processor capace di gestire più microfoni Mems in configurazioni ad array per implementare funzioni di processing come la cancellazione d’eco, la soppressione del rumore, il beamforming vocale, tutte funzioni queste particolarmente importanti dato il sempre maggiore utilizzo della voce come mezzo di interazione in contesti rumorosi. Questo IC audio ad altissima integrazione anticipa esigenze applicative emergenti come l’elaborazione 3D del suono, la localizzazione delle sorgenti sonore, la microfonia virtuale e lo zooming audio. Il chip è in grado di controllare sei microfoni digitali, di riconfigurarli dinamicamente, di equalizzare l’audio con un equalizzatore a 10 bande programmabile, di eseguire il peak limiting e il controllo del volume.
La comunicazione tra gli IC audio
La comunicazione tra i vari dispositivi audio è uno dei principali problemi che lo sviluppatore deve affrontare sia relativamente alla qualità del segnale, sia relativamente alla complessità del sistema. Queste problematiche di interconnessione, quando non sono risolte on-chip, riguardano soprattutto l’interconnessione tra i chip e l’interconnessione tra le schede. Le connessioni possono essere sia di natura analogica che digitale, comportando differenti problematiche di sviluppo, soprattutto in termini di integrazione dei circuiti analogici con i circuiti digitali. La tipica catena audio è costituita alla periferia da dispositivi analogici come i microfoni e gli amplificatori, al centro c’è la circuiteria digitale e tra queste due sezioni c’è la componentistica mixed-signal, principalmente i sottosistemi analogico-digitale e digitale-analogico. Questa tipica catena audio implica notevoli problemi di interconnessione, soprattutto relativi alle problematiche di rumore e di interferenza. Allo scopo di minimizzare queste problematiche di progettazione dei sistemi audio, i produttori di chip stanno cercando di mantenere all’interno dei circuiti integrati audio la componente di circuiteria analogica e cercando di rendere in tal modo, dal punto di vista esterno, i componenti audio completamente digitali (microfoni, amplificatori, altoparlanti, equalizzatori, ecc.). Nessun segnale audio analogico viene cablato al di fuori della scheda, riducendo le problematiche di rumore e semplificando enormemente la realizzazione del Pcb. L’interconnessione tra i vari componenti della catena audio è solo di natura digital-to-digital. Con questo approccio la problematica si sposta dal livello di segnale al livello di sistema, in particolare, sulle problematiche degli standard di comunicazione. Gli standard di comunicazione dei dati audio sono molteplici e diversi tra loro, alcuni che ottimizzano il trasferimento dei dati audio tra i chip sulla stessa scheda (I2S, Tdm, Pdm), altri che ottimizzano il trasferimento dei dati audio tra le schede (S/Pdif, Ethernet Avb). Tra gli standard di interconnessione dei chip sulla stessa scheda, l’I2C introdotto da Philips (oggi NXP) è il più utilizzato nello sviluppo di apparecchiature digital audio, quindi è quasi sempre disponibile come periferica di comunicazione, oltre che nei Dsp, anche nei codec audio, e persino nei microcontrollori caratterizzati per le applicazioni audio digitali di fascia bassa. L’interfaccia I2S si presta anche a supportare architetture di sistema con dispositivi audio multipli, come per esempio gli array microfonici. Ciò implica l’aumento delle linee dati che porta a perdere il vantaggio del basso numero di pin. In questo caso possono essere vantaggiose altre tecniche di interconnessione come la Tdm e la Pdm. La Tdm (Time Division Multiplex) può portare fino a 16 canali dati, mentre la Pdm (Pulse Density Modulation) ha il vantaggio di essere immune al rumore della circuiteria digitale e quindi, in dispositivi molto piccoli, è particolarmente efficace come sistema di interconnessione. I2S è comunque un’interfaccia molto compatta ed efficiente. Si tratta di una interfaccia seriale a tre fili, cioè tre linee di comunicazione, due di temporizzazione (bit clock e frame clock) e una di trasferimento seriale dei dati audio. La linea dati è monodirezionale, tanto che la I2C si categorizza come trasmettitore o ricevitore (per esempio il microfono digitale trasmettitore mentre il Dsp è ricevitore). Dispositivi audio analogici come i microfoni integrano questa interfaccia a livello di circuito integrato, per esempio il microfono Mems ADMP441 di Analog Devices, rendendo questo dispositivo equivalente a un digital microphone. In tale prospettiva gli IC audio saranno tutti digitali, a partire dai più estremi della catena audio, i microfoni.