Le sfide della fusione di sensori in auto

Qualche anno fa, la maggior parte delle autovetture era dotata al massimo di una sola semplice telecamera posteriore o di una telecamera anteriore ad ampio raggio. Oggi, invece, i veicoli possono avere in dotazione dozzine di telecamere, inclusi i sistemi multi camera con vista a 360° e telecamere di monitoraggio del conducente. I sistemi di monitoraggio con telecamera presto andranno a sostituire lo specchietto retrovisore e gli specchietti laterali, e aumenteranno ulteriormente l’impiego della telecamera. La proliferazione delle telecamere e di altri sensori ad alta velocità come Radar (e Lidar) nei veicoli comporta delle sfide uniche di aggregazione e sincronizzazione dei dati.

Un futuro fusion

Nell’automobile del futuro verranno implementati una serie di sensori per l’assistenza alla guida e dei sistemi di guida autonoma. L’integrazione di diverse telecamere e sensori Radar vengono spesso implementati anche altri sensori non presenti in figura, come quelli Lidar e a ultrasuoni. In molti casi, l’elaborazione dati del sensore viene distribuita tra una telecamera anteriore separata, vista a 360° e unità di controllo elettronico Radar. Mentre passiamo da applicazioni di assistenza al conducente a una guida automatica più smart, però, la fusione di informazioni dei sensori e quindi l’elaborazione centralizzata diventa un’opzione sempre più vantaggiosa.

Sincronismo sensori

Una sfida notevole nella fusione dei dati è rappresentata dalla sincronizzazione e dall’aggregazione dei dati provenienti da più sensori. Per esempio, in un sistema tradizionale Svs ogni sensore ha incorporato il proprio oscillatore. Questi oscillatori indipendenti non hanno la stessa identica frequenza, causando così la deriva dei diversi flussi video, che nel tempo risultano disallineati. Per poter recuperare l’allineamento, il processore Ecu deve monitorare i tempi del video in entrata e rallentare le telecamere più veloci attraverso l’inserimento di una linea video orizzontale aggiuntiva. Questo processo consuma risorse del processore e non è altro che una maniera di aggirare il problema fondamentale di sincronizzazione. Un nuovo approccio propone un deserializzatore centrale che trasmette i dati di un clock di riferimento comune al sistema a ogni telecamera attraverso il backchannel del serializzatore, assicurando il funzionamento totalmente sincronico di tutti i sensori. Questa tecnica estremamente ricercata permette una sincronizzazione interna dei sensori senza l’utilizzo di ulteriori risorse legando i sensori a un clock comune. Successivamente il deserializzatore invia a questo clock comune i dati aggregati dei sensori, semplificando l’elaborazione video. Una volta che le immagini sono sincronizzate con il clock centrale Ecu ad alta frequenza, viene inviato un segnale di sincronizzazione frame più lento per innescare simultaneamente l’esposizione delle telecamere remote. Di solito, il segnale di sincronizzazione frame viene inviato con una porta general purpose input-output attraverso il back channel della coppia serializzatore/deserializzatore. I SerDes di Texas Instruments hanno un valore di latenza back channel molto basso, adatto a questo scopo. Nonostante il valore di latenza basso ottenuto utilizzando la tecnica Gpio, però, persiste una minima distorsione del segnale di sincronizzazione frame tra le telecamere a causa dei collegamenti indipendenti dei SerDes. Per ridurre la distorsione, un approccio innovativo combina un generatore di impulsi di sincronizzazione frame integrato con lo schema centrale di temporizzazione, per ridurre le variazioni di tempo Fsin tra i segnali di sincronizzazione frame. Usando questo schema sia il clock che gli impulsi Fsin vengono trasmessi a una singola sorgente attraverso i back channel sincronizzati SerDes, creando una distorsione del segnale di sincronizzazione frame tra i sensori estremamente bassa. Questa combinazione di temporizzazione centrale e generazione di sincronizzazione frame invia simultaneamente video campioni o altri dati di sensore all’Ecu senza derive di frame nel tempo, aumentando le prestazioni della fusione dei sensori e semplificando il design di sistema.

Identificazione dati

Con l’aumento dei sensori ad alta velocità nel veicolo, diventa più complicato per l’Ecu distinguere da quale sensore provengono determinati dati e anche quali dati grezzi devono essere elaborati e quali facciano parte dei metadati di accompagnamento, che non vengono elaborati. Per tenere questi dati separati è necessario un nuovo approccio. Per organizzare il flusso di dati, i sensori telecamera e Radar sono standardizzati sull’interfaccia dati del pacchetto Mipi Csi-2. I pacchetti Csi-2 hanno un campo di identificazione dei canali virtuali (Vc-Id) per creare diversi flussi di dati virtuali. Il pacchetto Csi-2 contiene anche un campo data content type per isolare i dati del sensore dai metadati associati. Sfortunatamente, i moduli di sensore di solito usano lo stesso Vc-Id. Per affrontare questo problema, l’hub centrale a input multipli riassocia un duplicato dei canali virtuali in entrata al Vc-Id inutilizzato per permettere all’Ecu di distinguere i pacchetti correttamente. I flussi dei sensori possono anche essere associati a una delle due porte output Mipi Csi-2, raddoppiando la larghezza di banda disponibile per il processore downstream. Questo processo può risultare utile quando si ha a che fare con più immagini ad alta risoluzione 2 megapixel o con sensori a lungo raggio Radar.

Clonazione dei sensori

In alcuni applicativi, potrebbe risultare necessaria più di una copia dei dati del sensore aggregato. Ad esempio, un processore potrebbe eseguire un algoritmo machine vision, mentre un altro gestisce i video da visualizzare. Oppure potrebbe essere necessaria un’ulteriore copia del video per la registrazione dei dati. In questi casi, i dati del sensore aggregato possono essere duplicati su entrambe le porte Mipi Csi-2. Questa “modalità di replicazione porta” crea due copie dei dati, consentendo topologie di sistema più complesse in assenza di componenti esterni quali splitter e chip ponte. È importante notare che i sensori connessi non devono essere tutti uguali. L’hub riesce ad aggregare contemporaneamente più sensori di diverso tipo, risoluzione e velocità, dando vita a un vero sistema di fusione di sensori.

Telecamere di nuova generazione 2MP

La proliferazione di telecamere sulle automobili  ha portato alla necessità di telecamere ancora più piccole ed economiche. Allo stesso tempo, la tecnologia dei sensori di immagine per il settore automobilistico sta avanzando dall’analogico a bassa risoluzione al completamente digitale 1MP e sensori immagine 2MP con migliorie specifiche per il settore auto. La richiesta di telecamere più piccole, più sofisticate e con prestazioni migliori rappresenta una nuova sfida di progettazione.

Più ampio, più veloce, più lontano

La richiesta di telecamere a risoluzione più alta è dovuta prima di tutto a due necessità: maggiore campo visivo e risoluzione angolare più alta. La prima aggiunge pixel per catturare una fetta più ampia della scena, e la seconda concentra più pixel per identificare e rilevare oggetti distanti. Per un maggiore campo visivo, una risoluzione più alta può registrare un’immagine più ampia o alta del mondo senza sacrificare la qualità dell’immagine. Un’alta risoluzione angolare è fondamentale quando le telecamere devono identificare gli oggetti che si avvicinano al veicolo. Gli oggetti distanti appaiono più piccoli degli oggetti più vicini. Se questi oggetti distanti sono composti da più pixel, gli algoritmi di machine vision possono identificarli e rilevarli da una maggiore distanza, permettendo quindi al veicolo di reagire prima. Una legislazione Ncap recente incoraggia i trend di risoluzione più alta. Le raccomandazioni della Euro Ncap, ad esempio, richiedono il rilevamento di pedoni e ciclisti. Un campo visivo più ampio favorisce il rilevamento di questi oggetti nelle zone periferiche della visione del conducente. Così come funzioni quali la frenata d’emergenza automatica necessitano il rilevamento rapido degli oggetti a lunga distanza, rendendo necessario l’aumento della risoluzione angolare. Certamente, anche l’installazione di più telecamere imager piccole in parallelo può aumentare la risoluzione. L’uso di una singola telecamera con risoluzione più alta, però, comporta un costo di modulo telecamera potenzialmente più basso. Oltre a una risoluzione più alta, le telecamere usate ad alta velocità di guida richiedono tipicamente anche un frame rate video più alto. Ad esempio, i sistemi di monitoraggio con telecamera che sostituiscono gli specchietti laterali e retrovisori, potrebbero richiedere fino a 60 fps per fornire un video senza problemi ad alte velocità di guida.

Design telecamere di nuova generazione

Oltre a una più alta risoluzione e prestazione, le telecamere del settore automotive devono restare piccole e affidabili, oltre a fornire eccellenti performance in condizioni di luce non ottimali. Gli obiettivi tipici per la telecamera includono: dimensione modulo di telecamera ridotto; alte prestazioni specialmente in condizioni di scarsa illuminazione; minor consumo energetico e meno calore per rumore termico minimo; conveniente per un’ampia distribuzione; risoluzione e frame rate aumentati; conformità ai rigidi requisiti di Ecm per il settore auto; protezione dei dati e una ricca diagnostica per la sicurezza funzionale del sistema. Di solito, le telecamere sono connesse a unità di controllo elettronico di elaborazione video attraverso un unico cavo coassiale con un dispositivo SerDes. Il cavo coassiale trasporta tutto quello che serve per supportare la telecamera: dati video grezzi non compressi, un canale di controllo bidirezionale a bassa latenza e corrente attraverso un piccolo connettore. Questo approccio viene spesso definito power-over-coax e semplifica l’interconnessione della telecamera minimizzando l’impronta della telecamera. Un nuovo tipo di dispositivi SerDes estende le prestazioni da 1MP a 2MP, riducendo inoltre le dimensioni della telecamera. Il serializzatore 2MP è temporizzato attraverso il collegamento con l’Ecu grazie alla comunicazione back channel, eliminando così la necessità di un oscillatore in loco. Due sono i benefici: la rimozione dell’oscillatore fa guadagnare spazio e migliora l’affidabilità e i video di tutte le telecamere sono sincronizzati a un clock centrale, semplificando l’elaborazione video. Inoltre, la comunicazione back channel più rapida permette l’eliminazione del filtro 100 μH PoC, risparmiando circa 50 mm2 dell’area sul Pcb. Risultato: prestazione più alta e telecamera più piccola.

Un’interfaccia migliore

I serializzatori tradizionali ricevono i dati imager da un bus Lvcmos parallelo. I bus Lvcmos paralleli, però, tendono a consumare di più e generano più Emi rispetto ai bus differenziali. Anche la separazione di diversi tipi di dati imager è problematica. Per esempio, i metadati associati a ogni frame ed esposizione devono essere compressi in stringhe o colonne video extra, costringendo l’Ecu a contare i bit per distinguere i dati video dalle informazioni non video. Inoltre, l’intero percorso di temporizzazione video è legato al pixel clock dell’imager. Dunque è più difficile raccogliere ed elaborare i video da telecamere di risoluzione e frame rate diversi.  Per risolvere queste questioni, gli applicativi automotive stanno adottando gli standard Mipi Csi-2, un’interfaccia imager diffusa nelle telecamere per smartphone. Csi-2 è un bus differenziale quasi serializzato che permette un’elevata capacità di trasmissione con bassa potenza ed Emi. Anche il Csi-2 si basa su pacchetti, e opera indipendentemente rispetto alla frequenza del pixel clock Pclk degli imager. I pacchetti vengono trasmessi a raffica al bus Csi-2 a una frequenza fissa e consumi bassi durante i periodi di inattività. Quest’architettura separa le frequenze pixel imager dal percorso di trasmissione dati, facilitando l’aggregazione video e l’elaborazione da più telecamere di diverse risoluzioni, frame rate e formati. I Csi-2 contengono intestazioni che includono contenuti dei dati e dei campi canale per facilitare ai processori la distinzione tra video, esposizioni, e metadati da più telecamere, senza dover contare i bit interfogliati. Infine, la tecnologia Csi-2 include funzionalità aggiuntive come la protezione dei dati Crc per migliorare la robustezza e la sicurezza funzionale del sistema. Csi-2 apporta un approccio più moderno all’interfaccia video e permette l’utilizzo di sensori di vario tipo e velocità negli impianti di fusione dei sensori.

Protezione dati e diagnostica

La sicurezza funzionale è un requisito di sistema; pertanto i singoli dispositivi SerDes di solito non hanno un livello Asil di sicurezza funzionale. Una nuova famiglia di dispositivi SerDes, però, integra un’innovativa funzione di protezione dati e funzionalità di diagnostica per supportare il sistema generale di sicurezza funzionale. Questi dispositivi SerDes proteggono i dati usando Crc su forward e back channel per avvisare il sistema in caso di corruzione dati e anche per controllare i dati imager in entrata per errori bit, permettendo al sistema di determinare dove hanno origine gli errori nella catena di segnale. In caso di errori, il serializzatore lo segnala all’Ecu e i comandi non vengono propagati. In questo modo si evita di configurare il modulo telecamera in maniera errata. Il serializzatore incorpora anche una ricca diagnostica per monitorare lo stato del modulo telecamera. Questa diagnostica include la verifica dello stato di collegamenti e clock, monitoraggio di temperatura e tensione di alimentazione, e un meccanismo di allarme/ interruzione programmabile. Lo stato della fotocamera è continuamente monitorato, e un allarme configurabile avvisa l’Ecu quando una variabile supera i limiti programmati. In questo modo l’Ecu non dovrà monitorare costantemente lo stato delle telecamere. Un massimo di due tensioni possono essere monitorate per condizioni di sovra e sotto tensione. Le tensioni esterne vengono divise fino a un valore nominale, quindi, anche tensioni PoC che superano la tensione di alimentazione del chip possono essere monitorate all’interno della fotocamera. Usando questa diagnostica, il modulo telecamera può essere sorvegliato costantemente per il corretto funzionamento, mentre viene generato un messaggio di avviso al sistema prima che si verifichi un guasto alla telecamera. La diagnostica aumenta la robustezza e l’affidabilità della telecamera, supportando la sicurezza funzionale del sistema in generale.

Pubblica i tuoi commenti