Sistemi di visione per assistenza ai guidatori

CAR INFOTAINMENT –

Processori ad alte prestazioni e costo contenuto sono essenziali per le applicazioni di “embedded vision” in ambito automotive.

Arriveremo mai alle vetture con pilota automatico? Ciò che fino a qualche anno fa poteva essere considerato uno scenario da romanzo di fantascienza, oggi si avvicina sempre più alla realtà. Esistono già prototipi di autovetture in grado di viaggiare autonomamente, e, benché ad oggi non ci siano ancora i presupposti per la sicurezza, molte vetture sono già fornite di funzionalità avanzate che assistono il guidatore durante il tragitto. Ad esempio l'Aac (Adaptive cruise control) è un sistema che consente di impostare e mantenere una certa velocità di crociera, senza che il guidatore debba intervenire sull'acceleratore. Il sistema si avvale di sensori frontali che in caso di ostacolo, generalmente un altro autoveicolo, adegua automaticamente la velocità di crociera mantenendo una distanza di sicurezza dalla vettura che precede. In caso di flusso regolare, il guidatore potrebbe non dover intervenire per lunghi tratti del tragitto. Non è ancora il pilota automatico, ma gli somiglia molto.

Sistemi avanzati di assistenza al guidatore
Perché una vettura possa muoversi autonomamente in mezzo al traffico è necessario che sia equipaggiata con tutta una serie di sensori che le consentano una valutazione precisa di quanto sta avvenendo nell'ambiente circostante. I sensori devono in qualche modo riprodurre i sensi del guidatore, e tra questi il preminente è la vista. La vista ci consente di seguire il percorso verso la nostra meta, mantenere la nostra carreggiata, tenere sotto controllo il flusso del traffico in tutte le direzioni, guardare la segnaletica stradale, e soprattutto osservare e valutare le mille situazioni che vengono a crearsi durante la guida. Il sensore che meglio riproduce la vista è la telecamera. Una vettura dotata di un numero opportuno di telecamere (per la visione frontale, posteriore e laterale) e di un'intelligenza adeguata è in grado di assistere il guidatore in una moltitudine di situazioni. Esiste già un gran numero di sistemi basati sulla visione; alcuni di questi sistemi semplicemente assistono il guidatore nell'esecuzione di alcune funzioni, senza intervenire attivamente nella guida, altri invece possono prendere in una certa misura il controllo della vettura. Sono sistemi passivi la visione notturna e il sistema di rilevamento degli oggetti nascosti, che aiutano nella percezione complessiva della scena, mentre possono essere attivi i sistemi di assistenza al parcheggio, al cambio di carreggiata, o di avviso di collisione frontale e mitigazione. 

Dsp Blackfin dual core
per applicazioni vision embedded

Per venire incontro alle necessità dell'industria automobilistica per le applicazioni Adas basate su visione, Analog Devices ha recentemente introdotto due nuovi elementi della famiglia di Dsp Blackfin, l'ADsp-BF608 e l'ADsp-BF609. Come si può notare si tratta di un'architettura dual core, con ciascun core in grado di lavorare a una frequenza massima di 500MHz. Ad ogni core è associata una memoria di primo livello (L1) pari a 148kB in grado di lavorare alla stessa frequenza del core e utilizzabile come Sram o cache. Una parte di questa memoria (4 kB) può essere impiegata come scratchpad per memorizzare variabili locali e lo stack software. La memoria L1 è protetta con un concetto multi-parity bit. La memoria di secondo livello (L2), condivisa dai due core e accessibile tramite un'interfaccia dedicata a 64 bit, è organizzata in 8 banchi da 32kB, per un totale di 256kB. Questa memoria, accessibile a metà della velocità di core e protetta Ecc, è altamente flessibile e può essere configurata come memoria dati e programma a seconda delle necessità del sistema. Sempre in L2 sono disponibili 32kB di Rom per il codice di boot e funzioni di sicurezza del sistema. Considerando la memoria esterna, o di terzo livello (L3), il sistema può indirizzare fino a 4GB complessivi, avvalendosi di un controllore di memoria dinamica che fornisce un'interfaccia a 16 bit a dispositivi single bank Ddr2 e Lpddr Dram, e di un controllore di memoria statica con un'interfaccia asincrona che supporta memorie a 8 e 16 bit. Queste caratteristiche, unite a un ricco set di periferiche ed al sottosistema video, fanno di questi dispositivi i Dsp a più elevate prestazioni della famiglia Blackfin. Il sottosistema video rende questi Dsp adatti per le applicazioni Vision Embedded, essendo in grado di gestire fino a un massimo di 5 algoritmi per le analisi delle immagni, senza consumare un solo Mips dai due core. È evidente che questa funzionalità semplifica notevolmente il ruolo del progettista di sistemi Adas basati su visione, in quanto più funzioni contemporaneamente possono essere implementate su uno stesso Dsp.
Il sottosistema video
Il sottosistema video è composto principalmente da quattro elementi hardware:
1 - il blocco di interconnessione video (Vid);
2 - tre periferiche di interfacciamento Parallelo (ePpi);
3 - il pixel compositor(Pixc);
4 - il pipelined vision processor (Pvp).

Il Vid fornisce una matrice di connessione per il sottosistema video che, mediante l'uso di un protocollo, gestisce al meglio il flusso dei dati tra le tre ePpi, il Pixc e il Pvp. Le ePpi supportano fino a 24 bit di dati (la lunghezza delle parole è programmabile) e possono interfacciarsi direttamente a moderni sensori Cmos ad alta definizione (1280x960), videocamere e fornire uscite Lcd compatibili. Il Pvp è stato progettato come acceleratore nell'analisi delle immagini per rilevare, riconoscere e tracciare oggetti, funzioni queste ampiamente utilizzate nelle applicazioni Adas. Per queste operazioni utilizza un totale di 12 blocchi di signal processing, che comprendono convoluzione, scaler, unità aritmetiche, cambiamento di coordinate, integratori e altro, che combinati in modo opportuno consentono di implementare filtraggi e algoritmi, in maniera totalmente autonoma dai core Dsp. Infine il Pixc consente la sovrapposizione di due immagini o flussi video. Esso è dotato di tutti i controlli che consentono di combinare due flussi di dati provenienti da buffer separati, e convertirli in una forma appropriata, adatti sia per pannelli Lcd che per uscite video digitali. In questo modo è possibile sovrapporre all'immagine principale testi, grafica o altri oggetti video.

L'Embedded Vision Alliance
Il BF608 e BF609 hanno raccolto pareri favorevoli da parte di Jeff Bier, fondatore della Embedded Vision Alliance, che ha dichiarato: “La tecnologia Embedded Vision consente la realizzazione di prodotti elettronici molto più intelligenti e reattivi. Gli algoritmi della visione sono molto esigenti dal punto di vista computazionale e molto diversi. Per questo processori ad alte prestazioni e costo contenuto sono essenziali per queste applicazioni. Il mio applauso va alla leadership di Analog Devices rafforzata da questa nuova potente architettura indirizzata alle applicazioni “embedded vision”. L'Embedded Vision Alliance si pone l'obiettivo di diffondere la tecnologia che va sotto il nome di “computer vision” fondendola con l'altra tecnologia nota come “embedded systems”. La computer vision è l'uso dell'elaborazione digitale e di algoritmi intelligenti per l'interpretazione del significato delle immagini e dei video. Nei decenni scorsi è stato principalmente un campo di ricerca accademico. L'evoluzione dei processori moderni, sempre più potenti e a costi più abbordabili ha fatto sì che questa tecnologia potesse diventare disponibile anche per applicazioni di largo consumo, come dimostrato dalla Kinetc XBOX 360, la consolle per videogiochi della Microsoft che utilizza l'embedded vision per seguire i movimenti del giocatore. Ovviamente le applicazioni sono le più svariate e vanno dall'automotive all'Industriale, dal medicale alla sicurezza e al consumer.

Pubblica i tuoi commenti