L’automobile diventa ambiente di trasporto

L’automotive rappresenta oggi una delle principali attività di ricerca e sviluppo industriali grazie all’importante innovazione tecnologica dei sensori e dei processori di ultima generazione e all’attività di ricerca in ambito accademico. L’elettronica nell’automotive ha costituito fino a qualche anno fa una componente di miglioramento delle prestazioni meccaniche dell’automobile, con limitatissimo impatto sull’interazione diretta tra conducente e mezzo meccanico e soprattutto senza alcuna possibilità del mezzo meccanico di prendere autonomamente il controllo indipendentemente dal guidatore. Anche se la capacità di guida autonoma dell’autoveicolo è l’obiettivo finale verso cui si sta mirando, di fatto l’innovazione microelettronica che sta investendo in maniera massiccia il settore dell’automotive va oltre la capacità di guida automatica, in quanto considera l’autoveicolo come un ambiente in cui vivono l’automobilista e i passeggeri. Ciò significa che l’automobile sta evolvendo da semplice mezzo di trasporto personale ad ambiente mobile. Non si tratta solo di rendere disponibile al guidatore un mezzo sicuro e autonomo di guida, ma un mezzo che gli offra anche tutte quelle possibilità degli ambienti fissi, per esempio casa e ufficio. A questo nuovo paradigma della mobilità autoveicolare contribuiscono varie innovazioni tecnologiche, in cui la microelettronica di ultima generazione (Mems, SoC, ecc.) svolge l’importantissimo ruolo di driver, rendendo effettivi e applicabili i numerosi risultati della ricerca che da anni sono ormai pronte nei laboratori di ricerca (pubblici e privati). Oltre ai sistemi di automazione del processo di guida, nel nuovo paradigma di ambiente mobile convergono la tecnologia della comunicazione, quella dell’intrattenimento e non ultima, quella del monitoraggio dello stato fisiologico e di salute del guidatore. Mentre Internet of Things sta entrando nella sua prima fase di maturità, contemporaneamente si stanno creando i presupposti per la successive onda tecnologia di Internet of Everythings. Questa concomitante evoluzione della tecnologia della comunicazione definisce uno scenario di connettività particolarmente favorevole allo sviluppo del paradigma dell’ambiente mobile basato sull’automobile. IoT consentirà all’autoveicolo di essere connesso alla rete in maniera efficace per fruire delle potenzialità computazionali della rete, come per esempio il cloud computing. IoE consentirà di fare di più nella direzione dell’autoveicolo, consentendo a questo di essere una rete mobile connessa a sua volta in una rete geografica di reti. In questa prospettiva di sviluppo dell’automobile cominciano a rendersi disponibili sistemi avanzati di controllo della guida che fanno riferimento alla più recenti tecnologie del computing embedded come quella del computing multicore a bassissimo consumo, quella della memoria non volatile ad altissima densità, quella della sensoristica intelligente e quella della comunicazione wireless a bassissimo consumo.

Sistemi di guida assistita
L’automobile per la maggior parte della popolazione dei paesi industrializzati rappresenta il terzo ambiente di vita ed anche una delle principali cause di morte o di gravi infortuni. Per tale motivo negli ultimi anni c’è stato un grande impegno di sviluppo di sistemi capaci di garantire sicurezza nella guida. La tecnologia microelettronica di ultima generazione ha permesso di rendere effettivi e applicabili i risultati della ricerca relativa ai sistemi cosiddetti di assistenza al guidatore, gli Adas (Advanced Driver Assistance System). Si tratta di sistemi per assistere in modalità complementare o eventualmente sostitutiva dell’attività di guida del conduttore di un autoveicolo. Considerando che l’attività di guida di un autoveicolo è un processo molto complesso, i sistemi Adas implementano varie metodologie di controllo automatico come il controllo adattivo della navigazione, il blind-spot monitoring, il sistema di avviso dell’abbandono della corsia di marcia, la visione notturna, il controllo di mantenimento della corsia di marcia, il controllo della collisione sia a livello di volante sia a livello di frenata. I sistemi Adas si dividono in due categorie, quelli comfort e quelli attivi. Gli Adas comfort si limitano a fornire al guidatore avvisi e varie informazioni relative al processo di guida, e quindi non hanno specifici requisiti di sicurezza come definiti nello standard Iso 26262. Integrati con il cruscotto, eseguono operazioni di visualizzazione di punti ciechi tramite radar a breve raggio, di visione notturna, di lettura della segnaletica, di rilevazione di oggetto e ostacoli, di assistenza al parcheggio utilizzando sistemi multicamera e sistemi di misura della distanza a ultrasuoni. Gli Adas attivi sono invece sistemi completamente autonomi in grado di influenzare direttamente il controllo della guida: hanno requisiti molto elevati a livello di sistema piuttosto che a livello di sensori e consentono per esempio applicazioni di controllo adattivo della guida basato su radar a lungo raggio, di tenuta della corsia tramite videocamera anteriore e controllo attivo dello sterzo e l’anticollisione che agisce sul freno di emergenza usando un algoritmo di fusione di dati provenienti dal radar di lunga distanza e una mono/stero fotocamera frontale. I sistemi Adas, tra tutti i sistemi di sicurezza sono i più complessi e con requisiti implementativi stringenti, soprattutto quelli di natura attivi in quanto, potendo agire in maniera indipendente sul controllo dell’autoveicolo, devono essere altamente affidabili. I sistemi Adas richiedono piattaforme computazionali particolarmente efficienti e allo stesso tempo dotati di requisiti adatti al livello di embedding dei sistemi automotive. La famiglia di processori S32V di Freescale è stata sviluppata appositamente per supportare applicazioni di image processing intensivo per applicazioni automotive basate sulla visione e il sensor fusion, come i sistemi Adas. Si tratta di un system-on-chip dotato dei requisiti di affidabilità, sicurezza e affidabilità richiesti in ambito automotive. Questa famiglia di processori ad altissime prestazioni è compatibile con lo standard Iso 26262. Il processore S32V230, primo membro della famiglia di processori S32V per il supporto delle applicazioni Adas, integra su singolo chip quattro core Arm Cortex A53 operanti a 1 GHz, due motori Apex-2 di computazione per le immagini, un sistema hardware di criptografia per la sicurezza, una Gpu 3D (Vivante GC3000), una Mipi CSI2 e una interfaccia parallela per sensori di immagini, quattro MByte di Ram di sistema e una capacità di image signal processing embedded per Hdr, per la conversione del colore, per la mappatura del tono, ecc. Il processore S32V230 è un mix eterogeneo di processori (Cpu, Gpu, Icp) che ottimizza e rende effettivo il processing tipico dei sistemi Adas. Il processore, malgrado l’enorme potenza computazionale, è a basso consumo, come richiesto nelle applicazioni automotive dove è possibile solo il raffreddamento passivo. Il processing più intensivo che questo processore soddisfa è quello relativo alle videocamere che circondano l’autoveicolo. A questo scopo l’integrazione del doppio processore CogniVue Apex2 consente di gestire in tempo reale il flusso video delle quattro videocamere che circondano l’autoveicolo per le operazioni di estrazione delle caratteristiche degli oggetti e la loro relativa classificazione. La Gpu invece viene utilizzata per la ricostruzione 3D real-time grafica dell’ambiente circostante l’autoveicolo, collocando gli oggetti riconosciuti dal Apex2.

Sensori per automotive altamente integrati
La maggior parte delle informazioni che i sistemi di sicurezza della guida devono processare sia per il controllo passivo che per quello attivo dell’autoveicolo viene catturata e resa disponibile da una serie di sensori collocati nell’autoveicolo e intorno ad esso. L’elevata integrazione di tali sensori è tale da farli considerare come sistemi sensore, in quanto dorati di quanto necessario per eseguire un intera applicazione. I più importanti sono quelli di visione, le videocamere smart o semplicemente interconnesse tramite Ethernet. La Ethernet Rear-View Camera è per esempio un sistema che aiuta il guidatore a identificare un oggetto o una persona presente nella parte posteriore, e quindi di permettergli di manovrare con sicurezza il veicolo nelle operazioni di parcheggio. Questo tipo di camera viene utilizzata la comunicazione Ethernet e la compressione per ottenere a costi limitati la trasmissione su cavo non schermato verso l’application processor. La Smart Rear-View camera esegue le operazioni di analisi localmente relativamente alla identificazione degli oggetti e delle persone, quindi sono dotati oltre del sensore fisico, anche delle risorse computazionali per l’image e il graphic processing. Sulla base delle misure effettuate da tale sistema sensore, il sistema di controllo può prendere le decisioni relative all’azione di frenata.
La realizzazione di tali sistemi sensoriali, in particolare quelli intelligenti, si basa essenzialmente su microcontrollori che integrano on-chip tutte le necessarie risorse per gestire uno o più sensori di immagine, consentendo in tal modo di implementare un sistema ad elevata integrazione che minimizza il carico computazionale a livello del processore principale che gestisce l’intero processo di controllo veicolare.
Oltre ai sistemi di visione posteriori ci sono anche quelli anteriori e quelli che circondano completamente l’autoveicolo. Questi sensori sono impegnati in attività di video e image processing particolarmente impegnative. I sistemi di visione di natura surround sono un insieme di telecamere gestite da una Mcu particolarmente avanzata che sulla base delle immagini catturate rappresenta graficamente l’ambiente che circonda l’autoveicolo per consentire al guidatore di riconoscere tutti i possibili rischi che possono manifestarsi nelle vicinanze dell’autoveicolo. Ancora più complesso è il processo di elaborazione necessario alla visione frontale, ove l’elaborazione riguarda video ad alta risoluzione, quindi che necessitano oltre di una Mcu anche di un Dsp come estensione delle capacità computazionali della Mcu. Il caso più complesso è il sistema di visione radar (77 MHz Radar System) che serve per il controllo della navigazione di natura adattiva, ovvero dell’adeguamento della velocità in funzione degli oggetti rilevati e riconosciuti come potenziali ostacoli.

Ambiente operativo per infotainment e sicurezza
Gli utilizzatori di automobili considerano l’automobile come un ambiente piuttosto che un semplice mezzo di trasporto, e l’intrattenimento è una importante componente di offerta composta di funzionalità come la gestione multimediale dell’informazione, i giochi, la consapevolezza dell’ambiente in cui avviene la mobilità, la comunicazione, i servizi personalizzati, ecc. Il supporto di questo nuovo paradigma di fruizione dell’automobile implica da una parte la disponibilità di processori multicore eterogenei, dall’altra quella di ambienti operativi particolarmente orientati e strutturati per gestire in un contesto di sistema embedded una serie di processi di natura eterogenea, multistandard e a diversi livelli di priorità. Un esempio di ambiente operativo capace di gestire in maniera efficace sia la componente applicativa confort (per esempio l’intrattenimento e la comunicazione), sia la componente applicativa attiva (per esempio l’Adas e la strumentazione) è l’Integrity Multivisor di Green Hills, che crea uno strato intermedio tra la Cpu dotata sia di supporto computazionale, sia di periferiche adatte alle varie problematiche applicative sia di natura infotainement, sia di natura sicurezza. Si tratta di una combinazione tra microkernel e tecnologia di virtualizzazione che consente di offrire una piattaforma di natura In-Vehicle Infotainment. Il software è partizionabile, la grafica è condivisa e la gestione dei processi è real-time e sicura.

 

Tecnologia automotive alla portata degli studenti

La Frescale Cup è un’iniziativa di Freescale intesa a promuovere al livello degli studenti universitari lo studio e l’applicazione delle tecnologia dell’automazione veicolare in un contesto di competizione internazionale tra università di tutto il mondo. La competizione è attiva già da qualche anno e la finale dell’edizione di quest’anno è stata ospitata dal Politecnico di Torino, di cui hanno partecipato due gruppi di studenti, uno dei quali classificatosi al secondo posto e l’altro al quarto posto. La competizione consiste nell’ottenere il minor tempo di percorrenza di un circuito predefinito attraverso la messa a punto dell’hardware e del firmware di controllo di un modello in scala 1:8 di autoveicolo da corsa tipo F1. La meccanica dell’autoveicolo è predefinita mentre l’elettronica di controllo modificabile attraverso il firmware eseguito da una Mcu integrata nell’auto da corsa. Malgrado l’obiettivo finale sia solo quello di eseguire un giro di circuito nel minor tempo possibile, di fatto l’impegno richiesto agli studenti per vincere la gara in un contesto agguerrito di “cervelli” di tutto il mondo universitario, è notevole: sviluppo di software per sistemi embedded e messa a punto di circuiti elettronici di base messi a disposizione nello starter kit; messa a punto dell’hardware di controllo del motore per la guida intelligente e autonoma del veicolo sulla esclusiva informazione fornita dal sensori ottici; interfacciamento di sensori ottici alla Mcu attraverso lo sviluppo di firmware appropriato. La competizione, dalla sua fase iniziale di attivazione a quella di finale, si articola in un arco temporale che copre un semestre accademico (quindi assimilabile a un progetto di un corso di studi) e che richiede allo studente (o al gruppo di studenti) un impegno tipico di un corso di progettazione di sistemi di controllo automatico e di sistemi embedded. Ove assistiti da un docente tutor, il gruppo di studenti che si impegna in questa competizione sviluppa competenze di progettazione basate su tecnologie hardware e software allo stato dell’arte. Le competenze acquisite sono direttamente spendibili sul mercato del lavoro professionale a elevato valore aggiunto. Ecco alcuni dati che danno ragione della portata educativa e selettiva di questa iniziativa (dati edizione 2014) che considera lo studente il potenziale protagonista dell’innovazione tecnologica:

  • Prima della qualificazione: 484 studenti (143 squadre di 50 università di 16 paesi)
  • Dopo la qualificazione: 75 studenti (24 squadre di 20 università di 11 paesi)

Interessanti anche altri due programmi pilota di natura educational estensivi del modello di competition consolidato con la Freescale Cup, la Innovation Cup e la High School Challange. L’Innovation Cup, attivata a ottobre 2014, è un’iniziativa di Freescale aperta a tutti gli studenti, per misurarsi su un circuito come quello della Freescale Cup in termini di capacità di ottimizzazione della velocità con il consumo di potenza elettrica. Non si tratta della semplice sfida su un solo giro, ma di una sfida più impegnativa su più giri e soprattutto con segnalazioni colorate. La High School Challenge coinvolge gli studenti delle scuole superiori con il supporto delle università locali. Basato sul concetto di programmazione ad alto livello (mbed e Matlab), questa iniziativa pilota è intesa a indurre negli studenti l’interesse verso la tecnologia microelettronica e i suoi modelli di sviluppo in fase pre-universitaria. Matworks supporta l’iniziativa della Freescale Cup con un Hardware Support Package creato appositamente per l’hardware utilizzato nella Freescale Cup, la scheda di sviluppo Freedom Frdm-KL25Z e il Tfc-Shield. È disponibile anche una nuova Freescale Cup Companion App per Matlab che è in grado di snellire il processo di sviluppo del software per mettere a punto l’auto da corsa per la gara. È disponibile un esempio di come vedere la scena catturata dalla videocamera istallata sulla l’auto da corsa e come trasformare questi dati in azione di controllo.

 

Pubblica i tuoi commenti