Verso l’interfaccia naturale

HMI –

Le interfacce uomo-macchina rappresentano una delle più importanti sfide tecnologiche del prossimo futuro nella progettazione embedded, soprattutto per gli stringenti requisiti applicativi che stanno caratterizzando i dispositivi embedded di nuova generazione.

Le applicazioni si caratterizzano sempre più per un elevato livello di embedding che porta a una riduzione delle dimensioni sempre più estrema, incompatibile con le modalità di interfaccia uomo-macchina tradizionali. Contemporaneamente, la natura delle applicazioni sta rapidamente cambiando e il modo di interagire con queste è sempre più complesso, richiamando conseguentemente le modalità di comunicazione naturale dell'uomo. Anche i contesti applicativi si stanno evolvendo in accordo con lo sviluppo delle tecnologie microelettroniche e della comunicazione. L'interfaccia uomo-macchina sta quindi evolvendo verso l'interfaccia utente naturale, integrando una serie di tecnologie ormai consolidate sia di comunicazione audio, sia di comunicazione visiva e gestuale. A queste modalità di comunicazione ormai abbastanza consolidate, si stanno aggiungendo altre modalità di comunicazione di natura sensoriale come quelle tattili, fondamentali quest'ultime per creare il feedback necessario a percepire il dispositivo meccanico virtuale come effettivamente reale. Da una parte abbiamo dunque uno sviluppo dell'interfaccia naturale che non prevede il contatto fisico con l'interfaccia, cioè l'interfaccia hand-free, che si presta in particolare a interagire con dispositivi particolarmente piccoli o collocati in contesti in cui l'interazione manuale è problematica (per esempio le applicazioni automotive o medicali). In questo caso le tecnologie audio-vocali e quelle gestuali sono quelle abilitanti. Dall'altra parte abbiamo lo sviluppo dell'interfaccia naturale relativamente alla virtualizzazione dei dispositivi di controllo manuale delle apparecchiature, la cosiddetta triade Bsw (buttons, sliders, wheels). La virtualizzazione dei controlli manuali dell'interfaccia utente è ormai una soluzione sempre più adottata nelle applicazioni embedded per avere più flessibilità applicativa e maggiore affidabilità del dispositivo. La virtualizzazione però è stata fortemente limitata dalla mancanza di un efficace feedback tra la macchina e l'utilizzatore. L'audio ha rappresentato per lungo tempo la soluzione più pratica per conferire ai dispositivi Bsw il necessario feedback per l'interazione. Questa soluzione, pur essendo efficace, non è comunque naturale e non corrisponde a quella effettiva di interazione con i dispositivi meccanici. Questi producono sensazioni funzionali di natura tattile che l'utente utilizza per rendere effettiva la sua azione di controllo.

L'interazione naturale audio-gestuale
L'interazione naturale tramite audio e gesti è alla base delle interfacce Nui (Natural User Interface) hand-free che sostituiranno le attuali interfacce Gui (Grafical User Interface). Al mouse e alla tastiera, tipicamente utilizzati nei dispositivi basati sull'interfaccia grafica, si sostituisce la voce e i gesti per conferire naturalezza e altre caratteristiche funzionali tipiche dell'interazione naturale umana. Questa sostituzione, dal punto di vista strettamente hardware e di costo del sistema è fattibile in quanto microfono e fotocamera sono ormai dispositivi di input disponibili in molti sistemi embedded e comunque integrabili a bassissimo costo nei sistema. Ciò implica che il livello di integrazione della funzionalità di interfaccia naturale basato su audio e gesti è essenzialmente software in quanto il feedback dell'interazione è a sua volta audio e grafico, basato cioè sulla risposta audio vocale e la visualizzazione grafica. Una tipica interazione audio-gestuale in cui l'utilizzatore “dice” al sistema di spostare da una posizione all'altra (per esempio da una cartella a una applicazione) può avvenire tramite una frase del tipo: “sposta questo oggetto da qui a li”. Il comando vocale serve a descrivere la natura dell'azione e viene accompagnato da una gestualità delle mani e delle dita che permette di individuare l'oggetto (puntato e non toccato) e la sua destinazione. Il feedback di questo comando audio-gestuale è di natura visiva, tramite display, ed eventualmente di natura audio tramite altoparlante. Considerando la disponibilità corrente di microfoni e fotocamere in modalità embedded nei dispositivi, la tecnologia abilitante è prevalentemente software, anche se prevede una capacità computazionale del sistema piuttosto elevata rispetto a quella che offrono i dispositivi embedded di fascia medio-bassa. L'interfaccia utente audio-gestuale, pionieristicamente introdotta da Ibm con il sistema DreamSpace, è una modalità di interfaccia naturale uomo-macchina che consente alla macchina di “udire” la voce umana che impartisce comandi e di “vedere” i gesti e i movimenti del corpo di questo, interpretandoli in maniera efficace ai fini di eseguire i comandi senza una effettiva interazione fisica. Le tecnologie necessarie per l'implementazione dell'interfaccia utente naturale audio-gestuale sono quelle del riconoscimento vocale automatico e del riconoscimento video della gestualità del corpo umano. Le interfacce naturali tattili richiedono invece un più specifico supporto hardware per essere implementate, soprattutto per la componente di feedback, dove sono necessari attuatori che normalmente non sono parte dell'architettura hardware del sistema e che, nello loro specificità, non sono nemmeno disponibili a livello industriale in modalità facilmente ed economicamente integrabili nei sistemi embedded.

Feedback tattile nei touchscreen
I touchscreen stanno progressivamente sostituendo le interfacce uomo-macchina tradizionali (basate su tastiera, pulsanti e manopole). Questa soluzione, se da una parte facilita la comunicazione tra utilizzatore e macchina in quanto più intuitiva, dall'altra introduce altre problematiche di interazione, tra cui la mancanza di feedback tattile è senza dubbio la più importante. L'esempio più banale dell'importanza del feeback tattile nell'interfaccia verso i sistemi viene proprio dai dispositivi dotati di interfaccia touchscreen. Quando questi sono in piena luce, per l'utilizzatore è difficile o addirittura impossibile interagire in quanto non si riesce a vedere nulla circa l'area di interazione (per esempio risulta difficile selezionare un nome da una lista) oppure leggere il livello di volume audio e regolarlo come necessario attraverso una manopola virtuale. In ambiti applicativi come l'automotive, non avere il feedback tattile rende problematiche le interazioni con i dispositivi tramite touchscreen. Il feedback acustico è una soluzione a questo problema, ma solo parziale, in quanto, come per il feedback visivo c'è l'effetto di mascheramento luminoso, anche con il feedback acustico c'è l'effetto di mascheramento dovuto al rumore audio. Feedback audio e visivo, se operano congiuntamente a quello tattile, rendono l'interfaccia touchscreen estremamente robusta ed efficace, con forte connotazione naturale. La tecnologia del feedback tattile si è sviluppata recentemente per consentire l'utilizzo di dispositivi di attuazione virtuali (pulsanti, joystick, cursori, tasti, ecc.) in maniera naturale e accurata tanto quanto consentono di fare gli attuatori reali. I dispositivi tattili sono in grado di misurare la forza con cui reagisce l'utilizzatore, quindi di graduarne il modo di funzionare. Il feedback, realizzato tramite meccanismi di vibrazione, consente all'utilizzatore di avere la sensazione che la sua azione è stata effettivamente eseguita. La tecnologia tattile si basa su attuatori che sviluppano forze che possono essere applicate alla pelle per produrre nell'utilizzatore la sensazione di tattile, producendo in tal modo un feedback che rende naturale l'interazione. Tali attuatori si basano su tecnologie elettromagnetiche (vibratori) simili a quelle utilizzate per realizzare i dispositivi di chiamata in vibrazione (vibra call) utilizzati nei telefoni cellulari. Data l'importanza del feedback tattile, alle limitazioni delle tecnologie elettromagnetiche stanno supplendo nuove tecnologie di attuazione come quella dei polimeri elettroattivi, quella piezoelettrica e quella elettrostatica. Particolarmente interessanti sono i polimeri elettroattivi. Questi sono materiali che manifestano una variazione di dimensione o anche di forma quando sono stimolati da un campo elettrico. Nella realizzazione di attuatori, i polimeri elettroattivi sono enormemente più efficienti rispetto ad altri materiali relativamente all'effetto deformazione.

I controller tattili
Maxim ha realizzato una soluzione single-chip, MAX11836  che consente di implementare il feedback tattile in sistemi che utilizzano i pulsanti virtuali basati su touchscreen come i telefoni cellulari, i player portatili, i dispositivi di navigazione, ecc. La peculiarità di questo dispositivo sta nella capacità di memorizzare pattern tattili definiti dall'utilizzatore. L'elevato grado di integrazione di questo dispositivo consente di pilotare, senza componenti aggiuntivi, varie tipologie di attuatori tattili, come ad esempio quelli piezo. I pattern di attuazione dell'effetto tattile sono memorizzati nella memoria interna. In questa i dati arrivano da una porta seriale I2C tramite cui si effettua il download al power-up. I MAX11810 e MAX11811  sono interfacce touch con 4-wire touchscreen controller integrato, driver per il controllo tattile e il sensing di prossimità di natura infrarosso. Questi controller consentono di pilotare un motore Dc direttamente oppure dispositivi piezo utilizzando i driver piezo. La programmazione avviene tramite semplici registri che consentono di generare oltre 50000 pattern tattili differenti applicabili a un generatore di forme d'onda interno. L'uso di registri programmabili consente di eliminare le interfacce dedicate sul processore applicativo.

Integrazione della funzionalità tattile su mobile
La Motiv Development Platform di Immersion è un esempio emblematico dell'importanza della funzionalità tattile nelle interfacce uomo-macchina. Grazie a questa piattaforma è possibile integrare il feedback tattile nelle applicazioni, conferendo in tal modo alle interfacce una sensibilità tattile realistica. Fine modulo
Motiv è una piattaforma di sviluppo che permette di integrare nel sistema operativo Android le funzionalità tattili e il relativo meccanismo di feedback. La piattaforma di sviluppo Motiv consiste di due elementi, Motiv Integrator destinato agli Oem e Motiv SDK per gli application developers: Motiv Integrator. Motiv Integrator offre una serie di moduli che consentono agli Oem di aggiungere la funzionalità tattile all'interfaccia utente di Android in modo da personalizzare completamente l'intefaccia con il feedback tattile. Viene utilizzata a tale scopo la tecnologia TouchSense di Immersion che consente di creare effetti fisici e realistici nell'interfaccia utente dei telefono mobili. I moduli principali sono: UI Modue, per inserire la funzionalità tattile nell'interfaccia utente di Android attraverso il suo framework di view e notification (l'utente può anche personalizzare gli effetti tattili); Theme Manager Module, per selezionare una serie di temi tattili che possono essere applicati ad Android e alle applicazioni (intensità e personalità) che l'utente può usare per personalizzare il suo dispositivo mobile; Reverb Module, per aggiungere l'effetto tattile alla riproduzione audio e video dell'applicazione, per offrire all'utilizzatore l'effetto tipico vibratorio degli altoparlanti, in particolare la componente subwoofer, oppure, nei videogiochi l'effetto vibratorio che produce un'esplosione o gli eventi tipici collegati all'audio di un videogioco. Motiv SDK è una collezione di risorse tattili, incluso Api, codice applicativo, librerie di effetti con oltre 100 effetti predefiniti e un conversion layer che consente agli sviluppatori di incorporare rapidamente effetti tattili nelle applicazioni Android.

Microcontrollori application-specific per effetti tattili
Atmel ha recentemente introdotto una serie di microcontrollori application-specific per l'implementazione di funzionalità tattili relative al controllo di bottoni, slider, manopole, ecc. per conferire alle applicazioni che utilizzano le interfacce touch un livello di naturalezza superiore a quello delle tradizionali interfacce grafiche touch che non hanno feedback o al più utilizzano i suoni. Atmel ha integrato nei suoi microcontrollori la tecnologia tattile TouchSense di Immersion sotto forma di IP. In tal modo il microcontrollore dispone di numerose tecnologie software, hardware, meccaniche ed elettriche per controllare in maniera naturale l'interfaccia utente. Il dispositivo AT42QT1085 (8-touch button) di Atmel è un capacitive touch controller che rende disponibile 14 effetti tattili che il progettista può utilizzare per realizzare il feedback tattile nell'interfaccia utente in applicazioni come la telefonia mobile, i videogiochi, i sistemi di navigazione, ecc. QTouch di Atmel basa la rilevazione tattile su una tecnologia Charge Transfer proprietaria che rende semplice ed effettiva la sostituzione dei dispositivi meccanici di interfaccia con quelli virtuali. Il feedbach tattile rende questi dispositivi naturali all'utente tanto quelli reali, con il vantaggio che la virtualizzazione consente possibilità applicative praticamente illimitate sia in termini quantitativi che in termini qualitativi.

Pubblica i tuoi commenti