Interfacce in evoluzione: tecnologie e paradigmi

I sistemi embedded e in particolare quelli di natura wearable rappresentano la punta dell’iceberg del processo di evoluzione del computing che da interattivo si sta trasformando in proattivo. Questa trasformazione del computing non riguarda solo il computing personale, ma il computing in generale, che in varia forma e modalità è a contatto con le persone e con queste deve interagire con modalità di interfaccia sempre più vicine alle modalità di comunicazione umana piuttosto che a quelle delle macchine. Il perceptual computing è l’esempio più emblematico di questa evoluzione, teorizzato e formalizzato da Lofti Zadeh, il padre della Fuzzy Logic, nel suo articolo “Fuzzy logic = computing with words” pubblicato nel 1996 sulle Ieee Transaction on Fuzzy Systems. Il perceptual computing è l’applicazione del computing basato sulle parole e sulla percezione per assistere le persone nel prendere decisioni di natura soggettiva. Questo paradigma di computing si applica soprattutto quando le informazioni da elaborare sono di natura incerta, sfumata e multimodale (per esempio la voce combinata con i gesti, le informazioni emotive combinate con quelle imperative, le informazioni fisiologiche combinate con quelle comportamentali, ecc.). Questo scenario di evoluzione del computing è alla base di nuovi paradigmi di interfaccia uomo-macchina che stanno emergendo, anche grazie alla disponibilità di nuove tecnologie micro e nanoelettroniche, alcune già mature, altre di prossima disponibilità. Un esempio del nuovo paradigma di interfaccia uomo-macchina che utilizza informazioni di natura fisica per interagire con le applicazioni controllate da un computer è il Thermal Touch, una tecnologia di realtà aumentata che ha sviluppato Metaio (spinoff tedesco) attraverso il sensing dell’impronta termica lasciata sulla superficie degli oggetti dalle dita delle persone. Grazie a questa tecnologia qualsiasi superfice può trasformarsi in un’interfaccia touch tra il computer e l’utilizzatore. Basata sull’utilizzo combinato di un sensore infrarosso e una telecamera standard, l’interfaccia gestuale diventa virtuale in quanto non è realizzata fisicamente ma attraverso il mapping software di una superficie in un’applicazione (per esempio una scacchiera può essere virtualizzata su un tavolo e il giocatore muove i pezzi virtuali toccando con il dito il pezzo e la sua mossa). Questo è un esempio di interfaccia uomo-macchina che estende l’attuale interfaccia touchscreen, che di fatto è un’astrazione artificiosa del modo di comunicare a gesti delle persone, rendendo tale interfaccia naturale. Questo è un esempio di evoluzione di un modello di interfaccia, quella touchscreen, attraverso l’utilizzo di tecnologie allo stato dell’arte, sensori di infrarosso e telecamere. La maggior parte delle nuove interfacce uomo-macchina fanno utilizzo di tecnologie nuove, frutto della ricerca e sviluppo degli ultimi dieci anni.

L’interfaccia naturale utente

L’interfaccia naturale utente o Nui (Natural user interface) è un’evoluzione dell’attuale interfaccia grafica utente o Gui (Graphical user interface) che a sua volta è l’evoluzione dell’interfaccia di linea o Lui (Linear user interface). Questa evoluzione dell’interfaccia uomo-macchina si è attuata nel tempo in sintonia con l’evoluzione del computer. Dalla semplice e poco naturale tastiera e display (alfanumerico), con l’introduzione del mouse, si è passati dall’interfaccia di linea all’interfaccia grafica. Due tecnologie hanno concorso allo sviluppo dell’interfaccia grafica, i monitor grafici e i dispositivi di puntamento (mouse, joystick, pad, ecc.). Il passaggio dall’interfaccia grafica a quella naturale è anch’esso basato sull’introduzione di nuove tecnologie, principalmente di natura sensoriale, come per esempio quella dei sensori inerziali, dei sensori capacitivi, dei sensori di luminosità, ecc. Per l’interfaccia naturale, le tecnologie di sensing sono tecnologie abilitanti che consentono di adattare il computer alla natura dell’applicazione.

Tecnologie visuali per l’interfaccia uomo-macchina

La visualizzazione è un aspetto chiave dell’interfaccia uomo-macchina in quanto deve adattarsi da una parte alla natura embedded del sistema, per esempio la natura indossabile, e dall’altra al modo di interagire dell’utilizzatore, aumentando la realtà visuale. Un esempio è il cosiddetto display intelligente, un display interattivo che è in grado di riconoscere chi è di fronte ad esso e di riconoscere il contesto in cui si trova. La tecnologia di visualizzazione sta dunque evolvendo in modo da consentire all’utilizzatore di interagire con in contenuti digitali in maniera naturale. Microsoft Research e Microsoft Applied Sciences Group stanno sviluppando una tecnologia di visualizzazione intelligente che utilizza ottiche speciali denominate Wedge montate su un monitor Lcd per direzionare un raggio di luce direttamente negli occhi di ognuno degli utilizzatori. Questa è una soluzione basata sulla tecnologia delle guide di luce che consente alle videocamere e alle sorgenti di luce indirizzabile di essere multiplexate con il display. Microsoft Applied Sciences Group ha sviluppato un display Lcd di grandi dimensioni e sottile (meno di 2 pollici di spessore e 20 di diagonale) capace di visualizzare e catturare il tocco e il gesto contemporaneamente, sia nell’area del display sia al di sopra. Una simile funzionalità è stata ottenuta anche con sistemi di display trasparenti, come ad esempio quelli basati sulla tecnologia Oled. Una delle applicazioni è la visione separata di immagini per ognuno degli utilizzatori sullo stesso display. In pratica, due persone possono guardare sullo stesso display due immagini completamente separate, anche quando cambiano di posizione. L’ottica Wedge può essere utilizzata anche in modalità videocamera, quindi il display oltre a tracciare la presenza e la posizione dell’utilizzatore, è in grado anche di interagire con il tocco e con i gesti. Se la tecnologia Wedge permette di implementare interfacce naturali visuali a livello di sistema, a livello indossabile la problematica delle dimensioni diventa un fattore fondamentale per abilitare le applicazioni. Una soluzione a questo aspetto dell’embedding viene dalla tecnologia dei Mems (Micro-Electro Mechanical Systems). Questa tecnologia mette insieme i principi della meccanica con quelli dell’elettronica in scala micro e nanometrica. Grazie a questa tecnologia è possibile realizzare dispositivi sensoriali di piccolissime dimensioni per misurare il moto, le condizioni ambientali, ma anche per realizzare dispositivi attuatori come motori o pompe, sempre in scala micro-nanometrica. Un caso particolare di attuatore Mems sono i microspecchi che STMicroelectronics ha realizzato per l’iniziativa Perceptual Computing di Intel. I microspecchi Mems sono specchi in dimensione micrometrica che si muovono migliaia di volte al secondo per riflettere un raggio di luce infrarosso proiettandolo in maniera invisibile su un oggetto posto di fronte per eseguire l’imaging 3D e il riconoscimento dei gesti. Questo tipo di tecnologia può essere utilizzata anche per la visualizzazione in dispositivi indossabili e quindi per realizzare interfacce utente naturali. Come dunque la tecnologia della visualizzazione stia evolvendo in varie direzioni per soddisfare i nuovi paradigmi di computing e di interazione con l’utilizzatore è dimostrato dall’Embedded Video Engine FT8xx che ha introdotto Ftdi già da qualche anno e che sta evolvendo nella direzione del sistema intelligente di visualizzazione capace di interpretare i gesti e di gestire la dimensione audio dell’interazione.

Interazione gestuale e aptica

La natural user interface implica che l’interazione con il sistema sia basata su modalità di comunicazione native della persona. La gestualità è uno dei modi di comunicazione e di interazione delle persone con altre persone. Soprattutto nell’interazione con i sistemi (mondo fisico circostante) l’interazione avviene anche tramite la sensorialità fisiologica (udito, tatto, vista, gusto e olfatto). La componente gestuale della comunicazione e della interazione uomo-macchina si è sviluppata rapidamente negli ultimi anni soprattutto nella direzione della multidimensionalità e della semplificazione tecnologica (minimizzazione della componente invasiva e di massimizzazione della potenzialità di embedding). Un caso emblematico è la tecnologia GestIC sviluppata da Microchip per la gestione tridimensionale dell’interazione gestuale senza contatto fisico con il sistema. Questa è una soluzione single chip basata sulla generazione di un campo elettrico tridimensionale in cui la mano dell’utilizzatore è immersa nello spazio di interazione e il suo movimento misurato tramite cinque elettrodi (semplici piste tracciate su un circuito stampato). L’interpretazione e la codifica dei gesti avviene completamente all’interno del chip e quindi la Mcu è non onerata dal complesso processo di signal processing e gestrure recognition richiesto dall’interfaccia gestuale. L’interazione tattile, nota come interazione aptica, è stata la prima ad essere sviluppata in quanto tecnologicamente più semplice da implementare, soprattutto nella sua forma base, la vibrazione (una delle prime applicazioni sui sistemi embedded di natura consumer fu il VibraCall implementato sul cellulare MicroTAC 9800X, rilasciato da Motorola nel 1989). I sistemi embedded di ultima generazione richiedono l’interazione aptica nell’interfaccia Hmi soprattutto nella componente touuch. Un esempio di questa tecnologia aptica integrabile nell’interfaccia Hmi dei sistemi embedded sono i chip controller aptici MTCH810 di Mircochip. Questi dispositivi sono dei veri e propri controller che consentono di pilotare gli attuatori a movimento eccentrico della massa. Tale controller permette di far eseguire all’attuatore fino a 14 effetti aptici, rendendo in tal modo particolarmente versatile l’interfaccia Hmi anche in termini di retroazione.

Interfacce industriali

L’evoluzione della Hmi in ambito industriale è finalizzata a soddisfare l’interazione tra l’utilizzatore e la macchina in contesti operativi in cui il sistema oggetto di interazione fa parte o implementa processi di elaborazione applicati ad ambienti fisici (per esempio la casa oppure gli uffici) oppure processi fisici (per esempio la produzione industriale). In questo contesto l’Hmi si sta sviluppando in modo da soddisfare tutta una serie di requisiti applicativi che favoriscono una modalità efficace di interazione tra macchina e utilizzatore. In questo senso significativo è lo sviluppo di tecnologie microelettroniche orientate a rendere l’interfaccia grafica particolarmente efficace. Parte di questo sforzo innovativo riguarda la componentistica orientata alla visualizzazione e segnalazione visiva (Led e Lcd), sistemi di controllo touchscreen, video scalar control, audio input/output e soprattutto sensori. In ambito embedded industriale, l’evoluzione dell’Hmi richiede la disponibilità di un’apia gamma di soluzioni microelettroniche e di reference design che consentono allo sviluppatore di configurare in maniera adeguata la Hmi. Per esempio il reference design di Freescale relativo alla Hmi industriale evidenzia la molteplicità dei dispositivi necessari a configurate intorno ad una Mcu l’infrastruttura hardware di supporto alla interfaccia. A tale infrastruttura hardware si affianca anche un framework software operativo adeguato a gestire la componente di interazione Hmi dei processi industriali.

Pubblica i tuoi commenti