Cognitive computing: “More than Moore”

La storia dell’elettronica e di conseguenza dell’informatica è costellata di predizioni con implicazioni rivoluzionarie. La più nota è quella che Gordon Moore cofondatore di Intel fece nel 1965 con la pubblicazione di un articolo in cui osservava che ogni 24 mesi il numero dei circuiti integrati raddoppiava e che tale tendenza era persistente e costante nel tempo. Questa fu una predizione che fece immaginare allo stesso Moore che in un numero limitato di anni questa tendenza avrebbe portato il computer ad essere un componente nascosto (embedded) nelle case, nelle automobili e nei sistemi di comunicazione e nello stesso essere umano. Gli effetti di questa predizione, nota ormai a tutti come Legge di Moore, sono sotto gli occhi di tutti e cominciano ad emergere i limiti che gli esperti avevano cominciato ad evidenziare dopo pochi anni dalla formulazione della Legge. Bernie Meyerson (fellow di Ibm) negli anni ’90 prevedeva che l’entusiasmante legge di Moore avrebbe evidenziato il suo limite intrinseco nella fisica nucleare, in quanto la legge si basava sul fatto che ogni 24 mesi la dimensione del transistor risultava dimezzata, quindi ogni due anni raddoppiava la densità dei transistor integrabili nei circuiti, era quindi facilmente prevedibile che le dimensioni del transistor avrebbe uguagliato quella di un singolo atomo, evidenziando problematiche tipiche della fisica quantistica che porterebbe il transistor a manifestare malfunzionamenti che comprometterebbero la corretta funzionalità di tale dispositivo e di dispositivi microelettroniche su esso basati. Secondo Meyerson, il limite della legge di Moore non significa la fine dello sviluppo tecnologico, ma semplicemente un cambiamento del paradigma di sviluppo tecnologico, per esempio passando dal chip al sistema, oppure a nuovi paradigmi computazionali che consentiranno di eseguire le stesse applicazioni senza richiedere velocità di elaborazione crescenti in modo esponenziale come dettato dalla legge di Moore. Anche se la tecnologia dei circuiti integrati continuerà ad avanzare, non è pensabile che si possano forzare le leggi della natura, nello specifico quelle della fisica. La legge di Moore raggiungerà il capolinea verso il 2020. Nel 2006 Ray Kurzweil ha pubblicato il libro “Singularity is near”, che come era avvenuto per l’articolo di Moore nel 1965, fa una previsione relativa al futuro prossimo dello sviluppo tecnologico in cui la tecnologia dei computer convergerà con altre tecnologie (quantum computing, neuromorphic computing, 3D staking), fino a raggiungere un altro limite, quello da lui denominato “singolarità”, cioè quando l’intelligenza umana sarà sopravanzata da quella del computer. Emblematico a supporto di questa teoria è la prima opera letteraria (novella) “Konpyuta ga shosetsu wo kaku hi “ scritta da un robot giapponese (programma di intelligenza artificiale) presentata e giudicata nel contesto di un premio letterario. Anche se non ha vinto il concorso, ha sicuramente accorciato i tempi perché la predizione di Kurzweil si concretizzi a breve termine. Come è avvenuto nella prima rivoluzione industriale, in cui le macchine hanno sostituito il lavoro manuale, la rivoluzione della IT sta portando alla sostituzione del lavoro cognitivo degli esseri umani. Ecco quindi che tra i vari paradigmi tecnologici che permetteranno alla legge di Moore di produrre i suoi effetti ancora per un altro paio di decenni (fino al 2045), c’è il computing cognitivo.

Il computing cognitivo

Il cognitive computing è un paradigma computazionale emergente che mette insieme l’intelligenza artificiale con il digital signal processing, cioè la capacità di sentire e interpretare il mondo fisico circostante tramite le informazioni di segnale. Il Cognitive computing è quell’insieme di tecnologie hardware e software che ambiscono a emulare il funzionamento del cervello umano. Le principali peculiarità del cognitive computing sono l’adattabilità, in quanto capace di adattare il ragionamento alla variabilità degli stimoli tramite meccanismi evolutivi (non necessariamente evoluzionari), quindi disponendo di meccanismi capaci di modificare autonomamente la natura hardware e software del loro funzionamento. Ovviamente l’interattività è una peculiarità dei sistemi di cognitive computing con meccanismi di linguaggio naturale che consentono ai sistemi CC di relazionarsi con l’uomo secondo il modello di interazione. Alla base del computing cognitivo vi sono i paradigmi computazionali softcomputing (reti neurali artificiali e la logica fuzzy), che studiati da alcuni decenni hanno portato alla tecnologia del “deep learning”, una modalità di “programmazione dei sistemi cognitivi” che consente a questi di imparare a svolgere la propria funzione cognitiva apprendendo direttamente dai dati. Le reti neurali convolutive sono il paradigma di rete neurale artificiale più efficace che meglio implementa il meccanismo di deep learning alla base di sistemi di cognitive computing, da cui sono stati derivati applicazioni significative di computer vision, di riconoscimento automatico del discorso parlato, dell’elaborazione del linguaggio naturale, del riconoscimento dell’informazione audio e vocale, della bioinformatica, ecc. Varie sono le società impegnate sulla tecnologia del Cognitive Computing, oltre Ibm con il sistema Watson sono in campo anche Microsoft (Cognitive Computers), HPE (Haven OnDemand), Cisco (Cognitive Threat Analytics), Google (DeepMind), Cognitive Scale, Customer Matrix (Cognitive Engine), SparkCognition (Spark Prediction). In questo scenario multiplo di attori del Cognitive Computing, ognuno persegue una strategia di sviluppo proprietaria con l’obiettivo di rendere disponibili meccanismi e framework che consentano allo sviluppatore di creare applicazioni con caratteristiche di apprendimento e ragionamento automatico. Microsoft ha istituito i Cognitive Services finalizzati a supportare gli sviluppatori con una serie di potenti algoritmi da integrare con poche linee di codice di programmazione in applicazioni su varie piattaforme allo stato dell’arte (Android, iOS e Windows) per fruire di azioni inferenziali di natura cognitiva sui dati per esempio, riconoscimento di stati emozionali nelle immagini. Cognitive Threat Analytics di Cisco è un sistema di Cognitive Computing applicato al campo della sicurezza che consente d’investigare in maniera analitica relativamente al traffico sospetto su Web individuando attacchi potenziali e in corso senza richiedere lo sviluppo di codice di programmazione e/o l’utilizzo di hardware application specific. Haven on Demand di Hewlett Packard Enterprise è un esempio di supporto alla gestione e utilizzo in modalità cognitiva di grandi quantità di dati. Haven on Demand è una piattaforma per l’analisi di Big Data che consente di analizzare qulasiasi tipologia di dati (testo, audio, immagini, social, web e video) tramite un set di oltre 60 Api che eseguono funzioni di Deep Learning. Le applicazioni che ne derivano sono di natura Data Driven.

Il computing neuromorfo

Il computing neuromorfo, o neuromorphic computing, è un concetto che è stato sviluppato da Carver Mead del California Institute of Technology verso la fine degli anni ’80 basato sull’idea che tramite circuiti integrati analogici integrabili su larga scala fosse possibile emulare le strutture neuro biologiche del cervello (neuroni e reti di neuroni) allo scopo di imitarne il meccanismo di elaborazione dell’informazione ormai sempre più studiato e apprezzato come migliore e più efficiente meccanismo inferenziale per elaborare e per prendere decisioni su dati incerti, come quelli che tipicamente provengono dal mondo fisico tramite i sensori. Nell’arco di qualche decennio, la tecnologia dei computer neuromorfi è maturata ed è diventata una realtà tecnologica pronta all’uso, grazie allo sviluppo dell’integrazione su larga scala (Vlsi) e alla tecnologia della logica programmabile. La prima dimostrazione pratica venne da Intel che realizzò il primo circuito integrato analogico Vlsi con memorie analogiche simili a quelle biologiche che memorizzano i pesi delle sinapsi e con moltiplicatori analogici (amplificatori moltiplicatori) per propagare gli spike tra i vari neuroni interconnessi modulati dai pesi delle sinapsi. Il chip implementava un totale di 8192 sinapsi che interconnettevano in maniera completa 64 neuroni connessi a 64 ingressi (analogici) a cui pervenivano i dati dai sensori connessi al mondo fisico. La risposta (Spike) agli stimoli in ingresso della rete dei 64 neuroni veniva riportata su sulle uscite anch’esse analogiche. La rete neurale Etann 80170NX (Electrically Trainable Artificial Neural Network) di Intel veniva programmata tramite i dati che con meccanismi di apprendimento neuromorfi modificavano le memorie analogiche dei pesi delle sinapsi, fino a configurarla in modo da eseguire correttamente la funzione cui era destinata (per esempio riconoscere un odore, oppure riconoscere un suono o una parola), tanto velocemente ed efficacemente quanto l’equivalente meccanismo biologico cui si ispirava (olfatto, udito, ecc.). L’elevato parallelismo esecutivo, la velocità operativa dei circuiti elettronici analogici e la capacità di apprendere dai dati erano le principali peculiarità che rendevano i processori neuromorfi tanto promettenti quanto affascinanti per le potenzialità applicative che esprimevano. Successivi sviluppi dell’idea del computing neuromorfo hanno portato alla realizzazione del Zisc (Zero Istruction Set Computer) da parte di Paillet e Tannhof di Ibm che realizzarono con tecnologia digitale il modello di computer neuromorfo destinato a diventare il motore computazionale alla base dei sistemi di cognitive computing. Il processore neuromorfo Zisc scardinava completamente il paradigma computazionale dei processori sequenziali Cisc e Risc essendo ad architettura completamente parallela e senza istruzioni per la programmazione (da cui il nome Zisc). Il più avanzato dei Zisc integrava 78 neuroni alimentati da un clock a solo 50 MHz. Malgrado questa bassissima frequenza di clock (se paragonata a quella 1000 volte superiore dei processori correnti dell’ordine dei GHz), il processore neuromorfo Zisc è capace di eseguire task come quello del riconoscimento di un pattern in condizioni di dati incerti (rumore), in 1/1000 del tempo richiesto da un processore Risc.

Pubblica i tuoi commenti