Embedding estremo, la singolarità è molto vicina

I sistemi embedded stanno diventando la tecnologia più avanzata e complessa della microelettronica e dell’informatica in generale. La natura estrema raggiunta dai sistemi embedded (deeply embedded), sta evidenziando il raggiungimento di un limite di complessità che gli scienziati indicano con il nome “singolarità”. La singolarità è una condizione che indica il raggiungimento dello stato di un sistema in cui questo degenera relativamente alla funzione che lo caratterizza. Quando il sistema embedded attiene all’intelligenza artificiale la singolarità è il punto in cui il sistema raggiunge uno stato di sviluppo che va oltre la capacità di comprenderlo e di utilizzarlo vantaggiosamente da parte degli esseri umani. Nell’ambito della computer science il concetto di singolarità fu introdotto per la prima volta da John von Neumann (inventore dell’architettura di computing che consentì la realizzazione del microprocessore) nel 1950 per affermare che il rapido sviluppo della tecnologia avrebbe portato a una super intelligenza che avrebbe sorpassato in maniera incommensurabile quella umana, tanto che le attività umane non si sarebbero potute svolgere come si erano svolte fino a quel momento. I sistemi embedded sono attualmente la punta dell’iceberg della singolarità, in quanto sono la tecnologia elettronica che più di qualsiasi altra integra tecnologie innovative ad elevato tasso di sviluppo, come il deep-learning, il computing biomorfo, l’energy harvesting, ecc. Uno dei paradigmi tecnologici che paventano pericoli di singolarità è Internet e la sua evoluzione in Internet of Things e in Internet of Everything. L’interconnessione di tutto con tutto a prescindere dall’utilità effettiva per il benessere dell’umanità, sta inevitabilmente portando al punto in cui la rete sopravanza la capacità di comprensione degli esseri umani che da essa dipendono e dipenderanno in maniera quasi assoluta. L’unione tra lo sviluppo incontrollato della rete e delle tecnologie computazionali di deep learning nella direzione dell’Intelligenza Artificiale rappresenta un mix che rischia di far saltare il rapporto tra uomo e macchina a sfavore dell’uomo. I sistemi embedded, sempre più pervasivi e integrati (invisibili), sono un importante ingrediente di questo mix, e rappresentano l’elemento di sviluppo abilitante, come è accaduto per lo sviluppo dell’elettronica, in cui la miniaturizzazione del transistor ha consentito lo sviluppo esponenziale della microelettronica fino ai suoi limiti fisici (quindi alla sua singolarità).

Dalla microelettronica alla nanoelettronica

La microelettronica è stata sempre caratterizzata da geometrie di integrazione di ordine micrometrico (milionesimo di metro). La legge di Moore prevedeva un aumento esponenziale della densità di integrazione dei transistor che implicava una riduzione della geometria di integrazione sotto il milionesimo di metro fino a raggiungere il miliardesimo di metro (nanometro) senza considerare che, raggiunta la dimensione nanometrica di integrazione, la fotolitografia, utilizzata per ricavare i transistor sul substrato di silicio raggiungerebbe il limite della fisica dello stato solido (la dimensione delle molecole che compongono i transistor è dello stesso ordine della lunghezza d’onda della luce utilizzata per il processo fotolitografico cioè dello stesso ordine della dimensione delle molecole che compongono il transistor). La singolarità della microelettronica è dunque molto vicina. La nanoelettronica è la nuova tecnologia di integrazione che consentirà di superare questa fase di crisi della legge di Moore. Nantero ha presentato nel 2003 la Nram, una tecnologia nanoelettronica che ottiene una struttura di memoria per deposito su un substrato di silicio di un reticolo di nanotubi di carbonio, con densità di integrazione di ordine nanometrico, e densità di memoria dell’ordine del terabit nelle dimensioni tipiche dei chip di memoria di densità del gigabit.

Il computing neuromorfo

Il Neuromorphing Computing è stato sviluppato negli anni ’80 (pochi anni dopo l’introduzione del microprocessore), con l’obiettivo di implementare in modalità hardware la funzionalità dei neuroni. A tale scopo, sfruttando gli sviluppi tecnologici della microelettronica a larghissima scala di integrazione, sono stati integrati i circuiti analogici con i circuiti digitali per imitare il funzionamento del sistema nervoso umano, da cui l’aggettivo “neuromorfo”. Il computing neuromorfo per la prima volta ha consentito di implementare in modalità elettronica il paradigma dell’ elaborazione dell’informazione secondo il modello biologico del sistema nervoso (tipicamente quello umano), con tutti i relativi vantaggi e le implicazioni. La larghissima scala di integrazione fu una delle principali implicazioni tecnologiche che portarono ai presupposti dello sviluppo dei futuri sistemi embedded. Il computing neuromorfo ha implicato l’integrazione di tecnologie elettroniche prima disponibili solo in dispositivi a se stanti, come l’elettronica analogica, l’elettronica mixed-signal, ecc. Le peculiarità del neuromorphic computing derivano direttamente dalle proprietà dell’elemento computazionale su cui si basa, il neurone: robustezza ai guasti, apprendimento, adattamento alle modifiche locali (plasticità), capacita di evolvere. Il Georgia Institute of Technology ha sviluppato l’Fpna (Field Programmable Neuron Array), un chip simile al popolare Fpga ma molto più simile all’Fpaa (Field Programmable Analog Array) data la natura analogica del neurone che nell’Fpna rappresenta l’elemento configurabile in modalità matriciale 2D come avviene per le porte logiche nelle Fpga. L’Fpna del Georgia Tech nel 2006 ha rappresentato il primo di una serie di array di circuiti analogici che hanno implementato la funzionalità computazionale del neurone a la sua interconnettibilità in configurazioni di reti a strati (le reti neuronali) per la realizzazione dei più rappresentativi paradigmi computazionali neuromorfi. Ibm, con il chip SyNapse presentato nel 2014, ha battuto ogni record di integrazione di funzionalità neuromorfa su chip: 1 milione di neuroni e 256 milioni di sinapsi, ottenuti integrando 5,4 miliardi di transistor per un consumo totale di 70 mW in condizioni di esecuzione real-time su un totale di 4096 core neurosinaptici.

Intelligenza artificiale e robotica verso la singolarità

Le tecnologie elettroniche e computazionali concorrono allo sviluppo esponenziale dell’intelligenza artificiale e della robotica. Queste due tecnologie, grazie allo sviluppo della nanoelettronica e del computing biomorfo, si stanno sviluppando oltre ogni limite compatibile con la capacità umana di controllo e di interazione, tanto che eminenti scienziati come Stephen Hawking (il noto fisico, matematico e astrofisico britannico) hanno avanzato l’ipotesi che l’intelligenza artificiale e la robotica, attualmente ancora in fase embrionale dello sviluppo, possano, in un futuro non molto lontano, sfuggire al controllo umano e addirittura provocare la scomparsa del genere umano. Di conseguenza, tali scienziati chiedono una moratoria allo sviluppo dell’intelligenza artificiale, anche se sono evidenti i benefici che questa, nella fase iniziale dello sviluppo, darà agli esseri umani, relativamente al miglioramento delle condizioni di vita. Secondo Hawking l’attuale trend di sviluppo dell’intelligenza artificiale porterà presto a una forma di super intelligenza che potenzialmente sarà in grado di sostituire completamente quella umana. Hawking ha stimato in 100 anni il periodo di tempo in cui maturerà la condizione di singolarità per l’intelligenza artificiale (e quindi il potenziale annullamento del genere umano). Altri, come Ray Kurzweil, capo ingegneria di Google, anticipano a 30 anni il punto di singolarità. Lontana o vicina, la singolarità dell’intelligenza artificiale non cambia i termini della questione: l’intelligenza artificiale, rispetto a tulle le altre tecnologie ha una serie di peculiarità che sfuggono alla capacità di controllo degli esseri umani (per esempio la capacità di autoreplicarsi degli agenti fisici e degli agenti temporali). Il vero pericolo dell’intelligenza artificiale non è tanto quello rappresentato nella fantascienza come “ribellione” verso l’uomo, ma è quello che può accadere quando una superintelligenza si rivela particolarmente brava nell’eseguire un compito e tale compito non è allineato con quelli che interessano gli esseri umani, determinando in tal modo un conflitto tra essere umano e macchina. È a questo punto che cominciano i guai seri per gli esseri umani.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome