Dispositivi interamente programmabili per reti wireless intelligenti

In
risposta all'invenzione di nuove applicazioni mobili e dei modelli di business
ad essi associati, le reti wireless hanno subito negli ultimi anni dei miglioramenti
di capacità straordinari. Nel corso degli ultimi tre decenni, dalla concezione
del sistema Gsm 2G, l'industria ha raggiunto miglioramenti nella velocità di
trasmissione dei bit di oltre tre ordini di grandezza. La popolazione crescente
che usa smartphone e tablet ha prodotto una crescita sostanziale del traffico
telematico, e si prevede che questa crescita continuerà fino al 2020. Nonostante
i significativi progressi negli apparecchi mobili utente e nelle reti wireless
e cablate stesse, assicurare una reale capacità di tele presenza non è ancora
alla nostra portata, come saprebbe chiunque ha avuto esperienza di connessioni
interrotte, problemi di capacità e di copertura, tempi lunghi per scaricare i
contenuti, problemi di durata delle batterie e latenze di rete che disturbano
la qualità dell'esperienza multimediale. Oltre alle comunicazioni da persona a
persona e su rete IP, stiamo anche assistendo all'evoluzione di una nuova
classe di servizi, machine-to-machine che imporranno ulteriori requisiti sulla
capacità di rete. Le
organizzazioni di standardizzazione, come il 3Gpp, assieme ai gruppi
industriali come la Next Generation Network Mobility Alliance e i laboratori di
ricerca nell'industria e a livello accademico, stanno facendo a gara per
definire e dettare le tecnologie a banda larga mobile 4G come Lte e l'Evolved
Packet Core per rispondere alle nuove sfide. Negli ultimi quattro anni, siamo
passati dalla standardizzazione della versione 8 delle specifiche 3Gpp verso la
fine del 2008 alla prima grande evoluzione di Lte con la specifica della versione
10 di Lte Advanced, ratificata nel 2011. Mentre i sistemi Lte e Lte-A sono
ancora in fase di sviluppo, i gruppi di lavoro impegnati sulla versione 12
stanno pianificando i requisiti e le tecnologie per Lte-B. Una delle sfide
chiave che l'industria wireless si trova a dover affrontare è estendere la
capacità. La formula canale-capacità di Claude E. Shannon ci informa che
l'efficienza della banda può solo migliorare al costo di una riduzione
dell'efficienza energetica. La legge mostra che la capacità è una funzione
lineare della banda ma è una funzione logaritmica del rapporto segnale-rumore.
Questo ha portato la comunità di ricerca a inventare modi sempre più efficaci
di usare la banda all'interno del complesso insieme di vincoli che includono i
requisiti della normativa, le considerazioni sulle licenze per lo spettro,
l'interoperabilità, l'accesso da parte di più utenti, l'affidabilità, la
qualità del servizio e la flessibilità spettrale al livello di ciascun singolo
apparecchio. Questi vincoli sono alcuni dei principi che hanno portato allo
schema di modulazione multiportante e al core evoluto per l'elaborazione dei
pacchetti dati adottato nello schema Lte, e continuano a essere i principali
motivi per l'aggiunta di funzionalità come l'aggregazione di portanti in Lte
Advanced. Ma basarsi solo sulla banda di canale per affrontare la sfida della
capacità non è abbastanza. Ulteriori miglioramenti nella capacità sono stati
resi possibili della tecnica Mimo di multiplexing a divisione spaziale o Sdm,
in cui è teoricamente possibile un aumento lineare della capacità rispetto al
numero di antenne quando il numero di antenne di trasmissione e di ricezione è
lo stesso. Mentre la Sdm può essere impiegata per aumentare la velocità di
trasmissione per un singolo utente, le configurazioni ad accesso multiplo con
divisione spaziale o Sdma, possono massimizzare il numero di utenti supportati
in una cella condividendo la capacità di trasmissione totale fra gli utenti. I
transceiver Mimo, assieme con i dispositivi Mimo distribuiti o virtuali, hanno
permesso la realizzazione di soluzioni energeticamente efficienti o “verdi” al
problema della capacità. Dato che l'industria sta migrando verso Lte-B, è
verosimile che 3D-Mimo, o Mimo a piena dimensione, saranno abbracciati sia da
una versione futura dello standard 3Gpp sia dagli Oem che realizzano macro
stazioni base. Gli operatori adotteranno reti eterogenee assieme con
piccole celle beamforming che offrono l'orientamento verticale e orizzontale
del fascio elettronico per ovviare alle lacune sulla copertura e per
minimizzare l'interferenza intercella. Tuttavia, aumentare l'aggregazione delle
portanti con tecniche multi-antenna avanzate non è ancora abbastanza. È
difficile realizzare nella pratica i miglioramenti teorici di capacità promessi
dal multiplexing spaziale, e la realtà è che le perdite nella realizzazione -
per esempio a causa di stime imprecise sui canali - limitano i guadagni
promessi in teoria. Stiamo già vedendo, e continueremo a vedere con un ritmo
accelerato, l'adozione di reti eterogenee che comprendono una macrocella
aumentata con relè e con una cella di piccole dimensioni sottostante per far
fronte ai problemi sia di capacità sia di copertura in ambienti urbani densi,
per estendere la copertura all'interno degli edifici e per l'uso in ambienti in
cui considerazioni normative impediscono l'installazione di una macrocella. Le
reti eterogenee (note anche come HetNets) e la densificazione delle celle
portano con sé tuttavia ulteriori sfide per il progettista di reti nella forma
di interferenze lungo il percorso e fra una cella e l'altra e la gestione del
trasferimento fra celle o anche di Wi-Fi a livello di portante. I sessanta anni
di ricerca che hanno fatto seguito all'articolo pionieristico di Shannon hanno
portato a schemi di codifica avanzati - turbo codici, ad esempio - assieme alle
tecniche multiantenna, ai sistemi di modulazione, ai protocolli di
comunicazione e all'elaborazione IF digitale che le società che gestiscono le
reti possono combinare per realizzare sistemi i quali operano arbitrariamente
prossimi alla capacità del canale.Tuttavia
c'è ancora molta strada da percorrere per soddisfare l'appetito di ulteriore
capacità, di comunicazioni robuste e di una riduzione della latenza fra i
terminali. Oltre ad un utilizzo più flessibile e sofisticato o più intelligente
dello spettro per mezzo di Ofdma e di configurazioni di antenne intelligenti,
concetti come la cancellazione potenziata dell'interferenza intercella, stanno
diventando disponibili per assistere nel trasferimento di segnale e nel
mantenere la resilienza di un dispositivo connesso. Il ricco insieme di
concetti catturati sotto l'ombrello di reti auto-organizzanti (Son) è una delle
tecnologie indispensabili nel percorso di sviluppo di Lte. Esistono più
sfaccettature della tecnologia Son, incluse le relazioni automatiche con i
vicini, il bilanciamento del carico, la crescita del traffico e la gestione
della capacità. L'uso di una tecnologia che si auto-ottimizza e si
auto-aggiusta promette risparmi energetici, una migliore copertura e
l'ottimizzazione dei parametri Lte, di cui un esempio è l'ottimizzazione del
canale ad accesso casuale, o Rach. Un altro aspetto chiave della tecnologia Son
è che rende la rete più intelligente, con l'obiettivo finale di minimizzare i
test a radiofrequenza legati ai costi operativi. Per migliorare le proprie
reti, gli operatori spesso mettono in campo ingegneri per raccogliere misure
radio, per scoprire problemi come lacune nella copertura nella rete e
determinare se sia necessario regolare i parametri della stazione base o della
rete. Tuttavia, test a radiofrequenza convenzionali di questo tipo sono
costosi, e le misure che raccolgono forniscono una visione limitata. Le società
membro delle organizzazioni Next Generation Mobile Networks e 3Gpp stanno
discutendo attivamente dei modi per affrontare queste sfide. La specifica della
versione 10 ha introdotto il concetto di minimizzazione dei test a Rf e
rappresenta un contributo importante all'area della tecnologia Son che
assisterà con l'inserimento di nodi nella rete e con l'abilitazione della
regolazione automatica dei parametri lungo la vita del nodo e della rete.
Tuttavia, un'altra considerazione per il progetto di una rete è il costo
operativo, con la piattaforma Rf che costituisce uno dei contributi più
significativi all'Opex e, nella sostanza, al Capex, e che include
l'amplificatore di potenza e gli amplificatori per i sistemi multi-antenna.

Considerazioni ambientali

Le
considerazioni ambientali per l'elettronica Rf hanno più sfaccettature. È
desiderabile adottare un amplificatore non lineare dal punto di vista dei
vantaggi di costo, ma l'inviluppo non costante dello schema di modulazione Ofdma
usato nel segnale Lte Ran diretto verso il ricevitore ha la conseguenza
indesiderabile della ricrescita dello spettro quando è elaborato da un
amplificatore non lineare a basso costo. Queste emissioni spettrali fuori banda
altamente non desiderabili, che sono fornite allo spettro vicino, compromettono
i sistemi di comunicazione nelle vicinanze e violano i requisiti delle
normative. Una soluzione consiste nell'usare un riduttore di grandi dimensioni
e usare solo la porzione lineare della funzione di trasferimento
dell'amplificatore. Tuttavia, dato che siamo anche interessati all'efficienza
dell'amplificatore di potenza o all'efficacia dell'amplificatore nel convertire
l'alimentazione Dc alla portante, è meglio far funzionare l'amplificatore solo
con una piccola riduzione dell'uscita, dato che l'amplificatore è più
efficiente in questo punto di polarizzazione. Polarizzare l'amplificatore per
minimizzare la riduzione significa spostarsi più vicino alla parte compressiva
della funzione di trasferimento, il che causa problemi con i segnali
multiportante. La forma d'onda nella connessione Lte
Ofdma verso il terminale è costituita dalla somma pesata di onde sinusoidali
ortogonali campionate. Il segnale formato da questa somma mostra un grande
rapporto fra la potenza di picco e la potenza media. L'ampiezza delle serie temporali
reale e immaginaria tende ad essere Gaussiana con un inviluppo distribuito di
Rayleigh. L'inviluppo di Rayleigh presenta a sua volta un grande rapporto fra
la potenza di picco e la potenza media, con i valori di picco che superano di
quattro volte il valore medio, con una probabilità di 0,00035. Per preservare
la fedeltà delle serie temporali Ofdma e per evitare gli artefatti spettrali a
causa del taglio dell'amplificatore di potenza, potremmo scegliere di far
funzionare l'amplificatore con il livello di segnale medio ad un quarto della
scala completa; tuttavia, l'efficienza sacrificata nel far passare i segnali
con un rapporto di 4 a 1 dal picco verso il valore medio attraverso un
amplificatore di potenza è eccessiva. Il livello di potenza di picco dovrebbe
essere 16 volte il livello di potenza medio. Questo significa che un
amplificatore a cui è richiesto di fornire 5 Watt di potenza media dovrebbe
essere in grado di fornire 80 W di potenza di picco. Gli amplificatori di
potenza sono molto inefficienti nel loro processo di trasduzione nel
trasformare la potenza Dc in potenza di segnale quando operano a piccole
frazioni del loro livello di potenza di picco. Per un amplificatore in classe
B, per fare una prima approssimazione e per un'ampia gamma di livelli di
potenza di uscita, la potenza prelevata dall'alimentatore è costante ed è
approssimativamente il 35% del livello di potenza di picco. Di conseguenza, il
nostro amplificatore da 80 W preleverà 28 W dall'alimentazione Dc e fornirà 23
di questi Watt al proprio dissipatore fornendo 5 W al carico esterno.
La risposta a questi dilemmi è
l'elaborazione digitale dei segnali. Un dispositivo interamente programmabile
di fascia intermedia come Kintex-7 410 T da 28 nm di Xilinx, con 1540
moltiplicatori-accumulatori, che opera a 491,53 MHz, può fornire prestazioni di
calcolo di picco di 757 miliardi di Mac al secondo. Questo rappresenta un
aumento di 300.000 volte rispetto alla prima generazione di processori Dsp
integrati in architettura Harvard, rilasciati all'inizio degli anni '80. Le
società possono usare questo Dsp per calcolare la potenza per eseguire la
riduzione avanzata del fattore di cresta per controllare il rapporto
picco-media della forma d'onda in trasmissione, e applicare l'elaborazione
digitale di predistorsione per linearizzare un amplificatore altamente lineare
Doherty a basso costo. In questo modo, i progettisti controllano il costo
complessivo delle loro apparecchiature per contribuire a pagare parte degli
alti costi associati alla realizzazione di un sistema di elaborazione Rf ad
alta fedeltà ed all'amplificazione verso il mondo relativamente a basso costo
dell'elaborazione digitale dei segnali che, a differenza dei primi, è stata in
grado d trarre vantaggio dalla miniaturizzazione dei nodi di processo secondo
la Legge di Moore.

La prossima generazione di reti più intelligenti

L'approccio mirato
alla soluzione per la capacità, la latenza, la copertura, la qualità del
servizio, l'Opex e il Capex sta diventando diverso per ciascun operatore di
rete mobile e per ciascun produttore di infrastruttura cellulare. Ciascuna
soluzione unica sarà una funzione delle risorse esistenti, delle competenze e
delle diverse strategie di ingresso sul mercato. Una singola piattaforma
hardware con un singolo SoC non permetterà agli Oem di differenziarsi o di
avere un approccio di piattaforma unificata o comune che permette il passaggio
da una tecnologia a celle di piccole dimensioni fino a una tecnologia a
macrocelle fino alle architetture di rete Ran su cloud. Un system-on-a-chip
convenzionale disponibile in commercio non consente il supporto delle varie
architetture che un Oem potrebbe avere necessità di supportare, che vanno dalle
soluzioni convenzionali in banda base fino alle architetture che integrano la
banda base nell'unità radio, o architetture con unità radio remote che
supportano il modello “hotel in banda base” che sfrutta la cloud. Le
considerazioni di ingresso sul mercato e relative alla tecnologia saranno
diverse persino per un singolo Oem in base alla geografia della rete adottata.
In più, ora più che mai il time-to-market determina se una società ha successo,
ha un successo straordinario oppure è obsoleta. Si tratta allora di scegliere
una tecnologia che sia flessibile, scalabile e possieda la ricca combinazione
di software dedicato, capacità di calcolo e connettività per soddisfare
l'insieme complesso di attributi che caratterizza le reti wireless. Al di là
della piattaforma su silicio, anche i tool di progettazione e le librerie di
proprietà intellettuale (IP) giocano un ruolo cruciale nel migliorare la
produttività. La tecnologia della settima serie da 28 nm di Xilinx, ed in
particolare il SoC Interamente Programmabile Zynq, portano a supportare la
capacità di connettività, di elaborazione dei segnali e di calcolo dedicato che
é richiesta al cuore delle reti di prossima generazione. La matrice di calcolo Fpga
e la sua impareggiabile capacità di elaborazione dei segnali, può essere
applicata all'elaborazione Lte in banda base Ofdma e Scfdma per realizzare i
requisiti matematici ad alta velocità dei ricevitori avanzati, che potrebbero
impiegare tecniche iterative, scambiare informazioni statistiche fra il decoder
di canale, l'equalizzatore e il rivelatore Mimo in un sistema multi-antenna. Il
SoC Zynq analogamente supporta i sistemi di prossima generazione che potrebbero
sfruttare 3D Mimo come un'opzione per aumentare la capacità e per superare i
requisiti minimi definiti dall'Itu come parte dei requisiti Imt Advanced.
Un'altra applicazione dell'elaborazione di segnale Fpga è di soddisfare i
requisiti di costo, Capex e Opex, e quello che potremmo chiamare
“considerazioni verdi” sulla rete. Con Lte-A e l'aggregazione di canale, le
bande di canale sono passate a 100 MHz. Le tecniche di riduzione del fattore di
cresta e di linearizzazione dell'amplificatore di potenza devono evolvere per
gestire questi canali ampi, e questo significa più elaborazione dei segnali. La
Divisione Comunicazioni presso Xilinx è stata impegnata per alcuni anni su
questi problemi e ha sviluppato la proprietà intellettuale con funzioni Cfr e
di pre-distorsione digitale per servire un'ampia gamma di protocolli di
interfaccia aria. Guardando al futuro, è facile vedere che l'elaborazione radio
sta diventando più complicata, dato che deve essere supportato un insieme in
continuo aumento di configurazioni di portanti. In meno di quattro anni, la
specifica Lte è evoluta da un insieme di base di sei bande di canale attraverso
la versione 10, in cui le componenti di portanti possono essere aggregate in
configurazioni intrabanda oltre che interbanda. È nell'ambito del lavoro
attorno alla Versione 12, che sta iniziando solo ora, quello di investigare
soluzioni per raggiungere ulteriore flessibilità allo spettro. Naturalmente,
non tutte le stazioni base, siano esse a macrocelle o a piccole celle, devono
supportare tutti gli scenari possibili. Tale fatto lascia gli Oem con il
dilemma di dover realizzare rapidamente un insieme di soluzioni economicamente
convenienti che possono catturare i requisiti di pianificazione in frequenza di
un operatore di rete. Questi requisiti sono un'equazione complessa basata sui
parametri delle licenze spettrali, della frammentazione dello spettro e della
necessità di supportare più tecnologie di accesso radio a partire da una
singola catena Rf - la sfida del multi-RAT. A complicare ulteriormente il
quadro è l'introduzione delle reti eterogenee che comprendono una combinazione
di stazioni base macro, di strati sottostanti per celle di piccole dimensioni e
di soluzioni di scarico della rete Wi-Fi. È una questione di scala e di
flessibilità, due proprietà che si trovano proprio al cuore degli Fpga e dei
SoC Interamente Programmabili di Xilinx. Tuttavia il problema è ben più che
l'elaborazione del segnale nello strato fisico. Le reti Lte e le future Lte-A e
Lte-B, stanno diventando più intelligenti in così tante dimensioni,
specialmente dato che il software diventa sempre più una considerazione chiave
per qualsiasi cosa che vada dal far girare applicazioni di rete auto-organizzanti
e minimizzare i collaudi, all'effettuare l'ottimizzazione dei parametri Lte,
all'esecuzione della gestione delle prestazioni in tempo reale, alla raccolta
di statistiche per scopi di pianificazioni delle reti e delle apparecchiature,
fino al far girare gli strati di protocollo e il software O&M. Con
l'introduzione del SoC Zynq nel 2012, Xilinx ha posto un paradigma di calcolo
per la prima volta sul mercato nelle mani dei progettisti di sistema, fornendo
una combinazione di risorse di elaborazione dual-Cortex A9 strettamente
accoppiate con una matrice in logica programmabile ad alte prestazioni che può
essere usata per l'elaborazione di segnale, l'accelerazione dello strato Mac e
la connettività, come Ethernet, Cpri e Obsai. Questi dispositivi, e altri prodotti
nel portafoglio, vanno direttamente verso il rispetto dell'insieme eterogeneo
di requisiti di calcolo, di requisiti relativi all'Isa, del percorso dati, di
scalabilità e di flessibilità necessari per un Oem per realizzare prodotti
differenziati e di introdurli sul mercato rapidamente e in modo economicamente
conveniente.

I requisiti della dorsale

Anche la dorsale in questo periodo caratterizzato da tecnologie
emergenti costituirà una sfida.
All'evolvere
della capacità delle reti di accesso radio, i requisiti della dorsale della
rete aumentano drasticamente. Diverse strutture di celle e diversi scenari di
adozione faranno uso di tecnologie di dorsale differenti, che vanno da Ethernet
e dalla fibra ottica per alcune installazioni a celle di piccole dimensioni,
fino alle connessioni punto-punto alle microonde e alle connessioni e-band e su
onda millimetrica in altre configurazioni. Un modo in cui Xilinx assiste gli Oem
in quest'area è con il modem IP di dorsale. La recente acquisizione di una
società con le competenze in questo spazio fa si che ora Xilinx possa fornire
la tecnologia di dorsale che non solo compete con i fornitori esistenti di
silicio Assp, ma va un passo oltre fornendo la flessibilità di scalare verso
valori superiori o inferiori, e la capacità di connessione in base alle esatte
esigenze del problema in questione. Ad esempio, per alcuni scenari di alta
fascia, la trasmissione in modalità duale sia sulle polarizzazioni verticali,
sia su quelle orizzontali dell'onda elettromagnetica, può essere usata per
aumentare la capacità della connessione o l'affidabilità. In altre situazioni,
potrebbe essere sufficiente uno schema di polarizzazione singola, più semplice,
a velocità di trasmissione dati inferiore e anche a costo inferiore. L'IP del
softmodem può essere integrato in un chip per realizzare una qualsiasi delle
configurazioni comuni, 1+1, 2+0 e così via, in un modo flessibile, mettendo in
grado un cliente di operare con una progressione di soluzioni che scalano con
le prestazioni e con i costi. Il SoC Zynq può rendere reali tutti questi
aspetti della progettazione delle reti in un singolo chip: il software che gira
sui processori Arm Cortex A9; le funzioni Ran allo strato fisico e il modem di
dorsale, realizzato all'interno della matrice di calcolo; la matrice massivamente
parallela di unità di moltiplicazione e di accumulo; e i protocolli di
comunicazione realizzati usando i SerDes ad alta velocità. Assieme alle soluzioni avanzate su
silicio e alle soluzioni IP, Xilinx ha anche introdotto sul mercato una nuova generazione
di tool di progettazione. Uno dei progressi più interessanti in quest'area è
avvenuto con il rilascio pubblico nel 2012 della tecnologia di sintesi ad alto
livello: Vivado HLS. Con questo flusso i clienti possono scrivere in C, C++ o
SystemC e compilare sul silicio di Xilinx. La capacità di programmare gli Fpga
a partire da un linguaggio ad alto livello migliora la produttività e mette i
dispositivi “interamente programmabili” alla portata dei progettisti che non
parlano il linguaggio di descrizione hardware come prima lingua. Un nuovo tool
Vivado di realizzazione fisica introduce progressi per i clienti in termini di
qualità dei risultati, di tempo di esecuzione e semplicità d'uso.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome