A Embedded World 2020 il computing adattivo e intelligente dal Cloud all’Edge di Xilinx

A Embedded World 2020 Xilinx presenterà una collezione di demo, mettendo in evidenza le sue soluzioni ACAP (Adaptive Compute Acceleration Card), Alveo, Industrial IoT (IIoT) e automotive, oltre a molto altro ancora.

Inoltre, l'azienda mostrerà Vitis, la piattaforma software unificata lanciata nell'ottobre 2019, che permette ad un'ampia nuova gamma di sviluppatori - inclusi ingegneri del software e scienziati dell'IA - di sfruttare la potenza dell'adattabilità hardware.

Codifica basata su Zynq Ultrascale+ Region of Interest (ROI) che utilizza Video Codec Unit (VCU)

La crescita dell'uso di flussi ad alta definizione (HD) e di risoluzione video superiore ha superato il tasso di diffusione dell'infrastruttura di rete. Quando si trasmette video in streaming con una larghezza di banda di trasmissione limitata, è necessario utilizzare una codifica intelligente che consenta di codificare la regione di interesse con una qualità visiva più elevata rispetto al resto della regione all'interno del fotogramma. Questa dimostrazione mostra la codifica basata sul ROI utilizzando la ZU+ Video Codec Unit (VCU). Utilizzando Vitis AI, la Xilinx Deep Learning Processor Unit (DPU) viene integrata nella pipeline e viene utilizzata per identificare la maschera del ROI all'interno del frame. Utilizzando le informazioni della maschera del ROI, la VCU assegna più bit per il ROI rispetto al resto della regione ad un dato bitrate per migliorare l'efficienza di codifica. I mercati chiave per questa dimostrazione sono la videosorveglianza, la videoconferenza, la medicina e la radiodiffusione.

Soluzione di inferenza Versal ACAP Machine Learning (ML) che utilizza l'Intelligent Engine (AIE) per i casi di utilizzo edge

Presentazione della prima Versal Adaptive Compute Acceleration Platform (ACAP), una piattaforma di calcolo eterogenea completamente programmabile via software che combina motori scalari, motori adattabili e motori intelligenti per ottenere notevoli miglioramenti delle prestazioni. Questa dimostrazione mostra una soluzione di inferenza ML per i casi di utilizzo edge su Versal ACAP. Utilizzando gli strumenti Xilinx, il sistema è realizzato su una piattaforma di calcolo eterogenea in cui i motori adattabili sono utilizzati per integrare interfacce video dal vivo insieme ad elementi di pre/post elaborazione. I motori intelligenti (AIE) sono utilizzati per implementare algoritmi di calcolo intensivo di inferenza ML e un motore scalare è utilizzato per far funzionare il sistema operativo (OS) per controllare i diversi elementi all'interno della pipeline.

Rete neurale Cloud-trained su un dispositivo Xilinx IIoT Edge collegato

Utilizzando schede certificate AWS di Xilinx, questa demo evidenzia una piattaforma facilmente accessibile per una collaborazione innovativa tra edge e cloud. Lo showcase presenta una rete neurale nel sistema programmabile su chip (SoC), integrata da funzioni deterministiche. Dopo che il servizio cloud AWS Sagemaker Neo esegue la formazione per un modello ML e deposita il risultato su cloud storage sicuro, il dispositivo edge basato su Xilinx-SoC lo recupera senza compromettere la funzionalità in tempo reale.

Calcolo 3D in tempo reale degli effetti fisici utilizzando il Bullet Engine sulle schede dell'acceleratore Alveo

L'immensa potenza di calcolo della logica programmabile permette l'esecuzione in tempo reale di Digital Twins. Il Bullet Physics Engine esegue un calcolo continuo 3D degli effetti delle collisioni utilizzando più elementi in varie forme. La dimostrazione mostra il motore su una scheda acceleratore Xilinx Alveo con un'uscita grafica fluida ad alto frame rate. Le applicazioni industriali traggono vantaggio dai modelli digitali in tempo reale dei dispositivi industriali adattando continuamente i parametri di funzionamento per il dispositivo corrispondente.

Piattaforma demo DRIVE-XA

DRIVE-XA è una piattaforma di dimostrazione di guida automatizzata e di ricerca del percorso che può essere utilizzata per implementare vari aspetti della funzionalità di guida automatizzata (ad es. percezione, caratterizzazione ambientale, decisione e controllo). La piattaforma offre una connettività modulare ed estesa per un set dinamico di sensori e interfacce di sensori. Le dimostrazioni di ciò all'Embedded World includono:

  • Aggregazione, pre-elaborazione e distribuzione dei dati (DAPD) alimentata da un singolo Zynq Ultrascale+ MPSoC e dotata di un framework a 6 telecamere/1-lidar di Xylon.
  • Il ML calcola l'accelerazione su un secondo dispositivo MPSoC che implementa un processore di rete neurale multicanale per la segmentazione della scena stradale automobilistica e il riconoscimento degli oggetti.

Piattaforma di sviluppo logiADAK7

LogiADAK7 è l'ultimo kit di sviluppo ADAS di Xylon, basato sul dispositivo Xilinx Zynq Ultrascale+ MPSoC. La piattaforma logiADAK7 mostra gli ultimi sviluppi di Xylon nell'elaborazione di moduli centrali multi-camera, compresa la soluzione IP "ViewMore Natural Surround View" pronta per la produzione. Le caratteristiche di ViewMore includono la Virtual Flying Camera, l'equalizzazione dell'immagine multi-camera, l'adattamento dinamico 3D Bowl, e consente opzioni di personalizzazione HW e SW per la differenziazione.

 

 

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome