Sensori di immagini per la visione artificiale

sistemi di visione artificiale usano le immagini per raccogliere le informazioni su un sistema o un processo e per prendere una decisione in base alle immagini catturate. Anche se, in ultima analisi, tali sistemi includono anche i componenti per l’illuminazione e il software, la fotocamera - e il sensore di immagini che la alimenta - è il componente chiave per il funzionamento complessivo del sistema e per la sua capacità di migliorare la qualità in produzione o di aumentare la produttività. Ad alto livello un’applicazione tipica della visione artificiale implica qualche combinazione di funzioni basilari di misura, conteggio e controllo. Dovrebbe essere possibile valutare gli oggetti per confermare il numero di oggetti presenti, per determinare il numero o le dimensioni dei loro elementi, o il livello di qualità di un elemento. Un sistema di visione artificiale può essere usato, ad esempio, non solo per determinare se è stato praticato il numero corretto di fori in un oggetto, ma anche per verificare la spaziatura e la forma di ciascun foro. In un’altra applicazione, la posizione di un oggetto potrebbe essere determinata per consentirne la presa da parte di un braccio meccanico, o per determinare se un elemento è posizionato correttamente. In altri casi potrebbe essere necessario decodificare l’informazione, ad esempio leggendo un codice a barre, effettuando il riconoscimento dei caratteri su un oggetto come ad esempio una targa oppure misurando il livello di un fluido. Ciascuna di queste funzioni determina caratteristiche specifiche richieste per il sistema finale di fotocamere, e in ultima analisi per il sensore di immagini selezionato per l’applicazione. È fondamentale comprendere quale sia livello minimo accettabile di qualità dell’immagine, dato che esso determina se il sistema informatico che analizza l’immagine può effettuare una misura accurata o pervenire alla conclusione corretta. Quest’ultimo aspetto è critico, e altre caratteristiche quali la frequenza dei fotogrammi, l’alimentazione o le dimensioni diventeranno secondarie se le immagini catturate non sono di qualità sufficiente per l’analisi e l’uso.

Sensori di immagine Cmos

Storicamente, i sensori di immagini Ccd sono stati richiesti per applicazioni di visione artificiale per via della qualità elevata delle immagini e delle prestazioni rese disponibili da tale piattaforma. Oggi tuttavia i sensori di immagini Cmos sono balzati alla ribalta in un’ampia gamma di applicazioni di visione artificiale grazie ai progressi compiuti nella realizzazione dei pixel Cmos che rendono la qualità di elaborazione delle immagini disponibile attraverso questa piattaforma sufficiente per una varietà di usi finali diversi. Le moderne piattaforme di sensori di immagini Cmos, come quelle usate per la famiglia di dispositivi Python di ON Semiconductor, sono basate su uno schema di pixel ad otturatore globale che consente la cattura di oggetti in movimento senza l’introduzione di artefatti. La funzione di campionamento doppio correlato interna ai pixel assicura bassi livelli di rumore in lettura, e la funzione di correzione del rumore a schema fisso contribuisce a preservare la qualità dell’immagine. Combinate con un convertitore analogico-digitale a 10 bit e con un intervallo dinamico da 60 dB, queste funzionalità di miglioramento della qualità dell’immagine consentono ai sistemi di visione artificiale, quando sono in funzionamento, di sfruttare i vantaggi intrinseci di una piattaforma Cmos.

Applicazioni di visione artificiale

Molte applicazioni di visione artificiale stanno cercando di funzionare a velocità sempre più elevate allo scopo di aumentare la produttività, determinando direttamente un’esigenza di sensori di immagini in grado di supportare la lettura di immagini a larga banda. L’architettura dello stadio di uscita della piattaforma Cmos consente di farlo direttamente, dal momento che è possibile aggiungere ulteriori uscite digitali per incrementare la banda resa disponibile da un dispositivo Cmos. L’uso di 32 uscite Lvds separate consente ad esempio ai dispositivi Python ad alta risoluzione di raggiungere larghezze di banda che superano le moderne interfacce dei computer come 10GigE o Usb 3.1, supportando una velocità di lettura massima di 80 fotogrammi al secondo per un dispositivo da 25 megapixel, ben al di là delle capacità dei progetti Ccd standard. Inoltre, la flessibilità intrinseca offerta dai progetti Cmos consente di aumentare ulteriormente la frequenza dei fotogrammi messa a disposizione da questi dispositivi, quando essi operano all’interno della regione di interesse, in cui solo viene letta solo una porzione dei sensori di immagini. Con le considerazioni di progetto più opportune, l’aumento di velocità in questa modalità di funzionamento può scalare rispetto alle dimensioni, sia sull’asse x, sia sull’asse y, della regione di interesse, consentendo di supportare velocità di trama superiori rispetto a quelle che si possono ottenere usando uno schema di uscita Cmos più standard. A titolo di esempio, considerate le velocità effettive dei fotogrammi del sensore di immagini Python 5000, confrontate con la frequenza dei fotogrammi ottenute da un sensore simile da 5 megapixel che fa uso di uno schema di uscita Cmos standard. A piena risoluzione, entrambi i progetti fornirebbero la stessa frequenza di fotogrammi, pari a circa 100 fotogrammi al secondo. Ma quando viene letta una regione di immagine da 720p, la frequenza dei fotogrammi resa disponibile dai dispositivi Python aumenta fino a circa 600 fps, mentre con lo schema di uscita standard aumenterebbe solo fino a 300 fps. Questa velocità aggiuntiva può essere un elemento importante di differenziazione quando si cerca di massimizzare la velocità di trama complessiva offerta da un dispositivo. Mentre si richiede spesso una risoluzione elevata nelle applicazioni di visione artificiale, per rendere finemente i dettagli dell’immagine catturata, quest’ultima deve essere mediata, assicurandosi che non vengano catturate troppe informazioni, cosa che rallenterebbe necessariamente l’elaborazione dei dati. Oltre ad disporre di un numero adeguato di pixel, è anche importante che questi ultimi siano disposti secondo un rapporto d’aspetto appropriato per ottimizzare la cattura delle immagini per l’applicazione. Rapporti d’aspetto prossimi a 1:1 per esempio, sono spesso impiegati in fotocamere usate in applicazioni pick and place per ottimizzare la cattura lungo l’intero campo visivo dell’obiettivo della fotocamera. Potrebbe anche essere necessario disporre di sensibilità spettrali diverse (colore, monocromia, vicino infrarosso esteso) per meglio ottimizzare il sistema di imaging nel complesso in base ai requisiti specifici dell’applicazione in termini di elaborazione delle immagini. Allo scopo di ottimizzare il processo di progettazione e di realizzazione della fotocamera, un produttore di fotocamere cercherà una famiglia integrata di sensori di immagine che include più nodi di risoluzione e opzioni di colori, per poter sviluppare in modo rapido ed efficiente un portafoglio completo di opzioni di fotocamera per i propri clienti finali. La famiglia di dispositivi Python fornisce un esempio di come tale famiglia possa essere impiegata, con oltre 40 opzioni disponibili, con risoluzioni che vanno dal Vga a oltre 25 megapixel. Questi dispositivi sono disponibili in più configurazioni, che comprendono le sensibilità per la monocromia, la matrice di colori Bayer e il vicino infrarosso esteso, con alcuni dispositivi disponibili in configurazioni a basso consumo o dotati di un nastro rimovibile per proteggere il sensore di immagini durante il processo di assemblaggio della fotocamera. I produttori di fotocamere possono supportare l’intera famiglia di prodotti usando solo due Pcb, ed è disponibile il supporto completo alla valutazione per aiutare ad accelerare il tempo di sviluppo.

Pubblica i tuoi commenti