Pixel: più ce n’è meglio è. O no?

Tanti pixel senza le ottiche adeguate sono come un’auto da corsa con le ruote di un’utilitaria. Senza contare che, solitamente, più aumenta la loro quantità più decresce la loro dimensione, con ulteriori risvolti negativi sull’acquisizione delle immagini.

L’ultimo decennio ha visto enormi progressi nella tecnologia dei sensori di immagine, grazie in gran parte alla ricerca e sviluppo nell’elettronica di consumo.
La capacità di sfruttare questa tecnologia per la visione artificiale è fantastica: ha portato a una grande innovazione nei sensori CMOS e alla qualità dei sensori di immagine in generale, ma presenta anche una serie di sfide che le ottiche da implementare in questi sistemi devono superare.

La prima sfida sono le dimensioni dei pixel sempre più piccole. Mentre i pixel più piccoli significano comunemente una maggiore risoluzione a livello quantitativo, una volta scelta l’ottica non è detto che lo siano anche a livello qualitativo. In un mondo ideale, senza diffrazione o errori ottici, la risoluzione si baserebbe semplicemente sulla dimensione dei pixel e sulla dimensione dell’oggetto che viene fotografato.

Per risolvere tutti i dettagli presenti in un’immagine, è necessario che ci sia abbastanza spazio tra questi affinché due o più particolari vicini fra loro non vengano acquisiti da pixel adiacenti sul sensore d’immagine. Se due o più dettagli vengono acquisiti da pixel adiacenti, saranno indistinguibili l’uno dall’altro. Se i dettagli occupano esattamente la dimensione di un pixel, la separazione tra loro deve essere a sua volta di un pixel. È attraverso questa comprensione che arriviamo al concetto di “coppia di linee” (che ha effettivamente la dimensione di due pixel).

Questo è uno dei motivi per cui non è corretto misurare la risoluzione di fotocamere e obiettivi in megapixel. È quindi più opportuno descrivere le capacità di risoluzione di un sistema in termini di frequenza delle coppie di linee, normalmente specificata come coppie di linee per millimetro (line pairs, lp/mm). Prendiamo ad esempio una dimensione di pixel molto comune: 3,45 μm (micron, o meglio micrometri, ovvero milionesimi di metro). La frequenza spaziale di questa dimensione di pixel è di circa 145 lp/mm e si ottiene raddoppiando la dimensione dei pixel e invertendola (per trasformarla in una frequenza).

Ne consegue, quindi, che quando la dimensione dei pixel diminuisce, la risoluzione aumenta, poiché è possibile intercettare particolari più piccoli con pixel più piccoli, avere meno spazio tra di essi ed essere ancora in grado di risolvere la spaziatura tra i dettagli. Questo è un modello semplificato di come si comporta un sensore d’immagine, ed è un caso ideale in quanto non tiene conto del rumore o di altri parametri. Le lenti non sono state ancora prese in considerazione, e sono una parte ugualmente importante di un sistema di imaging, specialmente se i pixel si riducono di dimensioni.

Lenti e risoluzione – Anche gli obiettivi hanno le loro specifiche di risoluzione, ma non sono altrettanto facili da capire (almeno a livello base) come per i sensori, poiché non c’è nulla di più concreto di un pixel da immaginare. Per le ottiche, esistono due fattori limitanti che determinano le capacità di risoluzione: la diffrazione e le aberrazioni. La diffrazione limita le massime prestazioni che un obiettivo può raggiungere, in base al rapporto focale f/n (pari alla lunghezza focale dell’obiettivo diviso il diametro del diaframma in cui entra la luce), nonché alla lunghezza d’onda dell’illuminazione utilizzata.

Ogni obiettivo ha una frequenza di taglio (in lp/mm) determinata dalla sua diffrazione. Tuttavia, quando una lente è “veloce”, ovvero luminosa, (con rapporto focale minore o uguale a 5,6), le aberrazioni ottiche sono spesso ciò che rendono l’obiettivo non più “perfetto” come invece sarebbe potuto essere per il solo limite di diffrazione. In poche parole, nella maggior parte dei casi gli obiettivi non funzionano alla loro frequenza di taglio teorica. Per riassumere, con l’aumentare della frequenza dei pixel (ovvero con il ridursi delle loro dimensioni), il contrasto diminuisce. Ogni obiettivo sarà sempre soggetto a questa regola.

Sensori con pixel più piccoli di 2,2 μm sono oggigiorno molto popolari, in particolare nelle fotocamere degli smartphone (con dimensioni prossime a 1 μm), e al di sotto di tale dimensione è praticamente impossibile che l’ottica sia in grado di risolvere fino al livello dei singoli pixel. Tuttavia, questi pixel hanno ancora un’utilità: solo perché l’ottica non li può risolvere tutti, ciò non li rende inutili.
Per determinati algoritmi, come l’analisi dei blob o il riconoscimento ottico dei caratteri (OCR), è meno importante sapere se l’obiettivo può effettivamente risolvere fino al livello dei singoli pixel ma è più rilevante la quantità di pixel che possono essere posizionati su un particolare dettaglio.
Con pixel più piccoli, la generazione di subpixel per interpolazione può essere evitata, il che aumenta l’accuratezza di qualsiasi operazione di misura basata sui subpixel. Inoltre, in caso la telecamera sia a colori (e quindi generalmente basata sul pattern Bayer), la perdita di risoluzione sarà più limitata.

Se è assolutamente necessario vedere fino al livello del singolo pixel, spesso è meglio raddoppiare l’ingrandimento dell’ottica e dimezzare il campo visivo. Di conseguenza, le dimensioni del nostro dettaglio occuperanno il doppio dei pixel e il contrasto sarà molto più alto.
Ovviamente, il rovescio della medaglia sarà che potremo osservare solo una parte del campo visivo desiderato. Dal punto di vista del sensore di immagine, la cosa migliore da fare è quindi mantenere le dimensioni dei pixel ed aumentare le dimensioni del sensore di immagine.

Sensori di formato maggiore – Sfortunatamente, l’aumento della dimensione del sensore crea ulteriori problemi per gli obiettivi. Uno dei principali fattori di costo di un’ottica è la dimensione del formato per il quale è stata progettata. La progettazione di una lente per un sensore di formato maggiore richiede un numero più elevato di componenti ottici individuali, i quali devono anche essere più grandi, mentre le tolleranze devono essere più strette.

Le soluzioni ottiche per l’imaging devono oggi affrontare molte più sfide rispetto a dieci anni fa. I sensori con cui vengono utilizzate hanno requisiti di risoluzione molto più elevati e le dimensioni del formato vengono via via sia aumentate che diminuite, mentre le dimensioni dei pixel continuano a ridursi.

In passato, l’ottica non ha mai limitato un sistema di acquisizione; oggi sì. Dove una dimensione tipica dei pixel era di circa 9 μm, una dimensione molto più comune oggi è attorno ai 3 μm. Questo aumento di densità dei pixel di un fattore 81 non è privo di conseguenze, e sebbene la maggior parte di queste sia positiva, il processo di selezione delle lenti è più importante ora di quanto non fosse mai stato prima.

La grande varietà di obiettivi per visione artificiale presenti sul mercato esiste per coprire queste nuove tecnologie dei sensori d’immagine. A mano a mano che vengono raggiunti i limiti teorici, comprendere queste limitazioni prima che diventino un problema è essenziale per risolvere le applicazioni, sia ora che in futuro.

Share this post