TopGlossario tecnicoSensore di immagine

Sensore di immagine

A seconda del tipo di sensore, il principio di funzionamento può variare. Tuttavia svolge la stessa funzione dappertutto - converte il flusso luminoso che entra attraverso l'obiettivo in un segnale elettrico che contiene principalmente le informazioni circa la luminosità dell'immagine registrata. Contrariamente alle apparenze, il tipo di sensore utilizzato è di grande importanza per la qualità dell'immagine in uscita.

 

Fig. 1 Sensore di immagine tipo CMOS da una telecamera APTI-24C2-36W

 

Ci sono due tipi di sensori più comunemente usati – CCD e CMOS (fig. 2a e 2b). Il secondo è più spesso utilizzato in telecamere industriali a causa della sua costruzione e le opportunità che offre. Invece i sensori CCD di solito si installano in telecamere analogiche meno popolari che operano nello standard PAL. Di seguito è una breve panoramica e il principio di funzionamento di ciascuno di essi.

 

Fig. 2a. Sensore di tipo CCD

 

Fig. 2b. Sensore di tipo CMOS

 

Sensore CCD (Charge Coupled Device) – è un dispositivo ad accoppiamento di carica.

 

In generale, il principio di funzionamento di un sensore CCD si basa sull'accumulo della carica elettrica sui settori corrispondenti della matrice del sensore, chiamati pixel. Ciò è dovuto ai fotoni (luce) che cadono su singoli pixel isolati l'uno dall'altro, che buttano fuori gli elettroni (fig. 3). Un singolo pixel può essere visualizzato come un contenitore che accumula nuovi elettroni. Il loro numero è proporzionale all'intensità della luce e anche al tempo di esposizione (fig. 4).

 

Fig. 3 La matrice CCD è fatta di singoli pixel (b) insieme ai fotoni che cadono su di essa (a)

 

a - fotone

b - pixel

Fig. 4 Un singolo pixel in cui gli elettroni sono soggetti a precipitazioni (b) dovute a fotoni incidenti su di esso (a)

 

a - fotone

b - elettrone

In questo modo, attraverso l'accumulo sulla matrice del numero variabile di elettroni, viene creata la mappa che in un certo senso è un riflesso dell'immagine vista dalla telecamera. Si fa notare che la matrice del sensore cattura solo l'intensità della luce, senza colori dei singoli elementi dell'immagine, il che sarà discusso più avanti.

 

Il processo di scansione del numero di elettroni accumulati in ogni pixel viene realizzato in modo sequenziale. Ciò significa che il trasferimento di elettroni a ulteriori circuiti elettronici avviene solo dai registri di scansione che si trovano lungo una riga della matrice. Dopo aver scansionato gli elettroni della prima riga della matrice avviene il salto dei successivi elettroni alla riga successiva e il loro posto viene preso da elettroni della riga successiva. L'intero procedimento viene ripetuto fino a quando tutti i pixel vengono scansionati (fig. 5).

 

Fig. 5 Schema di scansione sequenziale di elettroni (a) da pixel, attraverso il canale CCD (b). Alla fine tutti gli elettroni finiscono nel registro di scansione (c), da dove sono trasferiti ai circuiti elettronici

 

a - elettrone

b - canale CCD

c - registro di scansione

In questo modo, i carichi di ciascun pixel vengono trasferiti ai circuiti elettronici che li trasformano nella tensione elettrica corrispondente alla quantità di luce "catturata". Inoltre, per ogni valore sono aggiunte le coordinate di un pixel sulla matrice del sensore. Quindi questa è, in estrema sintesi, la cattura di un'immagine dal sensore.

Tuttavia, come accade che l'immagine è a colori? Per spiegare questo, si deve tornare alla costruzione della matrice del sensore (fig. 6). È coperta con filtri RGB (rosso, verde, blu), uno per ogni pixel nello schema definito. Ogni filtro trasmette la luce di un solo colore. Di conseguenza, ogni pixel registra la quantità di luce di un colore particolare, a seconda del filtro sotto il quale egli si trova. Siccome i pixel hanno le loro coordinate, è nota l'intensità della luce e il colore di ciascuno di essi. Il resto è fatto del sistema elettronico. Il processore grafico del dispositivo ha una mappa programmata dei filtri nello stesso layout in cui è presente sulla matrice, di modo che può riprodurre l'immagine registrata dal sensore su una versione digitale.

 

Fig. 6 Matrice CCD coperta con filtri RGB, ciascuno dei quali trasmette la luce di colore corrispondente

 

È interessante menzionare che il numero di pixel con filtri che trasmettono il colore verde è due volte più grande rispetto al resto dei colori. Questo è perché il sensore di immagine è stato creato come un modello di un occhio umano che tra tutti i colori primari è più sensibile al verde.

 

I filtri svolgono un'altra funzione importante - proteggono dalla luce infrarossa che viene emessa da praticamente ogni oggetto a una temperatura sopra lo zero assoluto. Il sensore è sensibile all'intera banda di luce visibile e, al contrario dell'occhio umano, la luce infrarossa che incide gravemente la resa dei colori e la luminosità.

 

Inoltre, sulla base dei colori di 9 pixel in un layout 3x3, il processore determina il colore risultante e lo memorizza al posto del pixel centrale (fig. 7), e quindi prende in considerazione i seguenti 9 pixel spostando il fotogramma di uno e determina il colore del prossimo pixel interno. Questo processo è chiamato interpolazione e grazie a questo l'immagine è più vicina alla realtà.

 

Fig. 7 Pixel marcati impegnati nel processo di interpolazione (a) e pixel il cui colore è la risultante degli altri pixel circostanti (b)

 

a - pixel interpolati

b - pixel risultante

Il metodo descritto di interpolazione, ossia la determinazione del colore risultante (medio) basato sui colori circostanti non funzionerà per i pixel situati ai bordi della matrice. Naturalmente, data la dimensione attuale di matrici utilizzate in telecamere industriali, ciò non ha alcuna importanza. Tuttavia, i produttori di macchine fotografiche, specialmente quelle di fascia alta, spesso, indipendentemente dal numero di pixel, specificano anche il numero pixel effettivi. Questa è la quantità di pixel effettivamente utilizzati per ottenere l'immagine, tralasciando pixel situati ai bordi della matrice o altri pixel ausiliari.

 

Sensore CMOS (Complementary Metal Oxide Semiconductor).

 

I semiconduttori presenti in questi sensori, sia in termini di progettazione che metodo di trasmissione di informazioni, sono basati sull'architettura di memorie di massa. Essi sono caratterizzati principalmente dalla velocità di funzionamento e ridotta domanda di energia rispetto ai sensori CCD. Il principio di funzionamento è simile a sensori CCD, tranne per il fatto che tutti i pixel vengono scansionati in modo indipendente, piuttosto che in sequenza. Questo accade perché ogni pixel in una matrice CMOS ha un suo convertitore corrente/tensione e il suo indirizzo di posizione. Di conseguenza, tutti i pixel possono essere scansionati allo stesso momento (fig. 8).

 

Fig. 8 Costruzione di una matrice CMOS. Dovuto ai bus indirizzi (a), la distanza tra i pixel è maggiore; inoltre, ogni pixel ha il suo convertitore corrente/tensione (b)

 

a - bus indirizzi

b - convertitore corrente/tensione

Purtroppo, questo sistema ha anche i suoi svantaggi. A causa della necessità di inserire componenti aggiuntivi all'interno del sensore, la distanza tra i pixel è molto più grande rispetto ai sensori CCD. Essi non sono così vicini l'uno all'altro e, di conseguenza, il sensore è più grande. Come risultato, l'intera matrice è meno sensibile dovuto al fatto che parte della luce non cade sugli elementi fotosensibili ma tra di loro. Un altro grave inconveniente è il fatto che non è possibile produrre diversi milioni di elementi fotosensibili identici, dove ogni sensore funziona con la stessa precisione. Alla fine, è probabile che l'immagine che deve essere di colore uniforme conterrà strisce specifiche chiamate rumore. Naturalmente, a seconda della classe del dispositivo, l'elettronica responsabile per l'elaborazione dell'immagine può affrontare questo problema in misura maggiore o minore.

 

La dimensione del sensore installato nella telecamera è determinata in pollici. Tipicamente, più grande è il sensore più pixel in esso contenuti, e quindi - migliore è la qualità dell'immagine. I formati più popolari di sensori per telecamere industriali sono 1/3" e 1/4". È interessante notare che questo ha poco a che fare con la dimensione effettiva del sensore. Si tratta di un residuo da giorni in cui la funzione del sensore di videocamere era eseguita da un tubo a raggi catodici in vetro. Le dimensioni, tuttavia, non si applicavano alla lampada stessa, ma al diametro del bulbo protettivo di vetro.

 

Così, ad esempio, la dimensione del sensore 1" è la dimensione del tubo a raggi catodici collocato all'interno di un bulbo di vetro con un diametro di 1 pollice. Per facilità, si può supporre che la diagonale del sensore è circa due terzi della sua designazione. I valori esatti sono riportati nella tabella di dimensioni.