Sensore fotografico

Il sensore fotografico è un chip informatico, lo dico molto semplicemente, che permette di convertire un segnale analogico, la luce, in un segnale digitale.

In questo articolo cercherò di trattare l’argomento del sensore fotografico con la mia consueta semplicità cercando di non entrare (volutamente) in tecnicismi troppo complicati e non necessari.

Per catturare un’immagini all’interno del sensore ci sono milioni di fotositi che, disposti in una griglia bidimensionale, trasformano i fotoni in elettroni.

Da quando è nata la fotografia digitale si sono prodotti due categorie di sensori, CCD e CMOS. I sensori CCD sono stati utilizzati molto spesso all’inizio dell’era della fotografia digitale mentre ora sono ad appannaggio delle apparecchiature di campi specifici come ad esempio l’astronomia. La differenza tra i due è che i CMOS convertono le cariche elettriche di ogni elemento in modo indipendente. Il vantaggio principale del sensore CMOS è il minor consumo energetico e il minor costo di produzione. Ci sono anche i sensori di tipo Foveon (di cui ho parlato in questo articolo), sempre CMOS, che hanno una “griglia” con tre livelli sovrapposti per catturare la luce rossa, verde e blu (RGB) di ogni singolo pixel. La prima azienda produttrice di fotocamere a introdurre i sensori CMOS è stata la Canon utilizzandoli nelle sue DSLR (Digital Single Lens Reflex – fotocamere digitali reflex a singola lente). Il primo modello fu la Canon EOS D30 prodotta nel 2000.

Matrice a griglia

Dovete sapere che un sensore fotografico vede una scena monocromatica, quindi in bianco e nero, e allora come è possibile vedere l’immagine catturata a colori? Beh questo avviene mediante l’utilizzo (all’interno del sensore) di una microscopica griglia a matrice di filtri colorati posizionata direttamente sopra ai fotodiodi del sensore. In questo modo ogni singolo pixel viene ricoperto di un solo colore, rosso, verde o blu (RGB). Questo filtro colorato, raggiunto dalla luce, farà passare solo la lunghezza d’onda specifica del colore cui è destinato. Potremo semplificare ancora questa spiegazione dicendo che l’immagine prodotta da questo tipo di filtro assomiglia a un mosaico di punti rossi, verde e blu. Questi tipi di filtri a matrice sono adatti alle applicazioni fotografiche perché riproducono fedelmente i colori e riescono a mantenere un accettabile livello quando si utilizzano valori di sensibilità ISO elevati. La più utilizzata griglia è quella di “Bayer” che è stata proposta per la prima volta nel 1976 dall’ingegnere Bayer della Eastman Kodak. Questa griglia ha al suo interno una configurazione di filtri verdi doppia rispetto a quelli rossi e blu, questo perché l’occhio umano ha una maggiore sensibilità al colore verde.

Torniamo al sensore
Tornando alla semplicità nella spiegazione… il sensore fotografico è un fotodiodo avanzato. Un fotodiodo è un dispositivo sensibile alla luce che quando intercetta una determinata lunghezza d’onda genera una carica elettrica. Quindi il sensore non è altro che chip di silicio fotosensibile che attraverso dei collegamenti elettrici comunica con la fotocamera.

Aliasing e filtri
Si sente spesso parlare di filtro “passa-basso” o di aliasing. Intanto vi spiego cosa si intende per alising. Quando una scena catturata digitalmente mostra dei motivi o dei colori non presenti nella scena originale si parla gericamente di antialising. Questo problema nei sensori con griglie di Bayer possono essere parzialmente risolti tramite l’utilizzo di software integrati nella fotocamera che cercano di aumentare la nitidezza della immagine finale. Le aziende cercando di limitare questa problematica mettono davanti al sensore fotografico un filtro chiamato anti-aliasing o semplicemente passa-basso. Purtroppo l’utilizzo di questi filtri producono, all’interno dell’immagine, una leggera sfocatura e quindi spesso si sente parlare, nelle fotocamere anche professionali, che non hanno il filtro “passa-basso” (es. Nikon D7200). Sicuramente il non utilizzo di questi filtri produce immagini più nitide ma è possibile vedere, in alcuni casi, delle aberrazioni cromatiche evidenti. Anche la Sigma SD-9 non ha il filtro passa-basso ed è equipaggiata di un sensore CMOS Foveon X3.

Quanti MegaPixel?

Quando stiamo decidendo l’acquisto di una fotocamera la prima cosa che ci viene in mente è: “voglio una fotocamera con tanti MegaPixel perché avrò sicuramente delle immagini di alto livello”. Beh su questo aspetto bisogna fare una veloce chiacchierata per capire perché non è sempre vero e soprattutto che significa la quantità di MegaPixel presenti all’interno del sensore.

Intanto dobbiamo ricordare che un sensore, ad esempio con 10 MegaPixel, genera una immagine di 3872×2592 che se la rapportiamo ad un classico Full HD (1080p) con 1920×1080 ci accorgiamo di quanto la dimensione dell’immagine è molto più grande di un comune Full HD. Ma analizziamo anche le più recenti tecnologie come ad esempio la 4K che ha una dimensione di 4096×2160 quindi 10 MegaPixel sono ancora più che accettabili. Insomma quello che voglio dire è che la maggiore quantità di Pixel ci permette una maggiore dimensione di immagine tanto da poter “croppare” (tagliare e ingrandire) senza perdere troppo in qualità, e se vogliamo stampare potremo farlo anche su supporti molto grandi. Ad esempio con una immagine da 10 MegaPixel potremo arrivare a stampare su un foglio di 96cm x 63cm a 100dpi.

Parlando di quantità di MegaPixel presenti nel sensore possiamo fare un veloce calcolo: un file da 4096×2160 è generato da una fotocamera che ha 8,8 MegaPixel (4096×2160 = 8.847,360 Pixels). Quindi si calcolano il numero di Pixels presenti In orizzontale e in verticale e si moltiplicano. Però su questo bisogna aprire una parentesi. Quando si parla di risoluzione dobbiamo dividerla in due tipi: risoluzione effettiva e non effettiva. Questo è dovuto al fatto che non tutti i pixel presenti all’interno del sensore servono a creare l’immagine, infatti si parla di “area di immagine” che di solito è formata da un anello di pixel. I pixel che cadono all’interno dell’anello vengono processati e usati per formare l’immagine, ma non ne fanno direttamente parte. Alcuni pixel che cadono al di la dell’anello sono otticamente neri e vengono usati solo per stabilire il livello di rumore digitale. Quindi il numero effettivo di pixel che vanno a comporre l’immagine non è quello totale ma quello presente all’interno dell’area dell’immagine e dell’anello. Se guardiamo le caratteristiche delle fotocamere, soprattutto quelle avanzate e nella fascia di mercato professionale, possiamo leggere due numeri di versi di pixel: quelli “efficaci” e quelli “totali”. Il numero dei “pixel efficaci” corrisponde al numero di pixel usati per fornire per formare l’immagine e include anche l’anello dei pixel.


Spero che con questo articolo ho fatto un po di luce sui sensori in fotografia digitale, anche se purtroppo è un argomento molto complesso ed io mi sono limitato a trattarlo davvero in modo molto semplicistico. Ma come dico sempre: “meglio spiegare in modo semplice senza troppi tecnicismi che in modo complesso ma che poi potrebbe essere di difficile comprensione”.

www.fotomedica.it