Articoli

In questo articolo vorrei cercare di affrontare il tema della calibrazione dei files acquisiti, in particolare (come da titolo) i flat field.

Chi mi ha seguito un pò sa che già da tempo avevo scritto qualcosa in merito, una serie di articoli che poi ho riletto in seguito alle mie ultime intuizioni e agli ultimi accorgimenti che mi sono pervenuti da astrofotografi piu bravi di me e ho compreso che c’è un errore in cui si casca molto facilmente soprattutto quando si è agli inizi. Bene, comunque sia, prima di iniziare dovrei fare un appello, o meglio un “incipit”.

In questa passione ci sono un sacco di persone preparate. Io non ho mai trovato alcuna passione che sia multidisciplinare come l’astrofilia (e in particolare l’astrofotografia o la ricerca astronomica amatoriale). In questo settore si trova di tutto: dal meccanico d’auto che si autocostruisce i pezzi della propria montatura, all’ingegnere elettronico che si autocostruisce un ccd, fino all’ingegnere informatico che produce i software. Questo va anticipato perchè l’argomento che tratto è molto tecnico, e sto cercando di comprenderlo a fondo per poter spiegare le mie idee in merito. Sono quindi a rivolgermi a chi davvero ha qualcosa da suggerire invitandolo a correggermi se per caso c’è qualcosa di non corretto o se ho compreso male alcuni passaggi teorici.  Ricordate che chi scrive è un impiegato, nulla di piu. E quindi ci sono molti aspetti tecnici che non riuscirò mai a comprendere appieno.

Ora veniamo al dunque: perchè dedicare un articolo ai flat?

Risposta: semplice..perchè mi sono accorto nel tempo che il flat determina in maniera assoluta l’esito di una ripresa. E’ importante tanto quanto i light. Mentre per il rumore si può tentare con qualche noise reductor software (sconsigliabile, ma fattibile) per quel che riguarda l’applicazione del flat non ho trovato niente che sostituisca questa importante fase della calibrazione di una immagine. Un mio conoscente si affidava a Lightroom per rimuovere la vignettatura vantandosi di questo software come espediente per non fare i flat, ma il flat field in realtà non corregge solo la vignettatura anzi agisce in piu direzioni che si traducono in una possibilità enorme riguardo lo stretching di segnale.

Nel mio percorso mi sono abituato a chiedere, tanto…a tutti. Trovo questo l’unico umile metodo per imparare, nel frattempo si socializza e si allargano i propri orizzonti. In questi quasi 3 anni di astrofotografia mi sono trovato a contatto con diverse realtà: si passa da “quello che non fa i flat e chi li fa perde tempo” (è una stupidaggine) a quelli che invece li ottengono considerando aspetti diversi della propria strumentazione. Questo ha portato a risposte completamente diverse alla tipica domanda “scusa ma a quanto va esposto un flat?”. Si va da chi li espone a 1/3 della FWC del sensore, a chi li espone a metà della dinamica in bit (esempio 16 bit = 65535 ADU / 2 = 30.000 adu circa) a chi invece li espone in seguito ad una verifica sul campo dell’effetto che restituiscono sull’immagine (ergo: a fine sessione, scatta, applica e osserva. In base a ciò che osserva, ritocca le esposizioni).

Personalmente, questa gran differenza tra i metodi mi ha messo in gran confusione.  Sopratuttto mi sono accorto sulla mia pelle che applicare il criterio dell’astrofilo X che riprende con il sensore X, non funzionava sul mio sensore. Per quasi otto mesi ho avuto problemi coi flat, che risultavano sovraesposti se applicavo il criterio della metà della dinamica, mentre risultavano sottoesposti se applicavo un criterio suggeritomi da altri astrofili che affermavano il contrario dei primi. Insomma, un gran pasticcio. Il punto è che in linea di massima i flat funzionano grosso modo a tutti coloro che li applicano e questo causa ancora piu confusione se inizi ad avere dei problemi di segnale nelle tue immagini.

In buona sostanza, mi sono accorto che in parecchi utilizzano un metodo che a ben vedere funziona perfettamente solo con determinate caratteristiche del sensore. Non me ne voglia alcuno di voi, non è una critica. E’ solo una sensazione che ho provato sulla pelle e che mi ha lasciato n pò sperduto.

Ora, ho cercato un punto di appoggio. Ho pensato durante questi mesi di crearmi un punto di appoggio, su cui muovermi, che fosse fisso e valido per tutti i sensori. E confrontando piu fonti e leggendo a destra e a manca, sono arrivato ad una conclusione che ritengo concettualmente valida. Questo non implica che non ci sia qualcuno che abbia già spiegato in chiaro il discorso, però se cosi fosse io non l’ho trovato da nessuna parte.

LA QUESTIONE PARTE DALLA DINAMICA

Il primo errore che ho fatto e portato avanti nel tempo, è stato quello di confondere la dinamica del sensore con la dinamica del convertitore. Normalmente nelle schede tecniche dei CCD si legge che la dinamica è 16 bit, i quali corrispondono a 65.500 c.ca valori di grigio. Ora, in realtà questa non è la dinamica reale del sensore, ma è la dinamica di conversione del valore letto sul pixel XY. E’ una differenza importante, perchè leggere “esporre un flat per la metà della sua dinamica” porta a pensare che questo vada esposto fino ad ottenere un valore pari a 30.000 adu circa.

La verità è un’altra: parlando con astrofotografi davvero bravi, ho compreso in realtà che la dinamica del sensore è la capacita dello stesso di contenere all’interno dello stesso frame segnali forti e segnali deboli. Se prendiamo una astrofotografia, ad esempio, abbiamo in diversi casi una grandissima differenza dinamica tra la luminosità dell’oggetto e le nebulose che lo affiancano. Un esempio tipico può essere rappresentato da M42, la Nebulosa di Orione, dove al centro abbiamo grande luminosità, mentre nelle parti piu esterne abbiamo una nebulosità molto debole. Ecco, la gamma dinamica del sensore è quella che permette a tutti e due i “segnali” di convivere nello stesso frame, nella stessa immagine.

Perchè è importante sapere questo? Perchè le nostre immagini sono afflitte da alcuni problemi, tipo la vignettatura e le macchie di polvere. E cosa sono queste se non l’espressione della dinamica di un sensore?

Andiamo avanti: possiamo ottenere informazioni sulla dinamica del nostro sensore? Certo. Il valore si ricava da una semplicissima formula che è questa:

FWC/R.O.N.

dove:

FWC = Full Well Capacity che esprime la capacità in elettroni dei pixel del sensore

R.O.N.= ReadOut Noise che esprime il valore in elettroni del rumore di lettura introdotto nelle fasi di scarico dell’immagine.

Esempio, il sensore che io ho a disposizione (Moravian G2.8300) ho questi dati:

FWC = 25.000

ReadOut Noise = 8

Vado a dividere FWC/Ron ed ottengo una dinamica del sensore pari a 3.125 E.

LA CONVERSIONE IN ADU

Per renderlo fruibile, questo valore va convertito in Adu, in modo da poter visualizzare poi a monitor la media del Flat Field e comprendere cosi se siamo arrivati ad esporlo per tutta la gamma dinamica a disposizione.

Per convertire il valore di dinamica ottenuto in Adu, è necessario avere il gain, il guadagno. Questo valore si ottiene in due modi

a) dalle schede tecniche

b) Applicando la formula:   FWC / dinamica di conversione (65.500 adu per sensori a 16bit)

Nel mio caso: 25000/65537 = 0,389 e/adu

Sapendo questo valore posso convertire la gamma dinamica del sensore in ADU e ottenere cosi un flat field che abbia una media rientrante in quel valore.

Quindi, sempre nel mio caso: 3.125 / 0,389 = 8.033 Adu

Ecco quindi, che esponendo il mio sensore fino ad ottenre un flat di 8.033 Adu, mi permette di calibrare la mia immagine avendo come base la gamma dinamica del sensore stesso.

Questa procedura l’ho testata su due sensori: sulla Atik314 mi ha risolto tutto il problema che avevo in precedenza (cioè flat sovraesposti) mentre sul sensore G2.8300 fin’ora non ha mai restituito alcuna vignettatura e mi ha permesso di sviluppare tutto il segnale a disposizione.

horse

Miracolo o fortuna? non lo so, ma il concetto alla base ha una sua sostanza e lo sto applicando con successo dopo le diverse fatiche compiute nell’arrivarci.

IL CONCETTO DI BASE

Mi sono imbattuto spesso in discussioni proprio in merito alle vignettature, dove in alcuni casi questa viene risolta con un flat mentre in altre no. Inoltre mi è capitato anche di leggere (e vivere in prima persona) molte difficoltà nel comprendere perchè un metodo di flat a volte funziona e a volte no.

Nel ragionamento in cui mi sono imbattuto tutto questo appare molto chiaro. Perchè in realtà un flat, visto da questo punto qua, non riuscirà mai a correggere differenze di luminosità talmente ampie da sforare la gamma dinamica del sensore con cui è stato rilevato. Paradossalmente, stessa ottica e sensore con una dinamica piu larga, potrebbe invece risolvere almeno parzialmente il problema ove fortemente pronunciato. Va da se però che se la vignettatura è causata da un adattatore da 31,8mm su un sensore full frame..beh..li non c’è flat che tenga..non arriva luce 😀

Inoltre, spesso viene considerato il flat come una semplice divisione che si adopera sul valore dei pixel. Cercando e leggendo, ho invece compreso come in realtà il flat non sia una divisione spicciola ma si traduca in realtà nell’applicazione di un valore di guadagno sul pixel, in modo da permettere un’0mogeneità di risposta su tutta l’immagine. Essendo che un sensore non avrà mai due pixel che lavorano nella stessa maniera (ci saranno quelli piu sensibili e queli meno sensibili) applicando un flat si approssima un valore omogeneo tra i pixel permettendo cosi una immagine piu regolare e piu facilmente elaborabile.

E pensandoci bene, una macchia di polvere non può essere “vista” anche come una serie di pixel che lavorano meno?

L’APPLICAZIONE CORRETTA DEL FLAT

Arrivo in conclusione a dire che considerando il metodo di lavoro di un flat field, considerando la sua naturale applicazione e l’intervento che fa sul singolo pixel (e solo su quello), viene spontaneo raccomandarne l’utilizzo in queste modalità

a) ottenere almeno 11 flat

b) applicarli esclusivamente con funzioni di Media e non  Sigma o Sdmask etc.

Questo è facilmente intuibile: la media prende il valore del singolo pixel e ne calcola una media matematica con il numero di frame. Sdmask e Sigma invece, calcolano una deviazione standard sui pixel adiacenti, facendo cosi perdere unaparte dell’efficacia del flat col rischio (ripeto, rischio..non certezza, ma rischio) di avere un’immagine calibrata con ancora una parte delle sue aberrazioni ben in vista durante le fasi di stretching.

Se ritenete che quanto qua scritto non sia per nulla corretto, sono pronto a discuterlo. Ma io ho risolto lo stesso problema su due sensori diversi…

Siate buoni con me, ci sto mettendo la faccia :mrgreen: