Articoli

Buongiorno a tutti

in questi giorni come molti sanno mi sono affacciato alla questione dei nuovi CMOS astronomici che sono venduti da qualche anno. Essendo stato piuttosto lontano negli ultimi due anni dall’ambito del “problem solving” pubblico, non ero a conoscenza delle problematiche che si leggono in giro nell’utilizzo di questi sensori e solo nell’ultima settimana sto cercando di capire di piu.

Il problema però è che ritengo ci sia tantissima confusione in giro, discussioni che iniziano e non finisco, richieste di aiuto non colte e proposte di aiuto interrotte dall’inserimento nelle discussioni sui social di altri elementi di disturbo e di pareri sommari, forniti spesso da persone che hanno magari risolto un problema sul loro setup ma senza garantirsi di aver individuato la reale causa dello stesso, col risultato di aumentare la confusione

Nel mio percorso, ho dato un’occhiata alle schede tecniche dei sensori “oggetto” di diatribe, e il risultato è ancora in corso di valutazione non tanto dal punto di vista qualitativo, argomento su cui non mi permetterei mai di inserirmi dal momento che non ho intenzione di mettermi a fare il paragone tra X e Y, quanto piuttosto dal punto di vista OPERATIVO che a mio avviso inizia a diventare un aspetto piuttosto “scottante”.

Il che è presto detto…a mio avviso, da un lato c’è un misunderstanding tra la “richiesta di aiuto” e la “soluzione fornita”: o l’astrofilo che risponde è molto piu avanti rispetto alla domanda posta e non riesce a farsi capire, o l’astrofilo che risponde è ancora inesperto. Magari aiuta a risolvere il problema del singolo, ma altri che poi leggono seguono la strada consigliata senza accertarsi che il proprio problema derivi dalla stessa causa, postando quindi in seguito la segnalazione che la soluzione non funziona o rinnovando il problema.

Immaginate questo processo che si estende per 5 gruppi, con 1000 utenti, su qualsiasi stream (facebook, telegram, whatsapp in cima alla lista)

Ovviamente, io non essendo possessore di questi dispositivi, non ho alcuna intenzione di relegare la questione ad una semplice “mancanza di competenze”, lo troverei piuttosto banale. Il mio tentativo per rispondere alle NUMEROSE domande fin qua ricevute, è cercare di capire a fondo il dispositivo che si sta trattando e cercare una operatività BASIC che in qualche modo aiuti ad avere un punto di partenza.

Per fare questo, ho bisogno prima di tutto di raccogliere alcuni dati. Mi servono 10 minuti del vostro tempo per rispondere al file di WORD che trovate qui di seguito

e di inviarlo alla seguente maiil:

cmos@osservatorio-hypatia.it

La “campagna” di raccolta dati termina il 6 GENNAIO 2019.

Ovviamente l’invito è esteso a tutti gli astrofili che POSSEGGONO CMOS DI ULTIMA GENERAZIONE (esempio Asi, qhy etc) sia esperti che non, sia che vivano il problema che non lo vivano.

Ritengo che un bel lavoro come comunità astrofili italiana sarebbe piuttosto interessante e soprattutto INCLUSIVA.

Ovviamente, affinchè non si risolva tutto in una perdita di tempo e non avendo io velleità particolari, qualora non dovessi ricevere un numero sufficiente di risposte volte a caratterizzare il problema, manleverò la questione tenendo a mente che evidentemente il problema in realtà non è di interesse reale nemmeno da parte di coloro che ne soffrono e quindi come farebbe chiunque, non darò seguito ad alcunchè.

Diversamente, una volta raccolti i dati, provvederò poi a proseguire con alcune figure di riferimento alcuni test, e cercare di trovare una strada per “universalizzare” almeno un punto di partenza.

Grazie a tutti.

In questo articolo vorrei cercare di affrontare il tema della calibrazione dei files acquisiti, in particolare (come da titolo) i flat field.

Chi mi ha seguito un pò sa che già da tempo avevo scritto qualcosa in merito, una serie di articoli che poi ho riletto in seguito alle mie ultime intuizioni e agli ultimi accorgimenti che mi sono pervenuti da astrofotografi piu bravi di me e ho compreso che c’è un errore in cui si casca molto facilmente soprattutto quando si è agli inizi. Bene, comunque sia, prima di iniziare dovrei fare un appello, o meglio un “incipit”.

In questa passione ci sono un sacco di persone preparate. Io non ho mai trovato alcuna passione che sia multidisciplinare come l’astrofilia (e in particolare l’astrofotografia o la ricerca astronomica amatoriale). In questo settore si trova di tutto: dal meccanico d’auto che si autocostruisce i pezzi della propria montatura, all’ingegnere elettronico che si autocostruisce un ccd, fino all’ingegnere informatico che produce i software. Questo va anticipato perchè l’argomento che tratto è molto tecnico, e sto cercando di comprenderlo a fondo per poter spiegare le mie idee in merito. Sono quindi a rivolgermi a chi davvero ha qualcosa da suggerire invitandolo a correggermi se per caso c’è qualcosa di non corretto o se ho compreso male alcuni passaggi teorici.  Ricordate che chi scrive è un impiegato, nulla di piu. E quindi ci sono molti aspetti tecnici che non riuscirò mai a comprendere appieno.

Ora veniamo al dunque: perchè dedicare un articolo ai flat?

Risposta: semplice..perchè mi sono accorto nel tempo che il flat determina in maniera assoluta l’esito di una ripresa. E’ importante tanto quanto i light. Mentre per il rumore si può tentare con qualche noise reductor software (sconsigliabile, ma fattibile) per quel che riguarda l’applicazione del flat non ho trovato niente che sostituisca questa importante fase della calibrazione di una immagine. Un mio conoscente si affidava a Lightroom per rimuovere la vignettatura vantandosi di questo software come espediente per non fare i flat, ma il flat field in realtà non corregge solo la vignettatura anzi agisce in piu direzioni che si traducono in una possibilità enorme riguardo lo stretching di segnale.

Nel mio percorso mi sono abituato a chiedere, tanto…a tutti. Trovo questo l’unico umile metodo per imparare, nel frattempo si socializza e si allargano i propri orizzonti. In questi quasi 3 anni di astrofotografia mi sono trovato a contatto con diverse realtà: si passa da “quello che non fa i flat e chi li fa perde tempo” (è una stupidaggine) a quelli che invece li ottengono considerando aspetti diversi della propria strumentazione. Questo ha portato a risposte completamente diverse alla tipica domanda “scusa ma a quanto va esposto un flat?”. Si va da chi li espone a 1/3 della FWC del sensore, a chi li espone a metà della dinamica in bit (esempio 16 bit = 65535 ADU / 2 = 30.000 adu circa) a chi invece li espone in seguito ad una verifica sul campo dell’effetto che restituiscono sull’immagine (ergo: a fine sessione, scatta, applica e osserva. In base a ciò che osserva, ritocca le esposizioni).

Personalmente, questa gran differenza tra i metodi mi ha messo in gran confusione.  Sopratuttto mi sono accorto sulla mia pelle che applicare il criterio dell’astrofilo X che riprende con il sensore X, non funzionava sul mio sensore. Per quasi otto mesi ho avuto problemi coi flat, che risultavano sovraesposti se applicavo il criterio della metà della dinamica, mentre risultavano sottoesposti se applicavo un criterio suggeritomi da altri astrofili che affermavano il contrario dei primi. Insomma, un gran pasticcio. Il punto è che in linea di massima i flat funzionano grosso modo a tutti coloro che li applicano e questo causa ancora piu confusione se inizi ad avere dei problemi di segnale nelle tue immagini.

In buona sostanza, mi sono accorto che in parecchi utilizzano un metodo che a ben vedere funziona perfettamente solo con determinate caratteristiche del sensore. Non me ne voglia alcuno di voi, non è una critica. E’ solo una sensazione che ho provato sulla pelle e che mi ha lasciato n pò sperduto.

Ora, ho cercato un punto di appoggio. Ho pensato durante questi mesi di crearmi un punto di appoggio, su cui muovermi, che fosse fisso e valido per tutti i sensori. E confrontando piu fonti e leggendo a destra e a manca, sono arrivato ad una conclusione che ritengo concettualmente valida. Questo non implica che non ci sia qualcuno che abbia già spiegato in chiaro il discorso, però se cosi fosse io non l’ho trovato da nessuna parte.

LA QUESTIONE PARTE DALLA DINAMICA

Il primo errore che ho fatto e portato avanti nel tempo, è stato quello di confondere la dinamica del sensore con la dinamica del convertitore. Normalmente nelle schede tecniche dei CCD si legge che la dinamica è 16 bit, i quali corrispondono a 65.500 c.ca valori di grigio. Ora, in realtà questa non è la dinamica reale del sensore, ma è la dinamica di conversione del valore letto sul pixel XY. E’ una differenza importante, perchè leggere “esporre un flat per la metà della sua dinamica” porta a pensare che questo vada esposto fino ad ottenere un valore pari a 30.000 adu circa.

La verità è un’altra: parlando con astrofotografi davvero bravi, ho compreso in realtà che la dinamica del sensore è la capacita dello stesso di contenere all’interno dello stesso frame segnali forti e segnali deboli. Se prendiamo una astrofotografia, ad esempio, abbiamo in diversi casi una grandissima differenza dinamica tra la luminosità dell’oggetto e le nebulose che lo affiancano. Un esempio tipico può essere rappresentato da M42, la Nebulosa di Orione, dove al centro abbiamo grande luminosità, mentre nelle parti piu esterne abbiamo una nebulosità molto debole. Ecco, la gamma dinamica del sensore è quella che permette a tutti e due i “segnali” di convivere nello stesso frame, nella stessa immagine.

Perchè è importante sapere questo? Perchè le nostre immagini sono afflitte da alcuni problemi, tipo la vignettatura e le macchie di polvere. E cosa sono queste se non l’espressione della dinamica di un sensore?

Andiamo avanti: possiamo ottenere informazioni sulla dinamica del nostro sensore? Certo. Il valore si ricava da una semplicissima formula che è questa:

FWC/R.O.N.

dove:

FWC = Full Well Capacity che esprime la capacità in elettroni dei pixel del sensore

R.O.N.= ReadOut Noise che esprime il valore in elettroni del rumore di lettura introdotto nelle fasi di scarico dell’immagine.

Esempio, il sensore che io ho a disposizione (Moravian G2.8300) ho questi dati:

FWC = 25.000

ReadOut Noise = 8

Vado a dividere FWC/Ron ed ottengo una dinamica del sensore pari a 3.125 E.

LA CONVERSIONE IN ADU

Per renderlo fruibile, questo valore va convertito in Adu, in modo da poter visualizzare poi a monitor la media del Flat Field e comprendere cosi se siamo arrivati ad esporlo per tutta la gamma dinamica a disposizione.

Per convertire il valore di dinamica ottenuto in Adu, è necessario avere il gain, il guadagno. Questo valore si ottiene in due modi

a) dalle schede tecniche

b) Applicando la formula:   FWC / dinamica di conversione (65.500 adu per sensori a 16bit)

Nel mio caso: 25000/65537 = 0,389 e/adu

Sapendo questo valore posso convertire la gamma dinamica del sensore in ADU e ottenere cosi un flat field che abbia una media rientrante in quel valore.

Quindi, sempre nel mio caso: 3.125 / 0,389 = 8.033 Adu

Ecco quindi, che esponendo il mio sensore fino ad ottenre un flat di 8.033 Adu, mi permette di calibrare la mia immagine avendo come base la gamma dinamica del sensore stesso.

Questa procedura l’ho testata su due sensori: sulla Atik314 mi ha risolto tutto il problema che avevo in precedenza (cioè flat sovraesposti) mentre sul sensore G2.8300 fin’ora non ha mai restituito alcuna vignettatura e mi ha permesso di sviluppare tutto il segnale a disposizione.

horse

Miracolo o fortuna? non lo so, ma il concetto alla base ha una sua sostanza e lo sto applicando con successo dopo le diverse fatiche compiute nell’arrivarci.

IL CONCETTO DI BASE

Mi sono imbattuto spesso in discussioni proprio in merito alle vignettature, dove in alcuni casi questa viene risolta con un flat mentre in altre no. Inoltre mi è capitato anche di leggere (e vivere in prima persona) molte difficoltà nel comprendere perchè un metodo di flat a volte funziona e a volte no.

Nel ragionamento in cui mi sono imbattuto tutto questo appare molto chiaro. Perchè in realtà un flat, visto da questo punto qua, non riuscirà mai a correggere differenze di luminosità talmente ampie da sforare la gamma dinamica del sensore con cui è stato rilevato. Paradossalmente, stessa ottica e sensore con una dinamica piu larga, potrebbe invece risolvere almeno parzialmente il problema ove fortemente pronunciato. Va da se però che se la vignettatura è causata da un adattatore da 31,8mm su un sensore full frame..beh..li non c’è flat che tenga..non arriva luce 😀

Inoltre, spesso viene considerato il flat come una semplice divisione che si adopera sul valore dei pixel. Cercando e leggendo, ho invece compreso come in realtà il flat non sia una divisione spicciola ma si traduca in realtà nell’applicazione di un valore di guadagno sul pixel, in modo da permettere un’0mogeneità di risposta su tutta l’immagine. Essendo che un sensore non avrà mai due pixel che lavorano nella stessa maniera (ci saranno quelli piu sensibili e queli meno sensibili) applicando un flat si approssima un valore omogeneo tra i pixel permettendo cosi una immagine piu regolare e piu facilmente elaborabile.

E pensandoci bene, una macchia di polvere non può essere “vista” anche come una serie di pixel che lavorano meno?

L’APPLICAZIONE CORRETTA DEL FLAT

Arrivo in conclusione a dire che considerando il metodo di lavoro di un flat field, considerando la sua naturale applicazione e l’intervento che fa sul singolo pixel (e solo su quello), viene spontaneo raccomandarne l’utilizzo in queste modalità

a) ottenere almeno 11 flat

b) applicarli esclusivamente con funzioni di Media e non  Sigma o Sdmask etc.

Questo è facilmente intuibile: la media prende il valore del singolo pixel e ne calcola una media matematica con il numero di frame. Sdmask e Sigma invece, calcolano una deviazione standard sui pixel adiacenti, facendo cosi perdere unaparte dell’efficacia del flat col rischio (ripeto, rischio..non certezza, ma rischio) di avere un’immagine calibrata con ancora una parte delle sue aberrazioni ben in vista durante le fasi di stretching.

Se ritenete che quanto qua scritto non sia per nulla corretto, sono pronto a discuterlo. Ma io ho risolto lo stesso problema su due sensori diversi…

Siate buoni con me, ci sto mettendo la faccia :mrgreen: