Articoli

Leggi: Work Flow Astrofotografia: i files di calibrazione

In questo secondo appuntamento di questo piccolo contributo nell’astrofotografia, volevo un pò introdurre il funzionamento dei sensori di ripresa cercando ove possibile di spiegarne le modalità di utilizzo. Debbo però anticipare una premessa: essendo io un neofita, posso sbagliarmi o scrivere alcune inesattezze. Nel mio percorso cerco sempre di auto-correggermi quando qualcosa non la capisco bene, quindi bene o male penso che ciò che andrò a scrivere possa trovare una condivisione da parte di astrofotografi di livello. Se cosi non dovesse essere, prego quindi di commentare per segnalare errori.

Bene..dal momento che i nostri amati dispositivi elettronici sono il mezzo che ci permetterà di raccogliere i fotoni, è bene spendere due parole partendo in una scala di importanza e di costi. Verranno, in questo frangente, tralasciate le webcam dal momento che seppur i funzionamenti siano del tutto analoghi ai sensori fotografici puri, nell’astrofotografia vengono impiegate maggiormente per foto planetarie o autoguida. Non che queste siano meno importanti, tutt’altro, ma preferisco concentrarmi sulla ripresa di immagini deep sky sempre tenendo comunque presente che i criteri e le caratteristiche sono poi sempre applicabili a questa tipologia di dispositivi.

Partiamo da una condizione tipo: un neofita che vuole riprendere la sua prima immagine deep sky, la prima azione che fa è andare su google e chiedere infomazioni a questo. L’approccio è molto comune, ma non nascondo che io stesso quando iniziai circa due anni fa, operai in questo modo trovandomi di fronte a un mare di dubbi e di problematiche date anche dal fatto che questo mondo all’inizio è pieno di difficoltà interpretative. Va meglio un sensore? Va meglio l’altro? Cos’è un CCD? Partiamo quindi con ordine, cercando di sfruttare alcune informazioni che abbiamo a disposizione e sfruttando una logica base che è la seguente:

“Cosa dice la teoria e cosa ho a disposizione.”

Questa seppur sembri in prima istanza una grande banalità, racchiude una chiave di lettura importante per districarsi tra quello che è “teoria” e quello che  “pratica”. Il motivo è presto detto: spesso quando le cose “non si sanno” (io soprattutto agli inizi mi sono girato mezzo web alla ricerca di informazioni e spesso non riuscivo a comprendere ciò che stava alla base)  si cercano informazioni online o parlando con astrofili di livello, ci si trova di fronte ad una marea di informazioni molto discordanti tra loro. Un esempio potrebbe essere quello relativo al gap di performance tra sensori a colori rispetto a quelli monocromatici. Per alcuni riprendere con sensori a colori può rappresentare un vantaggio enorme, per altri invece il limite di sensibilità dato da questi rappresenta un limite da cui è bene tenersi a bada. Chi ha ragione? Tutte e due le scuole di pensiero. Chi devo seguire per scegliere correttamente? Dipende…da un lato è dimostrabile facilmente come un sensore a colori sia nettamente meno sensibile e versatile rispetto ad un sensore monocromatico (cioè in bianco e nero) ma dall’altro è anche vero che chi utilizza adeguatamante sensori a colori è in grado di ottenere ottime fotografie. Paragonare le immagini avrebbe relativamente senso, dal momento che il processo di creazione di una astroimmagine di qualità passa attraverso numerose azioni che vanno dallo stazionamento, alla strumentazione, al tipo di cielo, alla tecnica di ripresa e all’occhio e all’esperienza di chi la elabora. Ecco un esempio, con questa fotografia scattata con un sensore a colori, scattata da Giovanni Leoni alias Astrobond. Prendiamoci sempre un pò di tempo per osservare…

unnamed

Questo serve per spiegare un pò il divario tra la teoria e la pratica che spesso anima le discussioni tra forum (e non solo!) Di base, penso però sia sempre opportuno affrancare un acquisto partendo da una logica teorica dal momento che noi neofiti non abbiamo abbastanza esperienza. Pertanto, se (come mi è capitato) dovessi scegliere tra un acquisto di un CCD a colori o un CCD monocromatico la scelta cadrebbe (ed è caduta) in favore del monocromatico. In generale è questa la logica con cui procedo io agli acquisti: prima cerco di capire che teoria si nasconde dietro ad un determinato processo di imaging (o di ricerca) dopodichè valuto cosa offre il mercato. A quel punto, cerco il miglior compromesso bilanciando l’impossibile perfezione matematica della teoria con le reali possibilità sia economiche che di utilizzo. Se invece non ho in programma acquisti, adatto ciò che già posseggo cercando di spremerlo al massimo. E cosi “salta fuori” che è vero che ad esempio un sensore monocromatico è molto piu sensibile e versatile di uno a colori (sperimentato sulla mia pelle), ma è anche vero che considerando la mia scarsa esperienza in ambito astrofotografico,  al momento ottengo foto dignitose principalmente con la reflex, mentre il monocromatico ancora devo imparare a sfruttarlo a dovere. Ma è chiaro che quando imparerò, avrò tra le mani qualcosa di molto piu sensibile, molto piu performante e concepito esclusivamente per questo tipo di fotografia.  Quindi è bene sempre ragionare in piu direzioni, non dare nulla per scontato e soprattutto conoscere prima di buttar via soldi (in questa passione a volte il rischio c’è a causa della possibilità di effettuare scelte sbagliate….)

IL FUNZIONAMENTO DI UN SENSORE

Spiegato “alla contadina” con i conti “della serva”

Affrontando il discorso sullla tipologia di sensori, è bene conoscere almeno sommariamente il processo fisico che porta all’acquisizione di una immagine. Si può spiegare in due parole, ovviamente a portata di neofita e per questo motivo assolutamente incomplete ma coerenti.

Abbiamo una galassia posta a milioni di anni luce da qua. Le stelle di questa galassia sono un pò irascibili perchè soffrono parecchio il caldo e quindi sparano fotoni, dando loro un bel calcione (quando si dice che l’universo è violento si intende questo: è tutto una grande incazzatura.). Il fotone, con le terga doloranti,  inizia quindi un viaggio insieme a tutti i fotoni emessi; una sorta di esodo di ferragosto, ma senza code per fortuna al massimo qualche deviazione…bene. Questo bel viaggio dura milioni di anni perchè si sa che i fotoni se la prendono comoda dal momento che tanto non hanno di sicuro niente da fare, ma un ruolo ce l’hanno e cioè venire raccolti dal nostro telescopio. Quindi, un pò come andare a caccia di farfalle, ciò che si fa quando si è in sessione è in buona sostanza questo: raccogliere fotoni. I nostri fotoni attraversano quindi il tubo e colpiscono il sensore. Il sensore è un wafer di materiali fotosensibili disposti a cella, chiamati “pixel” Il pixel reagisce quando colpito da un fotone generando un elettrone. Quando noi aumentiamo il tempo di esposizione, raccogliamo piu fotoni, quindi proporzionalmente piu elettroni secondo una prprietà di conversione definita “efficienza quantica” che rappresenta il numero di fotoni che il sensore è in grado di convertire in elettroni (esempio: efficienza quantica del 50%, raccolgo 100 fotoni, solo 50 verranno convertiti in segnale utile); nel momento in cui  terminiamo questa acquisizione il pixel scarica gli elettroni creando una sorta di corrente, o segnale elettrico. Questi elettroni verranno poi amplificati da un amplificatore, e verranno contati da un ragioniere elettronico col pallottoliere che dirà “il pixel 1 ha 10 elettroni, segna!” …”il pixel 2 ha 20 elettroni, segna!”…”il pixel tre è andato giu di testa e si è bruciato, nullo”….etc. Infine questi valori verranno convertiti in formato digitale, cioè un insieme di 1 e di 0 messi in serie, creando cosi il bit. Il bit viene raccolto in gruppi di 8, di 14, di 16 etc. determinando cosi il tipo di conversione: 8 bit, 14 bit, 16 bit che rappresentano in buona sostanza la gamma di grigi che possibile ottenere su un singolo pixel. Un sensore a 8 bit ha 256 livelli possibili di gamma, un 16 bit 65000 circa etc. il che tradotto significa che un pixel accoppiato con una elettronica a 16 bit può essere rappresentato con 65000 diversi tipi di grigio permettendo quindi di ottenere una immagine complessiva maggior dinamica e differenziazione di colori/segnale e bla bla bla…

Chiaro quindi? Fotone, convertito in elettrone, convertito in segnale elettrico, amplificato, convertito in bit e pronto quindi per essere digerito dal pc. Per sognare un pò, è bello anche sapere che l’immagine che avete stampato su carta altro non è che la raccolta di fotoni provenienti dall’universo.

MONOCROMATICO O COLORE

Come ho scritto pocanzi, il sensore monocromatico è piu sensibile. La motivazione è molto semplice: tutti i sensori nascono monocromatici. Si esatto…non esiste il sensore a colori, lo si chiama cosi per convenzione, ma il sensore di per se è monocromatico. “Diventa” a colori quando sopra al sensore si va ad applicare una matrice, chiamata matrice di Bayer, che è formata da un pattern di microlenti colorate, un colore per ogni pixel, la “trama” base copre 4 pixel adiacenti. Queste microlenti sono colorate in questa sequenza: “R-G-B-G” cioè red, green, blue, green.

bayer_grgb

Ovviamente, viene da sè che se io fotografo un oggetto completamente rosso, i pixel che lavoreranno di piu saranno quelli con la microlente che lascia passare quella lunghezza d’onda mentre le altri microlenti lavoreranno poco o niente e cosi i rispettivi pixel.

Se invece non avessi questa matrice, il pixel riceverebbero sempre la stessa quantità di luce, tutti, a prescindere dalla composizione dei colori (in realtà non proprio vero per via delle curve di sensibilità ma il concetto è questo). Ecco quindi motivata la maggior sensibilità del sensore mono rispetto a quello a colori. Essendo un limite fisico, questo è reale e inoppugnabile.

Se vogliamo quindi ottenere immagini a colore con un sensore monocromatico, quindi, basterà anteporre di fronte al sensore un filtro. Esistono dei kit composti da tre filtri, RGB (piu la luminanza ma questo lasciamo perdere per ora) che permettono di scattare immagini in cui vengono fatte passare solo le lunghezze d’onda del canale rosso, verde e  blu. Le tre lastre monocromatiche cosi ottenute vengono poi compositate tra loro creando cosi una immagine a colori. Un esempio è questa mia foto, ottenuta con questa tecnica, ma se fate un giro online vedrete foto davvero mozzafiato create proprio grazie alla maggior sensibilita del sensore “nudo e crudo”.

crescent

TIPOLOGIA DI SENSORE

Tecnicamente i sensori che vanno per la maggiore si differenziano in due macro-tipi: sensori CCD e sensori CMOS.

Ciò che differenzia le due tipologie è ovviamente l’architettura interna, relativamente alla costruzione di base, lo stadio di amplificazione e lo stadio di conversione. In poche banali parole, si può dire che mentre nel CCD lo stadio di amplificazione avviene tramite un amplificatore posto esternamente alla superficie di ripresa, nel CMOS questo processo avviene tramite l’apposizione dell’amplificatore direttamente nella parte sottostante il pixel. L’amplificazione del segnale è uno dei processi che portano alla generazione e all’emersione di rumore elettronico, quindi già da qui si può iniziare a pensare che il CCD logicamente sarà meno rumoroso dal momento che l’amplficatore è uno solo, rispeto al CMOS che ha tanti amplificatori quanti sono i pixel. Siccome gli amplificatori non lavorano tutti alla stessa maniera, ecco una sicura motivazione per cui il CCD è generalmente meno rumoroso.

Il mercato ha dato ampio spazio ai CCD fino a qualche lustro fa, dopodichè lo sviluppo della tecnologica CMOS ha permesso di ottenere sensori di ottima qualità a basso costo e soprattutto a basso consumo al punto che oggi su una comune reflex è difficile trovare l’applicazione di sensori CCD, mentre nella quasi totalità dei casi è presente un sensore CMOS. Dico questo perchè è molto piu probabile che se si voglia incominciare a fare astrofotografia con ciò che si ha in casa, si abbia a disposizione una reflex e quindi è bene sapere quali saranno le maggiori problematiche.

Sicuramente il primo è relativo al rumore, come appena spiegato. Il sensore scalda e pure parecchio, al punto che a volte può essere presente maggiormente rispetto ad un CCD un certo fenomeno detto di “elettroluminescenza” dato da calore aggiuntivo generato dall’elettronica di corredo. Ecco un esempio:

amp-glow-diodo-protezione

Le case produttrici di dispositivi di acquisizione tramite CCD invece solitamente inseriscono una cella di peltier proprio dietro al sensore. La cella di peltier è definito tecnicamente “un marchingegno magico che tramite oscuri incantesimi ed energie insospettabili tiene bassa la temperatura del sensore”. Ahahaha scherzo, si può leggere qualcosa qua: LINK. Si è capito che tenendo bassa la temperatura di un sensore, non solo aumenta la sua sensibilità ma diminuisce drasticamente la produzione del rumore. Come dicevamo nel primo articolo, e come si può vedere, tutto è volto sostanzialmente ad eliminare il rumore….

Un’altra caratteristica è che TUTTI i sensori sarebbero sensibili a gran parte dello spettro visibile (e anche leggermente oltre), solo che nelle reflex questa peculiarità rappresenterebbe un limite dal momento che le stesse vengono concepite per l’uso diurno. Pertanto, sopra al sensore viene messo un filtro che taglia tutto l’infrarosso rendendo una reflex cieca alle nebulosità ad emissione, tipicamente nella gamma che va dal debole rosso dell’Idrogeno Alfa in poi e purtroppo per noi l’Idrogeno è la componente piu presente nell’universo. Pertanto, dispondendo di una reflex non modificata, scattare immagini a nebulose ad emissione può essere poco entusiasmante, anche se va detto che qualcosina in questo ambito si riesce comunque a scattare, a patto però di lavorare bene in acquisizione e di avere un inseguimento perfetto quando si riprendono oggetti del genere: è sempre bene provare per rendersi conto delle potenzialità. Ci vinee comunque in salvo la possibilità di “deviare” questo problema effettuando la modifica alla reflex dal costo intorno alle 200 euro, ove si mette di fronte al sensore un filtro astronomico togliendo quello originale. Un esempio viene riportato in questa discussione LINK.

Occhio perchè questa modifica invaliderà la garanzia oltre a sbilanciare un pò i colori nel diurno (facilmente ribilanciabili) e a far perdere la messa a fuoco automatica. Ulteriore alternativa piu “spinta” è quella invece di togliere il filtro originale e lasciare il sensore nudo. Ovviamente è la piu “rischiosa” perchè il sensore è esposto direttamente a tutti gli agenti metereologici oltre alle polveri, inoltre lo sbilanciamento sarà terribilmente piu pronunciato verso il rosso (uhm..magenta…odioso!) ma io ho scelto questa alternativa e dopo circa 8 mesi di tentativi sono riuscito a bilanciare quasi correttamente i colori delle immagini, guadagnando in sensibilità.

Ci sarebbe anche da dire che Canon (e ora anche Nikon) hanno preparato delle camere apposite per l’astrofotografia e la fotografia diurna, nel caso della canon ad esempio la 60Da. Il punto è che la domanda da porre è questa: conviene acquistare una macchina come questa piuttosto che modificarne una usata? Io non rispondo, la valutazione è personale. Un mio grandissimo amico utilizza con buoni risultati una 60Da, ma l’opzione per l’acquisto la si deve fare in base alle proprie necessità e alle proprie mire.

Altra caratteristica della reflex è il firmware di corredo che gestisce buona parte delle impostazioni utili nel diurno ma che a volte possono dar fastidio nella ripresa astronomica o essere di ingombro come ad esempio l’ostinata preoponderanza a volerti tirar fuori la foto bella a tutti i costi secondo i parametri “diurni”. Le case produttrici fanno magie coi firmware, che intervengono e dicono “siccome TU non sei capace, la foto te la faccio IO!”. E quindi giu di correzione sui rumori, sui colori, etc.etc. Ecco, meno roba usate di queste cosine qua, meglio è. Nei CCD per utilizzo astronomico, tutto questo non c’è e la tendenza è quella di lasciare intatta l’immagine come l’hai scattata, tranne per qualche caratteristica.

Oooo bene, direi che piu o meno come infarinatura generale ci siamo. Mi sono spinto piu a parlare di Reflex perchè come già anticipato suppongo che noi neofiti partiremo da questo dispositivo qua, come è capitato a me.

Bene, ora che vi ho fatto un parziale elenco delle caratteristiche meno propedeutiche per il nostro lavoro di astrofotografi, dobbiamo renderci conto che in realtà abbiamo tra le mani un oggetto che per le astrofotografie dice la sua. Perchè a basso costo abbiamo

a) un dispositivo che ha un sensore enorme. Se dovessimo avere uno stesso campo inquadrato con un ccd, prepariamoci a sborsare migliaia di euro perchè i ccd costano. Vanno meglio, possiamo dire che non siano proprio paragonabili,  ma costano.

b) un dispositivo che volendo ci permette di fare foto sia al telescopio di notte, che della fidanzata di giorno.

c) uno strumento didattico incredibile, perchè quando si impareranno a gestire i punti a sfavore, si potrà dire di aver un pò di esperienza

d) sarà sempre rivendibile. Sia in ambito astrofotografico (se si è fatta la modifica) sia in ambito fotografico standard.

Per quanto concerne il rumore, ricordarsi sempre la calibrazione con i Dark (e i Bias ove necessari), questo aiuterà a togliere un pò il disturbo.

Una considerazione? Tutti gli astrofotografi, davvero tutti, hanno in casa almeno una Reflex quindi non bisogna abbattersi ma agguerrirsi ancora di piu. Ci sono galassie, ammassi globulari, campi estesi di stelle, via lattea etc.etc. da scattare con reflex non modificate. E ci sono tutti i restanti oggetti che si possono riprendere con reflex modificate. Poi il resto verrà…Considerando magari il CCD come scelta “matura”, magari da fare in futuro.

Ecco un bell’esempio di immagine scattata dall’astrofotografo Filippo Bezzi con una reflex Canon Eos 7D non modificata:

11856432_1043300949026881_4956408681443942278_o

Nel prossimo articolo probabilmente scriverò qualche accorgimento semplice e logico per sfruttare una reflex in ambito fotografico, oltre ad alcune cosette che sto scoprendo in merito ai CCD in modo da rendere fruibile quanto scritto in questo papiro.

Aaaaa…FINE.

 

Ciao a tutti e ben ritrovati dalla pausa estiva.

Penso sia arrivato il momento di incominciare a scrivere qualcosa relativamente all’astrofotografia piu “spiccia”; nella mia testa gira l’idea di spiegare un pò per sommi capi qual è il work flow che può po aiutarci ad effettuare corrette immagini della volta celeste. Questa specie di tutorial (che tutorial non è…)  è quindi rivolto principalmente a chi si vuole cimentare in fotografia astronomica. Bene o male, da quel poco che vedo, a tutti interessa almeno capire come funziona una foto astronomica e quali sono i passaggi chiave per ottenere una immagine astronomica. In questa serie di articoli vorrei riuscire a trasmettere alcuni concetti chiave, partendo però come base dalla calibrazione delle immagini. Questa scelta è stata dettata dal fatto che molti astrofotografi neofiti già hanno effettuato alcuni scatti e si trovano con immagini difficilmente gestibili. PEr questo motivo, inizio da qua il percorso, in modo che già da stanotte si possa sapere cosa è bene fare sul campo. Tutto quanto concerne strumenti, autoguida, campionamenti, elaborazione etc. lo vorrei spiegare in futuro mano a mano che crescerà anche la mia esperienza. Bene, vediamo di essere chiari e di fare un lavoro apprezzabile

Le fasi che portano l’astrofotografia ad essere un lavoro ben fatto sono sostanzialmente 3

  1. acquisizione e calibrazione
  2. Sviluppo
  3. Elaborazione estetica.

Scegliere il tipo di fotografia di interesse

In prima analisi penso sia opportuno capire cosa vogliamo fotografare perchè in base a questa scelta dipenderà poi il tipo di lavoro che si andrà a fare. Le fotografie piu comuni sono le seguenti

a) Scientifica Amatoriale

b) Planetaria / Lunare

c) Profondo Cielo o Deep Sky

Scientifica: Inutile dire che la fotografia scientifica amatoriale sia la piu complessa, in quanto si devono sostanzialmente estrapolare dati dalle immagini che abbiano un valore prossimo alla realtà e che quindi richiedono non solo una calibrazione perfetta ma anche una stima statistica dell’errore, l’anteposizione di filtri fotometrici in alcuni casi, calcoli sull’estinzione galattica etc.etc. Non che questo sia impossibile, ma a patto di studiare stelle doppie con rilevazioni astrometriche relativamente semplici, non penso sia il caso di cimentarsi da neofiti se prima non si effettuano studi appropriati (lo dico perchè ci ho provato e ancora non ci sono riuscito! 😀 )

Planetario / Lunare: In questo caso, le difficoltà dipendono principalmente dalla quantità di dettagli che si vogliono raccogliere. Sicuramente è opportuna una lunga focale per i pianeti, mentre per la luna si passa dai comunissimi cellulari smartphone appoggiati sull’oculare (che seppur tecnicamente rappresenta un’obrobrietà, debbo riconoscere che qualcuno è riuscito ad ottenere risultati oltre le aspettative) alle comuni reflex per andare ai CCD astronomici in grado di riprendere Video. In buona sostanza, per la fotografia planetaria, la tecnica base vede piu l’aquisizione di video che di singoli scatti. La tecnica di base consiste nel riprendere per alcuni secondi il pianeta, poi scomporre il video con un software apposito (ad esempio Autostakkert che va benissimo ed è free) che avrò il compito di scegliere i migliori frame e sommarli tra loro. Poi vedremo perchè vanno sommati…l’importante è sapere in questa fase che se ci si vuole cimentare in fotografia planetaria, si hanno migliori risultati con un video effettuato tramite webcam piuttosto che con scatti singoli di una Reflex

Profondo Cielo: è ciò a cui si ambisce il piu delle volte. Galassie, ammassi globulari, nebulose a riflessione, nebulose a emissione, nebulose oscure, alla boscaiola con panna prosciutto e piselli, alle cozze, all’amatriciana con il guanciale (mi raccomando,. non la pancetta, ma il guanciale!) e chi piu ne ha piu ne metta. Questo è il tipo di fotografia piu impegnativa in fase di ripresa, e forse anche la piu noiosa perchè l’ottenimento di una foto ha tempi biblici e richiede un setup di un certo costo e con un funzionamento garantito per tutta una notte. Per dare un’idea, mentre per un pianeta come Giove possono essere sufficienti video da 30/40 secondi, per una foto astronomica possono essere necessarie anche diverse notti. In linea generale, per fare una immagine deep sky con una reflex, si ottiene una quantità sufficiente di dati dai 30 scatti in su sullo stesso oggetto, con una durata per ogni scatto che va dai 30 secondi fino ai 10 minuti e piu (dipende poi dall’oggetto, non è una regola ma una indicazione). Se si vuole invece approcciare alla banda stretta (quindi apposizione di filtri selettivi su un sensore mono) possono volerci notti intere e sicuramente piu di una. Anche in questo caso, come nel planetario, le immagini singole andranno poi calibrate e sommate o mediate tra di loro.

In questa fase ho volutamente tralasciato la fotografia di comete ed asteroidi, un pò per inesperienza (ho fatto due comete ma non sono un fotografo cometario abituale) e un pò per evitare di allargare troppo il discorso.

PERCHE’ BISOGNA SOMMARE I FRAME?

Quando apriamo un otturatore di una reflex o quando decidiamo di acquisire digitalmente una immagine, il primo step che avviene è la generazione di rumore. Questo aspetto è valido sia per la fotografia diurna che per quella notturna, con la differenza che mentre nella fotografia diurna nella maggior parte dei casi il segnale è talmente “forte” da far passare il rumore in secondo piano, nella fotografia astronomica la questione si inverte e quindi il rumore diventa un pò una minaccia da tenere a bada.  Gli aspetti principali su cui porre attenzione sono

a) il rapporto tra il segnale e il rumore

b) il rumore termico generato dal sensore che nelle condizioni di acquisizione scalda e genera disturbo nell’immagine.

Il rapporto tra il segnale rumore è praticamente il rapporto che sussiste tra il segnale “buono” (che è quello che ci servirà per ottenere l’immagine) e il rumore generato durante lo scatto. Il rumore, cosi come il segnale, aumenta con l’aumentare della durata delle pose: una immagine di 30 secondi avrà un rumore e un segnale piu basso rispetto ad una immagine da 5 minuti, o 10 minuti, 0 15 minuti e via discorrendo. Ecco quindi che si fa strada la necessità di dare piu “forza” al segnale, soprattutto nelle parti deboli dell’oggetto ripreso che rischiano di venire soffocate e confuse dal rumore diventando quindi non facilmente elaborabili nella singola posa. Ecco spiegato il motivo per cui è necessario avere un numero sufficiente di immagini dello stesso soggetto: la gestione del segnale cosiddetto “buono”.

Work Flow Astrofotografia: I Files di Calibrazione

ovvero

BIAS, DARK, FLAT

Qualsiasi immagine ottenuta da un dispositivo di imaging accoppiata a un telescopio presenta tre tipi di aberrazione: rumore elettronico, rumore di acquisizione ed infine aberrazioni varie introdotte da polvere e vignettatura.

Vediamo nel dettaglio

a) rumore dell’elettronica: è quel rumore generato dall’elettronica di gestione del sensore. Questo tipo di rumore viene gestito tramite dei frame appositi che vanno scattati con il proprio dispositivo. Il rumore è di tipo casuale, cioè non sempre i pixel su cui si registra il rumore in una immagine singola, riporteranno un rumore costante nelle successive immagini.

b) Rumore di autoirraggiamento, o rumore “del sensore” (per capirci): è quel rumore che si genera durante l’esposizione ed è il rumore “proprio” del sensore. Essendo che il rumore aumenta all’aumentare della temperatura del sensore e quindi dell’esposizione dello stesso alla luce, è opportuno considerare la temperatura a cui lavora (se abbiamo un ccd raffreddato con cella di peltier a temperatura gestibile) oppure la temperatura esterna (se abbiamo una reflex con temperatura del sensore non gestibile). Questo tipo di rumore è casuale come per i bias.

c) Aberrazioni varie: sono generate dalla configurazione ottica e dalla polvere. Estremizziamo un esempio: se io scattassi una immagine con un telescopio che possiede un focheggiatore piccolo (esempio da 31,8 mm) utilizzando un sensore grande come un campo da calcio (cit.Astrobond)  su cui ho banchettato la sera prima con salsiccie ciambella e vino, nelle mie immagini si vedrà sia una vignettatura spaventosa ai bordi a causa della caduta di luce dovuta all’occlusione del focheggiatore sui bordi del sensore, che  ovviamente alcune zone piu scure all’interno dell’immagine date dai bagordi della nottata precedente. Prima regola: mai mangiare salsiccie sul sensore perchè è molto delicato e va tenuto con tutti i carismi…eventualmente se non siete astrofili neofiti ma astrofili ciccioni, è bene pulire il sensore prima utilizzarlo.

Vediamo quindi come correggere o meglio “gestire” questi tre tipi di disturbi nella fotografia astronomica

a) BIAS: i bias sono immagini ottenute con il minor valore di esposizione possibile, perchè servono per identificare e “isolare” il rumore generato dall’elettronica quindi il sensore non deve lavorare o deve lavorare alla minor esposizione possibile. Per eseguire questo tipo di immagine, è obbligatorio mettere il tappo al telescopio perchè non ci serve informazione di luce, ma solo informazione di rumore. Quindi molto semplicemente, si prende il tappo del telescopio, si chiude l0 strumento e si scattano immagini scure. Questo tipo di immagine è possibile scattarla anche con il dispositivo non collegato al telescopio, l’importante è che il sensore sia “tappato” perfettamente in quanto nessun tipo di luce deve colpire il sensore. Nelle reflex, il valore di esposizione minimo passa da 1/4000 a 1/8000. Gli iso utilizzati devono essere gli stessi di quelli della ripresa

bias

b) DARK: i dark Frame sono invece immagini della componente di rumore generata nelle stesse condizioni delle esposizioni, in termini sia di temperatura che di durata. La procedura è analoga ai bias, l’unica cosa che cambia è la durata dello scatto che deve essere identico. Se scatti quindi una immagine di un oggetto di 3 minuti, il dark deve essere di 3 minuti. Come per i bias valgono le stesse impostazioni di iso.

dark

c) FLAT: Veniamo quindi all’ultimo tipo di file di calibrazione, il piu delicato. Come dicevamo prima, il Flat è l’immagine che registra tutto ciò che concerne aberrazioni di vignettatura e polvere sul sensore. E’ la piu delicata perchè si deve fare sul momento, a fine esposizioni, e non bisogna nè staccare la macchina, nè ruotarla, nè muovere il fuoco. Attenzione, perchè toccare il setup in questa fase significa perdere il reale utilizzo del Flat. Questo si ottiene quindi scattando su una superficie illuminata (quindi niente tappi davanti al telescopio) che sia uniforme. La durata dello scatto dipende da molti fattori, non ho trovato ancora una metodologia universale e ci sono diverse scuole di pensiero. Solitamente io mi tengo tra 1/3  e metà della dinamica, cioè se ho un software di ripresa che mi fornisce sull’immagine un valore in ADU, cerco un valore prossimo a questo valore. Esempio: una reflex lavora solitamente a 14 bit. Tradotti in ADU significa che ci sono circa 16000 livelli di grigi. Scattando un flat, io ritengo un buon compromesso arrivare ad un massimo di 6/7000 ADU, cioè poco sotto la meta e poco oltre a 1/3. SE utilizzo un CCD a 16 bit i livelli di grigi sono 65.000 circa. Quindi il mio flat avrà un range di ADU che va da 20.000 a 30.000. Il valore corretto in realtà dipenderebbe dal fondocielo, ma non posso complicare troppo. Di sicuro è bene stare attenti perchè un flat sovraesposto convertirà le macchie scure della polvere in macchie chiare nell’immagine finale. Mentre un flat sottoesposto potrebbe non essere sufficiente a correggere tutte le aberrazioni. Volendo possiamo anche osservare l’istogramma nelle impostazioni della reflex e osservare se con  l’esposizione scelta, la parte sinistra della curva si trova a metà o 1/3.

Ecco un esempio di flat, guardate quante aberrazioni..qua c’è tutto, vignettura, polvere e salsiccie.

flat

Le superfici uniformi possono essere diverse: o si riprende il cielo all’alba (mai fatto) oppure se il diametro lo consente si antepone un I-pad et simila con un jpg bianco in visualizzazione, diminuendo la luminosità dello schermo. O molto piu semplicemente si può acquistare a un costo non proprio irrisorio una flat box, oppure se sapete fare con elettronica, se ne può costruire uno e ci sono molti tutorial in giro.

La cosa fondamentale è quindi ottenere degli scatti di FLAT riprendendo superfici illuminate uniformemente e osservare che il risultato del nostro scatto si ponga a 1/3 o metà dell’istogramma.

Un esempio di operatività e Numero di scatti di calibrazione

Andiamo adesso a vedere come sono solito io procedere. Non è garantito sia una procedura corretta al massimo, sicuramente ci possono essere altre strade. Ma io conosco questa e quindi mi limito a spiegare il mio modo.

a) inizio serata: a inizio serata comincio le riprese. In genere cerco sempre di mantenere una durata degli scatti standard (a  ISO 800 se lavoro con Canon). Le mie durate classiche sono 2 minuti, 3 minuti, 5 minuti, 7 minuti,  10 minuti. Opero in questo modo perchè mi facilità poi la creazione dei DARK. Considerando che io scatto un solo oggetto a sera (raccomandato!) se la mia sequenza vede la genereazione di 30 scatti dell’oggetto di 5 minuti, a fine serata mi basterà effettuare i DARK di 5 minuti e sono a posto. Diversamente se dovessi cambiare tempi di esposizione, dovrò scattare (n)serie di dark per (n)tempi di esposizione

Il numero dei dark da scattare variano da 5 a 10. Questo perchè essendo il rumore una componente casuale, si entra nel campo della statistica. Quindi effettuando in trattamento immagini una calibrazione con 5 dark composti tramite una mediana statistica (poi vedremo come) otterremo una rilevazione del rumore quanto piu veritiera possibile.

b) A fine serata: scatto i flat. Metto il telescopio verso l’azimut, la flat box (o il pad) lo metto sull’apertura del telescopio e inizio a scattare.

c) Infine inizio a smontare l’attrezzatura: bene è il momento buono per scattare i miei tanto amati dark.

Manca qualcosa? Si..i bias giusto? bene, allora..i bias io li applico qualora non abbia a disposizione i dark, dal momento che il dark già contiene di per se l’informazione di rumore elettronico. Oppure, li applico nel momento in cui ho scatti dell’oggetto di 5 minuti, e dark di 3 minuti scattati in altre serate. In questo caso applico anche i bias in modo da poter “insegnare” al software qual è il rumore elettronico di fondo di cui tener conto.

Quante immagini di calibrazione effettuo? Presto detto..in generale: n.5 scatti dark (o 10 se ho tempo), n.15 scatti flat. Bias, se necessario, ne scatto 20.

L’APPLICAZIONE DEI FILE DI CALIBRAZIONE

Una volta terminata la fase di acquisizione (di cui è bene ricordare che le calibrazioni fanno parte!) si passa all’editing. Anche qua ci sono diversi software che permettono di applicare immagini di calibrazione ai propri scatti e ci sono diverse scuole di pensiero: c’è chi preferisce creare dei master già mediati (quindi, si prendono i bias si mediano tra loro e si crea il master bias, si prendono i dark si mediano tra loro e si crea il master dark etc) e chi invece si limita a fornire al software tutti i file identificandoli come dark, flat e bias e far ragionare i processori sulle medie etc. Io personalmente adotto una procedura singola, definita “in batch” che prevede la calibrazione di ogni singola immagine con i master, ma questo lo vedremo in altri tutorial.

Se siete neofiti come me ed avete a disposizione tutto il materiale che ho appena descritto derivante dall’ultima serata di astrofotografia, allora è il momento di parlare di come far sposare i file di calibrazione alle nostre immagini. Uno dei software free che funziona meglio è sicuramente Deep Sky Stacker il cui funzionamento è molto semplice e consiglio la lettura dei tutorial in giro. Possiamo invece parlare di come è opportuno settare il software affinchè la calibrazione abbia successo, con le seguenti impostazioni

a) serie di bias: metodo di composizione MEDIAN. (dovuto al fatto che serve una mediana statistica essendo rumore casuale)

b) serie di dark: metodo di composizione MEDIAN (idem come sopra)

c) serie di Flat: metodo di composizione AVERAGE (quindi una media pura, dal momento che questa non è una immagine che si basa su statistica ma è ben definita)

INFINE UN ESEMPIO

Ecco infine un esempio dell’intervento che viene effettuato sui file immagine ben calibrati, con questa gif che ho creato appositamente. Vedrete come l’applicazione delle calibrazioni correggeranno l’immagine, sia per la vignettatura che per la componente rumore.

questa

A presto con altri articoli su questo bellissimo argomento.