Articoli

Eccoci dunque arrivati ad un argomento molto importante per quanto riguarda l’astrofilia, piu specificatamente per l’argomento astrofotografico.

La questione verte sostanzialmente in una scena tipica che si presenta con una certa costanza durante le sessioni di astrofotografia; hai montato il tuo setup, una Eq6 che porta un Newton 250 f/5, un tubone bello grosso, con il sensore collegato al focheggiatore. E’ normalissimo che in questa situazione si venga avvicinati da persone che come prima domanda chiedono “A quanti ingrandimenti stai fotografando?”

Soprattutto quando ero agli inizi, io stesso ero caduto in questa specie di tranello, interpretando il telescopio come se fosse uno zoom di cui tipicamente vengono espresse le potenzialità con un valore di ingrandimento massimo. E, analogamente, mi son trovato nella situazione contraria,  in cui mi è stata posta la domanda e ho dovuto cercare una risposta adeguata.

 Cerchiamo quindi di essere chiari: non è sbagliato parlare di ingrandimenti quando si fa astrofotografia. Ma è fuorviante fornire un valore di ingrandimento basato su valori numerici con affianco un “per” (x), come ad esempio 100x o 10x.  Questo discorso, come vediamo immediatamente, è differente per i visualisti dove gli ingrandimenti sono forniti da una semplice formula tra i millmetri dell’oculare rispetto alla focale del telescopio. La formula è questa

focale/mm oculare = ingrandimenti

Esempio banale: se abbiamo un telescopio con 750mm di focale a cui applichiamo un oculare da 10mm, avremo un ingrandimento di 75x.

Ma quando facciamo astrofotografia non abbiamo oculari (a meno che non stiamo facendo proiezione dell’oculare) e quindi ricavare un valore di ingrandimento in queste modalità può portare a non comprendere appieno la noce della questione

CALCOLI DA FARE

Ok, ci siamo, vediamo di entrare in partita ed andiamo subito al sodo: l’unità di misura relativa al campo inquadrato da un sensore sul telescopio, è l’arcosecondo.

L’arcosecondo è un’unità di misura angolare, che corrisponde a 1/3600 di grado. Per renderlo piu “tangible” (anche se  corretto dal punto di vista concettuale ma meno da quello pratico) potreste immaginare la volta celeste come un enorme orologio analogico. Mentre il rapporto tra la lunghezza focale e la dimensione del pixel possiamo interpretarla come il movimento minimo possibile della lancetta.  Ne deriva che, in seguito al rapporto appena citato tra la focale e la dimensione del pixel,  lo scattino della lancetta tra un secondo e l’altro disegnerà nella volta celeste il nostro ipotetico arcosecondo,  che possiamo quindi definire come la porzione di cielo inquadrata ad una determinata focale con un pixel di dimensioni X. Boom. Non si capisce niente…

Va bene va bene…Facciamo allora un altro esempio. Fingiamo di essere mosche, con gli occhi a quadretti.

MOSCA

Chiamiamo i quadretti “pixel”. Guardiamo il cielo a occhio nudo: ogni quadretto del nostro occhio “a mosca” inquadrerà una porzione di cielo. Mettiamo davanti agli occhi un cannocchiale, ogni quadretto del nostro occhio inquadrerà una porzione di cielo minore rispetto a prima. Noi dobbiamo sapere quanto cielo viene inqudrato da ogni quadretto dell’occhio della mosca.

Compreso questo deduciamo un aspetto importante, soprattutto per noi neofiti: abbiamo capito uno dei motivi per cui all’interno delle schede tecniche dei sensori astronomici viene dichiarata la grandezza in micron del singolo pixel. Lo voglio evidenziare, perchè quando scelsi il primo sensore per effettuare l’autoguida, non mi curai assolutamente di questo parametro, tantomeno mettendolo in relazione alla focale del telescopio di guida stesso con il rischio di trovarmi con un sistema di guida non opportuno.

Vediamo quindi la formula banalissima per sapere quanti arcosecondi vengono inquadrati da un pixel su un telescopio, valore la cui definizione instriseca è “campionamento”:

C = (dimensione pixel x 206265) / Focale utilizzata

Dove

c = valore di campionamento espresso in arcosecondi per pixel

dimensione pixel = dimensione in millimetri del pixel

206265 = costante radiale

Focale utilizzata = focale utilizzata per riprendere.

Esempio: supponiamo di avere un telescopio da 1250mm di focale e che vogliamo riprendere un oggetto celeste con una reflex, tipo la canon Eos450D

Abbiamo quindi: focale = 1250mm, pixel = 5,2 micron

Convertiamo subito i micron dei pixel in millimetri: 5,2/1000 = 0,0052

Applichiamo la formula

C = (0,0052*206265)/1250 = 0,85 arc/sec per pixel

Analogamente, supponiamo di riprendere con un telescopietto da 347mm di focale

C = (0,0052*206265)/347 = 3,09 arc/sec pixel

Come vediamo, piu che parlare di ingrandimento, possiamo riferirci a questo valore per comprendere che anche in questo caso, a parità di sensore, una focale piu spinta diminuisca la porzione ripresa per ogni pixel, viceversa accorciandola, aumenti.

Questo inoltre suggerisce un altro aspetto: cioè che se io volessi sapere quanta “porzione” di cielo riprende il mio sensore con un determinato telescopio, posso semplicemente moltiplicare il valore arcosec/px per il numero dei pixel presenti nel sensore.

Rifacciamo quindi il calcolo tenendo presente i due campionamenti, sapendo la risoluzione della reflex che è 4,272 × 2,848.

a) Newton 1250mm di focale con canon

 0,85 x 4,272 = 3.631 arcosecondi in larghezza del sensore

e 0,85 x 2848 = 2420 arcosecondi in altezza del sensore

Li dividiamo per 60 e abbiamo il valore in primi che diventa: 61 x 40 circa.

b) Rifrattore 347mm di focale con canon

3,09 x 4272 = 13200,48

3,09 x 2848 = 8800,32

Li dividiamo per 60 e abbiamo il valore in primi che diventa = 220 x 146 e rotti.

Abbiamo quindi visto che a parità di sensore,  aumentando la focale diminuisce la quantità di cielo ripresa per ogni singolo pixel e analogamente diminuisce il campo inqudrato dal sensore.

L’IMPORTANZA DEGLI ARCOSECONDI

Fino ad ora ci siamo concentrati nel comprendere come ricavare il dato, veidamo ora in cosa può esserci utile

a) Nello stabilire opportunamente il sistema di guida: conoscendo quanto “cielo” viene visto da un pixel nel sistema di ripresa e quanto “cielo” viene visto da un pixel nel sistema di guida, posso comprendere il rapporto reale che esista tra i due sistemi e quindi valutare se il sistema di guida campiona in maniera sufficiente a consentire

b) nella possibilità di conoscere le posizioni degli astri: tipica condizione su cui si basa qualsiasi sistema di plate solving, siamo nel campo dell’astrometria. Tramite la conoscenza del valore di campionamento, abbiamo la possibilità di conoscere la distanza angolare tra due astri, e riconoscere cosi le velocità (ad esempio) angolari di spostamento di un asteroide, o di una cometa, o semplicemente indivudare un campo inquadrato tramite il calcolo delle distanze tra piu stelle

c) nella possibilità di decidere con quale ottica riprendere in base al seeing: essendo il seeing determinato dal movimento delle masse d’aria che spalmano la figura della stella ed essendo anch’esso espresso in arcosecondi, possiamo decidere in base alle condizioni del seeing con quali accoppiate sensori telescopio operare in modo da facilitare la raccolta del segnale. Ecco un esempio di una tabella prelevata dal sito treckportal, tabella relativa a campionamenti consigliati per riprese planetarie:

tab_campionamento

d) Nella conoscenza findamentale del proprio sistema ottico basato sul campionamento: considerando che il campionamento rappresenta un indicatore qualitativo relativamente alla registrazione dell’informazione sul sensore, e considerando che questo viene teoricamente considerato efficace per valori che variano da 1,5/2 arcsec/pixel, abbiamo modo di comprendere quanto il nostro sistema sarà pronto a registrare correttamente le informazioni. Qualora si abbiano quindi valori troppo alti, o troppo bassi di campionamento, subentra il rischio di ottenere pose piu rumorose ed effetti indesiderati sui nostri frame e che richiederanno quindi interventi di post elaborazione piu incisivi.

Questi sono solo alcuni degli aspetti che suggeriscono l’importanza di conoscere quindi il valore di campionamento in arcosecondi del nostro sistema di ripresa. Farò poi un ulteriore articolo dedicato esclusivamente all’autoguida e al rapporto tra questa e il sistema di ripresa, argomento spesso messo da parte da noi neofiti e che invece merita un focus approfondito sopratutto nel momento dei primi acquisti.

Stay Tuned e se non è chiaro, chiedete!

Leggi Anche: I files di Calibrazione

Leggi Anche: Alcuni tipi di sensore e cenni sul loro utilizzo

Dopo aver parlato dei files di calibrazione ed aver visto alcune tipologie di sensori, è arrivato il momento di dire due parole sull’acquisizione. Rivolgendomi quindi ai neofiti, cercherò di spiegare qualche piccolo accorgimento per l’acquisizione con le reflex piuttosto che con i CCD sebbene buona parte di quanto scritto potrà poi essere parzialmente sfruttato con tali dispositivi.

FASI DELL’ACQUISIZIONE

Le fasi dell’acquisizione sono in buona sostanza queste:

  1. Scelta dell’oggetto da riprendere: sarebbe conveniente arrivare in loco con le idee già chiare. Quindi decidere se fare scatti alla luna oppure ad un largo campo su una nebulosa diffusa, o una galassia (esempio M31 etc). Oppure dei bei larghi campi sulla via lattea che sono davvero molto molto interessanti e spettacolari
  2. Stazionamento: se si utilizza un cavalletto senza inseguimento, questo potrà essere fatto a piacere. Mentre se si utilizza una montatura equatoriale, è obbligatorio stazionarla perfettamente con l’asse polare rivolto a nord seguendo procedure dedicate. Un altro dispositivo molto interessante e che ho visto in funzione è il geniale Minitrack di Christian Fattinanzi che permette di ottenere grandiose immagini!
  3. Eventuali dispositivi di autoguida, qualora si avesse a disposizione: questa fase è ovviamente rivolta a coloro che già hanno montatura equatoriale e sistema di guida e quindi si spingono ad esporre diversi minuti con focali oltre i 350mm
  4. Pianificazione degli scatti
  5. Fase di acquisizione
  6. Ripresa dei Flat Field di calibrazione
  7. Ripresa dei Dark di calibrazione

FOCUS SUI PUNTI 4. E 5.

ovvero: pianficazione degli scatti e fase di acquisizione

PIANFICAZIONE

La pianificazione degli scatti è il primo step che porta ad una concreta ottimizzazione della serata fotografica. Sostanzialmente, scelto un oggetto (io ne consiglio non piu di 2 a sessione ma in pratica non mi spingo oltre al singolo oggetto: 1 oggetto a sessione), è opportuno leggersi qualcosa online che ne spieghi le caratteristiche. Io trovo molto utile wikipedia ad esempio, ma sono tantissimi i siti di associazione astrofili che trattano sicuramente gli oggetti piu famosi.

Pianificare gli scatti quindi in buona sostanza significa avere a disposizione una tabella mentale da seguire durante la notte. L’importanza di questa tipologia di forma mentis è presto detta con un esempio molto banale: supponiamo di voler fotografare la nebulosa di orione. Questo oggetto ha la caratteristica di avere un centro molto luminoso (è visibile anche a occhio nudo!) mentre le parti piu esterne sono decisamente deboli. Lo scopo della pianificazione è quella di cercare di ottenere una immagine dove il centro non venga bruciato, mentre devono essere presenti le parti esterne: per ottenere questo risultato è necessario effettuare una serie di scatti a ISO diversi e con durate diversi. Un esempio potrebbe essere questo:

N. 50 scatti Iso 200 da 10 secondi

N. 30 scatti Iso 800 da 20 secondi

N. 15 scatti Iso 800 da 40 secondi

Quando poi andremo a mediare tutte le immagini tramite una mediana ed applicando un filtro chiamato “DDP” (che vedremo in altri articoli) ecco che spunterà un centro immagine non eccessivamente saturato e parti deboli molto piu visibili.

Altro esempio, invece, potrebbe arrivare da galassie come Andromeda che possono ritenersi similari alla nebulosa di orione: centro luminoso, bordi deboli.

Infine potrebbe anche verificarsi il caso di oggetti che non presentano forti differenze di luminosità e in questo caso è posisibile spingere con le pose (5 minuti, 7 minuti, 10 minuti e oltre) ed effettuare una sessione dove le immagini raccolte sono tutte della stessa durata e stessa impostazione di Iso; è il caso ad esempio degli ammassi aperti in cui è presente nebulosità.

ACQUISIZIONE

Capire quanto esporre non è particolarmente complesso, l’importante è fidarsi un pò dell’elettronica. Dico questo perchè buona parte delle immagini grezze (cioè non sommate) sembrano sempre sottoesposte o non mostrano in dettaglio le parti deboli dell’oggetto. Questo sulle prime può far pensare che non si sia raggiunto un buon compromesso tra le impostazioni degli scatti, ma in realtà non è detto che sia cosi; i sensori, rispetto alla pellicola, sono lineari. Questo significa che i valori dei singoli pixel aumentano all’aumentare della durata della posa in maniera appunto lineare col risultato che essendoci una differenza sostanziale tra parti luminose e parti meno luminose, le seconde risultano essere molto meno percettibili da uno schermo…ma ci sono.

Leggendo moltissima didattica online ed acquistando diversi libri, sono arrivato alla conclusione che ha ragione chi sostiene che  l’elemento da tenere d’occhio è l’istogramma ed il motivo è questo: la fotografia (ed in particolare l’astro-fotografia) si basa in buona sostanza sul contrasto. L’elemento fotografato emerge rispetto al fondocielo perchè avendo una luminosità diversa, viene “staccato” rispetto al fondo. Quando esponiamo il nostro sensore, viene raccolta luce non solo dall’oggetto, ma anche dal fondocielo stesso che è una componente comunque luminosa: il fondocielo non è nero, diversamente da come si può pensare, ma ha una sua luminosità. Questa caratteristica ha ovviamente un impatto sulla creazione dell’immagine digitale e quindi anche sull’istogramma.

Tradotto in pratica, significa che se noi abbiamo un istogramma la cui curva viene tagliata dal limite sinistro, non abbiamo esposto abbastanza perchè abbiamo tagliato una parte del fondocielo e quindi probabilmente anche una parte dell’oggetto stesso, nelle sue parti meno luminose. Ecco quindi che l’istogramma ci fornirà immediate informazioni sullo “stato” dell’esposizione, come segue (immagine tratta dal sito www.tuttoleo.it)

Istogramma2

Da notare come la sottoesposizione taglia e “ruba” informazione ai frame!. Altro aspetto parimenti pericoloso è la sovraesposizione, perchè anche questa si traduce in una perdita di informazione. Quando si sovraespone, si creano delle parti “bruciate” nell’immagine che fornisce l’indicazione di una serie di pixel che hanno ricevuto troppa luce, saturandosi. Quando questo avviene, il pixel diventa “bianco” e perde qualsiasi dinamica e qualsiasi possibilità di recuperare l’informazione che è cancellata proprio dalla sovraesposizione.

Come ragionare quindi? Prendendo tout court esemplificazioni che potete trovare in numerose dispense e articoli online c “semplicemente” basta scattare con una posa sufficiente a staccare il nostro istogramma rispetto alla parte sinistra, con una durata che permetta di posizionare la curva dell’istogramma in una zona che va da 1/4 a 3/4 tra la parte sinistra e quella destra. Questo significherà che avremo raccolto anche il fondocielo con le sue dominanti, quindi a rigor di logica l’oggetto sarà stato tutto “raccolto”. Bisognerà solo estrarlo in fase di elaborazione…

Nota: anche durante le fasi dell’elaborazione, è bene tenere presente questo concetto. In generale, c’è la tendenza di noi neofiti ad ottenere un cielo forzatamente scuro. Questo è dato sia dall’inesperienza che dall’ammanco dei file di calibrazione, i flat sopra tutti. Questo porta ad avere ad esempio una vignettatura che si cerca poi di eliminare “cancellando” il fondocielo e portandolo ad un improbabile colore nero pece, ma in realtà stiamo rubando informazione e rovinando l’immagine…l’istogramma non mente.

AUMENTARE GLI ISO O AUMENTARE LA DURATA DELLE POSE?

Ecco una bella domanda, che spesso mi son sentito porre e che io stesso ho posto nelle fasi iniziali della mia passione, con risposte molto discordanti a volte. Diciamo che nel tempo ho cercato di sviluppare una forma mentis aiutato sia dalla didattica che dalla logica.

Partiamo con ordine: acquistiamo una reflex. Questa reflex è fichissima, ha un sacco di megamiliardi di pixel e ha una caratteristica incredibile: arriva a ISO 22.340.353,31. La percezione che ci arriva è che questo valore sia “fondamentale” per definire una reflex “di buona qualità”, dal momento che la logica “terra terra” suggerisce che sia una camera molto sensibile. Oppure, si ha la tendenza a ragionare che aumentando gli Iso aumenta anche la sensibilità. Purtroppo, questo non è niente di piu sbagliato. Se ragioniamo un attimo, infatti, un sensore non ha la possibilità di essere “modificato” nelle sue caratteristiche costruttive da alcun software: se un sensore ha una sensibilità X, quella è e non c’è modo di cambiarla.

Ciò che invece andiamo  a modificare aumentando (o diminuendo) gli ISO è la risposta del firmware che tratta ahimè una pre-elaborazione dell’immagine per portarla al nostro schermo con determinate caratteristiche. Se ci fermiamo a pensare un attimo, vediamo che in buona sostanza, la nostra azione di agire sugli ISO non fa che prendere i dati raccolti dal sensore e modificarli. Per paragone, possiamo intuire che ciò che avviene aumentando gli ISO altro non è che la modifica di una curva di luce, stessa azione che si farebbe con Photoshop col risultato che non solo si va ad aumentare l’entità del segnale buono, ma anche l’entità del rumore di fondo che non viene filtrato (nota: il noise reduction del firmware va disattivato quando si fanno astrofotografie!).  Inoltre, aumentando gli iso aumenta la probabilità che la curva applicata dalle impostazione di iso alte mandi in saturazione l’immagine col risultato che piu si aumentano gli ISO e piu l’immagine si appiattisce perdendo dinamica e rischiando una saturazione.

Detto questo, è altrimenti vero che diminuire troppo gli ISO (esempio ISO 100) non permette al firmware di riconoscere quali siano le parti “buone” dell’immagine e quindi valori prossimi allo zero (ma che non sono zero!) vengono portate a zero, cioè a nero. Ricordiamoci che nelle reflex il firmware viene creato per far ottenere ottime immagini diurne e a portata di novelli fotografi….questa caratteristica può essere dannosa in astrofotografia.

In buona sostanza, questo concetto ci porta ad una condizione base: aumentare gli Iso non è una soluzione per ottenere immagini piu spinte, perchè diminuisce la dinamica e aumenta il rumore. Viceversa, diminuirli troppo permette al firmware di “sgranocchiare “parti deboli dell’immagine.

In linea generale, io non vado mai oltre gli 800 Iso, compromesso ritenuto valido da molti astrofotografi anche per motivazioni fisiche: in pratica, tra i 400 ISo e gli 800 Iso si può ritenere che il firmware prenda l’immagine del sensore nella maniera piu neutrale possibile, intervenendo molto meno con ritocchi sulle luminosità.

Considerando che scattare a 800 Iso si ottiene una buona dinamica complessiva dell’immagine, risulta quindi vantaggioso aumentare i tempi di posa fino al verificarsi della condizione di istogramma spiegata nel paragrafo precedente. La risposta alla domanda quindi è: meglio aumentare i tempi di posa.

Nota: può capitare però che il sistema di autoguida del nostro setup non sia particolarmente performante o che non si disponga di un’autoguida. In questo caso, ovviamente, aumentare i tempi di posa può essere controproducente col rischio di trovarsi numerose foto mosse. Inutile dire che qualora ci si trovi con questo limite, è bene aumentare gli iso tenendo però sempre in considerazione che se già si sta staccando il fondocielo, questa azione potrebbe essere superflua.

QUANTE IMMAGINI SCATTARE?

Andando avanti con la logica appena spiegata, vien da se che piu immagini si scattano e maggiore sarà il rapporto tra il segnale e il rumore ottenibile in fase di media delle immagini. In generale, io ho visto come migliori sensibilmente la qualità dell’immagine e la possibilità di estrarre segnale applicando una mediana su almeno 20 immagini. Quindi riterrei opportuno non spingersi con pose inferiori.

Ma in buona sostanza meglio scattare tante immagini a corta posa o poche immagini a lunga posa? Anche qua vale la solita logica..dal momento che la mediana delle immagini permette di migliorare il rapporto tra il segnale ed il rumore e dal momento che aumentare i tempi di posa aumenta la generazione del rumore, qualora si ottenga un oggetto ben staccato (vedasi istogramma) è opportuno aumentare il numero delle pose in quanto ogni immagine contribuirà a definire nettamente ciò che è segnale e ciò che è rumore.

Torniamo quindi alla motivazione delle mie 20 pose spiegate prima.

TIPS & TRICK

Per concludere questo articolo, direi di elencare una serie di consigli che io sono solito adoperare, tenendo presente che il nostro obbiettivo è avere a disposizione un buon segnale e bypassare alcune funzioni che i firmware applicano in automatico alle nostre immagini reflex:

  1.  eliminazione di tutte le impostazioni di “facilità” o altrimenti dette Utilityes, del firmware. Quindi niente noise reduction
  2. Impostazione Iso 800
  3. Range di esposizione a step fissi: possibilmente cercare di fissare dei tempi di posa standard: esempio 3 minuti, 5 minuti, 7 minuti, 10 minuti e muoversi sempre su quelli in modo da evitare di fare 3 minuti e 24 secondi o 7 minuti e 50 secondi. Questo aiuterà poi nell’applicazione dei dark e nella creazione di librerie di file di calibrazione
  4. Lasciar riposare il sensore: dal momento che il sensore scalda durante l’acquisizione, lasciare un tempo di riposo tra una posa e l’altra permette di far raffreddare un pò il sensore diminuendo cosi la generazione di rumore termico. Io solitamente imposto 30 secondi di pausa tra una posa e l’altra.
  5. Spegnere lo schermo posteriore: le reflex (o almeno la mia canon lo fa) quando non è in fase di scatto mantiene attivo lo schermo posteriore col risultato che questo scalda. Anche il live view ovviamente scalda e va disattivato dopo aver fatto il fuoco e non piu riutilizzato se non per eventuale posizionamento degli oggetti nell’inquadratura.
  6. MAI ACQUISIRE IN FORMATO JPG MA UTILIZZARE IL RAW!!

APPROFONDIMENTO

Di seguito un bell’elenco tratto dal sito fotoastronomiche.it

  • Scatto singolo ([]);

  • Programma Esposizione Manuale (M);

  • Selezionare ISO 400, 800, 1.600, 3200 in base alla temperatura ambiente, tempo di esposizione, soggetto da riprendere, eventuale raffreddamento cella Peltier se presente;

  • Anteprima immagine spenta (se si utilizzano programmi in remoto da pc, come Dsrl Focus ed i più recenti Nebulosity e Canon Eos Backyard);

  • Se si usa il comando a distanza o scatto remoto l’anteprima sul display massimo da 2 secondi per non scaldare troppo la macchina;

  • Attivare il live view con zoom 10x per una messa a fuoco precisa da display della reflex;

  • Autofocus spento in caso di utilizzo di obiettivi fotografici, spegnere lo stabilizzatore se presente ed impostare su messa a fuoco manuale MF;

  • Bilanciamento del bianco sul luce diurna (AWB) se la camera non è modificata baader o full spectrum mentre con la modifica del filtro occorre fare manualmente il bilanciamento del bianco;

  • Selezionare il formato Raw (o Raw + JPEG che viene nominato RAW+L, vantaggio ulteriore salvataggio per una consultazione delle immagini JPG più veloce del corrispondente RAW nelle cartelle);

  • Risoluzione alla massima qualità se si dovesse operare con il formato JPG (L);

  • Disattivare la riduzione automatica del rumore in quanto verranno ripresi i dark frames separatamente in un secondo tempo;

  • Disattivare l’eventuale funzione di Sharpening;

  • Contrasto e saturazione del colore lasciare a metà scala nel caso dell’uso del formato JPG;

  • Selezionare lo spazio colore sRGB;

  • Disattivare il FLASH;

  • Per pose superiori ai 30 secondi selezionare la voce, tasto BULB nel menù dei tempi;

  • Assicurarsi che la scheda di memoria (almeno qualche Giga byte) sia inserita nella camera;

  • Assicurarsi che la batteria sia ben carica e provvedere alla scorta di 1 o 2 batterie di ricambio oppure un cavo di alimentazione a rete;

  • Memorizzare in una impostazione personalizzata tutti i passaggi elencati.

Michele Bortolotti ed Erika Mocci (per consulenza info.fotoastronomiche@gmail.com)

Buon Lavoro!

 

————————————————————————————————————————————————————————-

 

 

 

 

Leggi: Work Flow Astrofotografia: i files di calibrazione

In questo secondo appuntamento di questo piccolo contributo nell’astrofotografia, volevo un pò introdurre il funzionamento dei sensori di ripresa cercando ove possibile di spiegarne le modalità di utilizzo. Debbo però anticipare una premessa: essendo io un neofita, posso sbagliarmi o scrivere alcune inesattezze. Nel mio percorso cerco sempre di auto-correggermi quando qualcosa non la capisco bene, quindi bene o male penso che ciò che andrò a scrivere possa trovare una condivisione da parte di astrofotografi di livello. Se cosi non dovesse essere, prego quindi di commentare per segnalare errori.

Bene..dal momento che i nostri amati dispositivi elettronici sono il mezzo che ci permetterà di raccogliere i fotoni, è bene spendere due parole partendo in una scala di importanza e di costi. Verranno, in questo frangente, tralasciate le webcam dal momento che seppur i funzionamenti siano del tutto analoghi ai sensori fotografici puri, nell’astrofotografia vengono impiegate maggiormente per foto planetarie o autoguida. Non che queste siano meno importanti, tutt’altro, ma preferisco concentrarmi sulla ripresa di immagini deep sky sempre tenendo comunque presente che i criteri e le caratteristiche sono poi sempre applicabili a questa tipologia di dispositivi.

Partiamo da una condizione tipo: un neofita che vuole riprendere la sua prima immagine deep sky, la prima azione che fa è andare su google e chiedere infomazioni a questo. L’approccio è molto comune, ma non nascondo che io stesso quando iniziai circa due anni fa, operai in questo modo trovandomi di fronte a un mare di dubbi e di problematiche date anche dal fatto che questo mondo all’inizio è pieno di difficoltà interpretative. Va meglio un sensore? Va meglio l’altro? Cos’è un CCD? Partiamo quindi con ordine, cercando di sfruttare alcune informazioni che abbiamo a disposizione e sfruttando una logica base che è la seguente:

“Cosa dice la teoria e cosa ho a disposizione.”

Questa seppur sembri in prima istanza una grande banalità, racchiude una chiave di lettura importante per districarsi tra quello che è “teoria” e quello che  “pratica”. Il motivo è presto detto: spesso quando le cose “non si sanno” (io soprattutto agli inizi mi sono girato mezzo web alla ricerca di informazioni e spesso non riuscivo a comprendere ciò che stava alla base)  si cercano informazioni online o parlando con astrofili di livello, ci si trova di fronte ad una marea di informazioni molto discordanti tra loro. Un esempio potrebbe essere quello relativo al gap di performance tra sensori a colori rispetto a quelli monocromatici. Per alcuni riprendere con sensori a colori può rappresentare un vantaggio enorme, per altri invece il limite di sensibilità dato da questi rappresenta un limite da cui è bene tenersi a bada. Chi ha ragione? Tutte e due le scuole di pensiero. Chi devo seguire per scegliere correttamente? Dipende…da un lato è dimostrabile facilmente come un sensore a colori sia nettamente meno sensibile e versatile rispetto ad un sensore monocromatico (cioè in bianco e nero) ma dall’altro è anche vero che chi utilizza adeguatamante sensori a colori è in grado di ottenere ottime fotografie. Paragonare le immagini avrebbe relativamente senso, dal momento che il processo di creazione di una astroimmagine di qualità passa attraverso numerose azioni che vanno dallo stazionamento, alla strumentazione, al tipo di cielo, alla tecnica di ripresa e all’occhio e all’esperienza di chi la elabora. Ecco un esempio, con questa fotografia scattata con un sensore a colori, scattata da Giovanni Leoni alias Astrobond. Prendiamoci sempre un pò di tempo per osservare…

unnamed

Questo serve per spiegare un pò il divario tra la teoria e la pratica che spesso anima le discussioni tra forum (e non solo!) Di base, penso però sia sempre opportuno affrancare un acquisto partendo da una logica teorica dal momento che noi neofiti non abbiamo abbastanza esperienza. Pertanto, se (come mi è capitato) dovessi scegliere tra un acquisto di un CCD a colori o un CCD monocromatico la scelta cadrebbe (ed è caduta) in favore del monocromatico. In generale è questa la logica con cui procedo io agli acquisti: prima cerco di capire che teoria si nasconde dietro ad un determinato processo di imaging (o di ricerca) dopodichè valuto cosa offre il mercato. A quel punto, cerco il miglior compromesso bilanciando l’impossibile perfezione matematica della teoria con le reali possibilità sia economiche che di utilizzo. Se invece non ho in programma acquisti, adatto ciò che già posseggo cercando di spremerlo al massimo. E cosi “salta fuori” che è vero che ad esempio un sensore monocromatico è molto piu sensibile e versatile di uno a colori (sperimentato sulla mia pelle), ma è anche vero che considerando la mia scarsa esperienza in ambito astrofotografico,  al momento ottengo foto dignitose principalmente con la reflex, mentre il monocromatico ancora devo imparare a sfruttarlo a dovere. Ma è chiaro che quando imparerò, avrò tra le mani qualcosa di molto piu sensibile, molto piu performante e concepito esclusivamente per questo tipo di fotografia.  Quindi è bene sempre ragionare in piu direzioni, non dare nulla per scontato e soprattutto conoscere prima di buttar via soldi (in questa passione a volte il rischio c’è a causa della possibilità di effettuare scelte sbagliate….)

IL FUNZIONAMENTO DI UN SENSORE

Spiegato “alla contadina” con i conti “della serva”

Affrontando il discorso sullla tipologia di sensori, è bene conoscere almeno sommariamente il processo fisico che porta all’acquisizione di una immagine. Si può spiegare in due parole, ovviamente a portata di neofita e per questo motivo assolutamente incomplete ma coerenti.

Abbiamo una galassia posta a milioni di anni luce da qua. Le stelle di questa galassia sono un pò irascibili perchè soffrono parecchio il caldo e quindi sparano fotoni, dando loro un bel calcione (quando si dice che l’universo è violento si intende questo: è tutto una grande incazzatura.). Il fotone, con le terga doloranti,  inizia quindi un viaggio insieme a tutti i fotoni emessi; una sorta di esodo di ferragosto, ma senza code per fortuna al massimo qualche deviazione…bene. Questo bel viaggio dura milioni di anni perchè si sa che i fotoni se la prendono comoda dal momento che tanto non hanno di sicuro niente da fare, ma un ruolo ce l’hanno e cioè venire raccolti dal nostro telescopio. Quindi, un pò come andare a caccia di farfalle, ciò che si fa quando si è in sessione è in buona sostanza questo: raccogliere fotoni. I nostri fotoni attraversano quindi il tubo e colpiscono il sensore. Il sensore è un wafer di materiali fotosensibili disposti a cella, chiamati “pixel” Il pixel reagisce quando colpito da un fotone generando un elettrone. Quando noi aumentiamo il tempo di esposizione, raccogliamo piu fotoni, quindi proporzionalmente piu elettroni secondo una prprietà di conversione definita “efficienza quantica” che rappresenta il numero di fotoni che il sensore è in grado di convertire in elettroni (esempio: efficienza quantica del 50%, raccolgo 100 fotoni, solo 50 verranno convertiti in segnale utile); nel momento in cui  terminiamo questa acquisizione il pixel scarica gli elettroni creando una sorta di corrente, o segnale elettrico. Questi elettroni verranno poi amplificati da un amplificatore, e verranno contati da un ragioniere elettronico col pallottoliere che dirà “il pixel 1 ha 10 elettroni, segna!” …”il pixel 2 ha 20 elettroni, segna!”…”il pixel tre è andato giu di testa e si è bruciato, nullo”….etc. Infine questi valori verranno convertiti in formato digitale, cioè un insieme di 1 e di 0 messi in serie, creando cosi il bit. Il bit viene raccolto in gruppi di 8, di 14, di 16 etc. determinando cosi il tipo di conversione: 8 bit, 14 bit, 16 bit che rappresentano in buona sostanza la gamma di grigi che possibile ottenere su un singolo pixel. Un sensore a 8 bit ha 256 livelli possibili di gamma, un 16 bit 65000 circa etc. il che tradotto significa che un pixel accoppiato con una elettronica a 16 bit può essere rappresentato con 65000 diversi tipi di grigio permettendo quindi di ottenere una immagine complessiva maggior dinamica e differenziazione di colori/segnale e bla bla bla…

Chiaro quindi? Fotone, convertito in elettrone, convertito in segnale elettrico, amplificato, convertito in bit e pronto quindi per essere digerito dal pc. Per sognare un pò, è bello anche sapere che l’immagine che avete stampato su carta altro non è che la raccolta di fotoni provenienti dall’universo.

MONOCROMATICO O COLORE

Come ho scritto pocanzi, il sensore monocromatico è piu sensibile. La motivazione è molto semplice: tutti i sensori nascono monocromatici. Si esatto…non esiste il sensore a colori, lo si chiama cosi per convenzione, ma il sensore di per se è monocromatico. “Diventa” a colori quando sopra al sensore si va ad applicare una matrice, chiamata matrice di Bayer, che è formata da un pattern di microlenti colorate, un colore per ogni pixel, la “trama” base copre 4 pixel adiacenti. Queste microlenti sono colorate in questa sequenza: “R-G-B-G” cioè red, green, blue, green.

bayer_grgb

Ovviamente, viene da sè che se io fotografo un oggetto completamente rosso, i pixel che lavoreranno di piu saranno quelli con la microlente che lascia passare quella lunghezza d’onda mentre le altri microlenti lavoreranno poco o niente e cosi i rispettivi pixel.

Se invece non avessi questa matrice, il pixel riceverebbero sempre la stessa quantità di luce, tutti, a prescindere dalla composizione dei colori (in realtà non proprio vero per via delle curve di sensibilità ma il concetto è questo). Ecco quindi motivata la maggior sensibilità del sensore mono rispetto a quello a colori. Essendo un limite fisico, questo è reale e inoppugnabile.

Se vogliamo quindi ottenere immagini a colore con un sensore monocromatico, quindi, basterà anteporre di fronte al sensore un filtro. Esistono dei kit composti da tre filtri, RGB (piu la luminanza ma questo lasciamo perdere per ora) che permettono di scattare immagini in cui vengono fatte passare solo le lunghezze d’onda del canale rosso, verde e  blu. Le tre lastre monocromatiche cosi ottenute vengono poi compositate tra loro creando cosi una immagine a colori. Un esempio è questa mia foto, ottenuta con questa tecnica, ma se fate un giro online vedrete foto davvero mozzafiato create proprio grazie alla maggior sensibilita del sensore “nudo e crudo”.

crescent

TIPOLOGIA DI SENSORE

Tecnicamente i sensori che vanno per la maggiore si differenziano in due macro-tipi: sensori CCD e sensori CMOS.

Ciò che differenzia le due tipologie è ovviamente l’architettura interna, relativamente alla costruzione di base, lo stadio di amplificazione e lo stadio di conversione. In poche banali parole, si può dire che mentre nel CCD lo stadio di amplificazione avviene tramite un amplificatore posto esternamente alla superficie di ripresa, nel CMOS questo processo avviene tramite l’apposizione dell’amplificatore direttamente nella parte sottostante il pixel. L’amplificazione del segnale è uno dei processi che portano alla generazione e all’emersione di rumore elettronico, quindi già da qui si può iniziare a pensare che il CCD logicamente sarà meno rumoroso dal momento che l’amplficatore è uno solo, rispeto al CMOS che ha tanti amplificatori quanti sono i pixel. Siccome gli amplificatori non lavorano tutti alla stessa maniera, ecco una sicura motivazione per cui il CCD è generalmente meno rumoroso.

Il mercato ha dato ampio spazio ai CCD fino a qualche lustro fa, dopodichè lo sviluppo della tecnologica CMOS ha permesso di ottenere sensori di ottima qualità a basso costo e soprattutto a basso consumo al punto che oggi su una comune reflex è difficile trovare l’applicazione di sensori CCD, mentre nella quasi totalità dei casi è presente un sensore CMOS. Dico questo perchè è molto piu probabile che se si voglia incominciare a fare astrofotografia con ciò che si ha in casa, si abbia a disposizione una reflex e quindi è bene sapere quali saranno le maggiori problematiche.

Sicuramente il primo è relativo al rumore, come appena spiegato. Il sensore scalda e pure parecchio, al punto che a volte può essere presente maggiormente rispetto ad un CCD un certo fenomeno detto di “elettroluminescenza” dato da calore aggiuntivo generato dall’elettronica di corredo. Ecco un esempio:

amp-glow-diodo-protezione

Le case produttrici di dispositivi di acquisizione tramite CCD invece solitamente inseriscono una cella di peltier proprio dietro al sensore. La cella di peltier è definito tecnicamente “un marchingegno magico che tramite oscuri incantesimi ed energie insospettabili tiene bassa la temperatura del sensore”. Ahahaha scherzo, si può leggere qualcosa qua: LINK. Si è capito che tenendo bassa la temperatura di un sensore, non solo aumenta la sua sensibilità ma diminuisce drasticamente la produzione del rumore. Come dicevamo nel primo articolo, e come si può vedere, tutto è volto sostanzialmente ad eliminare il rumore….

Un’altra caratteristica è che TUTTI i sensori sarebbero sensibili a gran parte dello spettro visibile (e anche leggermente oltre), solo che nelle reflex questa peculiarità rappresenterebbe un limite dal momento che le stesse vengono concepite per l’uso diurno. Pertanto, sopra al sensore viene messo un filtro che taglia tutto l’infrarosso rendendo una reflex cieca alle nebulosità ad emissione, tipicamente nella gamma che va dal debole rosso dell’Idrogeno Alfa in poi e purtroppo per noi l’Idrogeno è la componente piu presente nell’universo. Pertanto, dispondendo di una reflex non modificata, scattare immagini a nebulose ad emissione può essere poco entusiasmante, anche se va detto che qualcosina in questo ambito si riesce comunque a scattare, a patto però di lavorare bene in acquisizione e di avere un inseguimento perfetto quando si riprendono oggetti del genere: è sempre bene provare per rendersi conto delle potenzialità. Ci vinee comunque in salvo la possibilità di “deviare” questo problema effettuando la modifica alla reflex dal costo intorno alle 200 euro, ove si mette di fronte al sensore un filtro astronomico togliendo quello originale. Un esempio viene riportato in questa discussione LINK.

Occhio perchè questa modifica invaliderà la garanzia oltre a sbilanciare un pò i colori nel diurno (facilmente ribilanciabili) e a far perdere la messa a fuoco automatica. Ulteriore alternativa piu “spinta” è quella invece di togliere il filtro originale e lasciare il sensore nudo. Ovviamente è la piu “rischiosa” perchè il sensore è esposto direttamente a tutti gli agenti metereologici oltre alle polveri, inoltre lo sbilanciamento sarà terribilmente piu pronunciato verso il rosso (uhm..magenta…odioso!) ma io ho scelto questa alternativa e dopo circa 8 mesi di tentativi sono riuscito a bilanciare quasi correttamente i colori delle immagini, guadagnando in sensibilità.

Ci sarebbe anche da dire che Canon (e ora anche Nikon) hanno preparato delle camere apposite per l’astrofotografia e la fotografia diurna, nel caso della canon ad esempio la 60Da. Il punto è che la domanda da porre è questa: conviene acquistare una macchina come questa piuttosto che modificarne una usata? Io non rispondo, la valutazione è personale. Un mio grandissimo amico utilizza con buoni risultati una 60Da, ma l’opzione per l’acquisto la si deve fare in base alle proprie necessità e alle proprie mire.

Altra caratteristica della reflex è il firmware di corredo che gestisce buona parte delle impostazioni utili nel diurno ma che a volte possono dar fastidio nella ripresa astronomica o essere di ingombro come ad esempio l’ostinata preoponderanza a volerti tirar fuori la foto bella a tutti i costi secondo i parametri “diurni”. Le case produttrici fanno magie coi firmware, che intervengono e dicono “siccome TU non sei capace, la foto te la faccio IO!”. E quindi giu di correzione sui rumori, sui colori, etc.etc. Ecco, meno roba usate di queste cosine qua, meglio è. Nei CCD per utilizzo astronomico, tutto questo non c’è e la tendenza è quella di lasciare intatta l’immagine come l’hai scattata, tranne per qualche caratteristica.

Oooo bene, direi che piu o meno come infarinatura generale ci siamo. Mi sono spinto piu a parlare di Reflex perchè come già anticipato suppongo che noi neofiti partiremo da questo dispositivo qua, come è capitato a me.

Bene, ora che vi ho fatto un parziale elenco delle caratteristiche meno propedeutiche per il nostro lavoro di astrofotografi, dobbiamo renderci conto che in realtà abbiamo tra le mani un oggetto che per le astrofotografie dice la sua. Perchè a basso costo abbiamo

a) un dispositivo che ha un sensore enorme. Se dovessimo avere uno stesso campo inquadrato con un ccd, prepariamoci a sborsare migliaia di euro perchè i ccd costano. Vanno meglio, possiamo dire che non siano proprio paragonabili,  ma costano.

b) un dispositivo che volendo ci permette di fare foto sia al telescopio di notte, che della fidanzata di giorno.

c) uno strumento didattico incredibile, perchè quando si impareranno a gestire i punti a sfavore, si potrà dire di aver un pò di esperienza

d) sarà sempre rivendibile. Sia in ambito astrofotografico (se si è fatta la modifica) sia in ambito fotografico standard.

Per quanto concerne il rumore, ricordarsi sempre la calibrazione con i Dark (e i Bias ove necessari), questo aiuterà a togliere un pò il disturbo.

Una considerazione? Tutti gli astrofotografi, davvero tutti, hanno in casa almeno una Reflex quindi non bisogna abbattersi ma agguerrirsi ancora di piu. Ci sono galassie, ammassi globulari, campi estesi di stelle, via lattea etc.etc. da scattare con reflex non modificate. E ci sono tutti i restanti oggetti che si possono riprendere con reflex modificate. Poi il resto verrà…Considerando magari il CCD come scelta “matura”, magari da fare in futuro.

Ecco un bell’esempio di immagine scattata dall’astrofotografo Filippo Bezzi con una reflex Canon Eos 7D non modificata:

11856432_1043300949026881_4956408681443942278_o

Nel prossimo articolo probabilmente scriverò qualche accorgimento semplice e logico per sfruttare una reflex in ambito fotografico, oltre ad alcune cosette che sto scoprendo in merito ai CCD in modo da rendere fruibile quanto scritto in questo papiro.

Aaaaa…FINE.