Articoli

E cosi siamo arrivati finalmente al 6 gennaio.

Se i lettori si ricordano, lanciai un appello dopo la metà di dicembre, chiedendo di inoltrarmi un file utile a identificare quello che viene considerato dai neofiti come un “problema”, e cioè l’esecuzione corretta delle immagini “flat” di questo tipo di dispositivi.

Come già scritto nell’articolo che si trova a questo LINK , era mia intenzione farmi carico di aiutare qualche amico, dal momento che se è vero che questi dispositivi rappresentano il futuro dell’imaging astronomico, sarebbe stato un lavoro utile per me e per i NUMEROSI (RIPETO NUMEROSI!!) amici che me ne hanno fatto richiesta.

Purtroppo l’appello non ha avuto alcun risultato, solo 1 messaggio (UNO AHHAHAHA) mi è stato recapitato da una persona che personalmente ringrazio. In questa sede volevo però anche esprimere un pò il concetto che ci stava dietro a questa mia richiesta pubblica, e perchè ho scelto di operare in questo modo, raccontando un pò la “storia” di quella richiesta e ciò che avrei messo in campo.

L’antefatto

La questione mi è stata presentata con una domanda da parte di un bravissimo astrofotografo piuttosto conosciuto che leggendo il mio articolo “Quegli stramaledetti Flat” ha deciso di contattarmi per chiedermi di calcolare una base di partenza valida per l’esposizione di un flat con quella logica applicandola ai sensori CMOS di ultima generazione. Essendo io una persona decisamente pragmatica e prevedendo alcune contestazioni che ormai di norma infestano anche l’acqua calda, gli ho proposto un lavoro fatto in maniera piu completa tirando però in mezzo anche chi usa questi benedetti sensori. A me non piace proprio sparare dei valori a casaccio, non ci sono portato..devo sedermi, analizzare la questione e poi si parla, altrimenti tutto diventa piuttosto banale e non farebbe che aumentare ulteriormente discussioni basate su pareri tirati là piuttosto che su dati oggettivi. Se non si fosse presentata la richiesta, io non sarei entrato nel merito e sinceramente nemmeno mi interessava la questione dal momento che io sono felicemente sposato con i miei CCD e non vivo alcun tipo di problematica.

Il lavoro di insieme

Per dare maggior affidabilità a quanto sarebbe stato scritto in merito a questa “curiosa” e “difficile” fase della calibrazione di un’immagine astronomica, e leggendomi MIRIADI di discussioni in merito (diverse ore di letture in pochi giorni, analizzando cose, facendomi passare file etc..) ho raggiunto un risultato alquanto visibile..e cioè.. c’è una grandissima confusione, da tutti i punti di vista. Pratico, informatico, operativo, tecnologico, informativo e costruttivo. Per questo motivo, avevo bisogno di scremare tutte le discussioni e di farne sostanzialmente un riassunto tabellare. Per fare questo avevo bisogno di almeno una cinquantina di risposte, in modo da poter intervenire su tutti i fattori causanti problematiche…dalle procedure, ai dispsoitivi utilizzati fino ad arrivare alla caratterizzazione dei sensori . Ho ritenuto che questa sarebbe stata anche una fantastica occasione per la nostra astrofotografia di approdare ad un lavoro di insieme, una collaborazione molto aperta che avrebbe dato un bel segnale a molte persone, proprio facendo toccare con mano quanto ci sia bisogno di collaborazione e unione in questa passione, un pò come era qualche anno fa.

La procedura

Quello che avrei messo in campo sarebbe stato questo. Dopo la raccolta dati, avrei messo in plot tutte le risposte ai punti in modo da focalizzare in percentuale quelle che sono le casistiche problematiche che insorgono nell’utilizzo “grigio” di questi dispositivi. Una volta raccolti i dati, avrei chiesto a due persone di riferimento (particolarmente esperti nel settore) di costruire una procedura CORRETTA per l’esecuzione di test di linearità. Non che io non lo sappia fare, ma semplicemente serivva qualcosa di CONDIVISO e SCEVRO di possibili errori interpretativi.

Una volta ottenuta la procedura, l’avrei girata a 5 astrofotografi bravi e di mia conoscenza che posseggono il sensore cmos piu famoso (Asi294) e avrei chiesto di seguire quella procedura , ripetendola per 5 range di offset e gain predefiniti. In questo modo avremmo avuto ben 5 risultati per ogni range di gain e offset, da verificare tra di loro e a quel punto si sarebbe ottenuto un test di linearità UNICO basato sulla media dei valori dei 5 dispositivi.

Fatto questo, mi sarei infine premurato di costruire una serie di articoli che favorissero l’emersione di alcuni valori di riferimento entro cui esporre un flat, co una procedura corretta da tenere sul campo (basata sull’emersione delle problematiche individuate dal “sondaggio) e un’esposizione corretta che tenesse conto SIA della linearità, SIA di quanto da me intuito nell’articolo Quegli stramaledetti flat

Fatto questo, ci sarebbe stato sicuramente un valore piuttosto concreto a cui riferirsi e sarebbe stato un lavoro fatto da parte di tutti e fruibile da tutti.

IN CONCLUSIONE

In conclusione, non gliene frega una cippa di niente a nessuno. Nemmeno a chi i flat li sbaglia sul campo e continua a lamentarsi dei sensori che non funzionano o intempestano gli hard disk di amici con intere sessioni da rielaborare.

Pertanto detto questo, rimanendo ancora a lungo un felice possessore dei vecchi CCD e quindi non vivendo queste problematiche ed avendo intuito davvero alcuni focus sostanziali e ricorrenti su buona parte dei sensori CMOS, ho raccolto tantissima documentazione e contattato diverse persone per toccare con mano alcune cose…però però… siccome ad oggi ognuno cura il suo orticello, ho deciso di tenermi per me quanto raccolto lasciando poi all’esperienza del singolo neofita il vederci chiaro, lo studio e lo sbattersi sotto cieli gelidi tornando a casa spesso e volentieri con frame problematici e la testa gonfia di pareri buttati li a velocità di social.

Ci vediamo al prossimo articolo

Cieli sereni

Fabio Mortari

Buongiorno a tutti

in questi giorni come molti sanno mi sono affacciato alla questione dei nuovi CMOS astronomici che sono venduti da qualche anno. Essendo stato piuttosto lontano negli ultimi due anni dall’ambito del “problem solving” pubblico, non ero a conoscenza delle problematiche che si leggono in giro nell’utilizzo di questi sensori e solo nell’ultima settimana sto cercando di capire di piu.

Il problema però è che ritengo ci sia tantissima confusione in giro, discussioni che iniziano e non finisco, richieste di aiuto non colte e proposte di aiuto interrotte dall’inserimento nelle discussioni sui social di altri elementi di disturbo e di pareri sommari, forniti spesso da persone che hanno magari risolto un problema sul loro setup ma senza garantirsi di aver individuato la reale causa dello stesso, col risultato di aumentare la confusione

Nel mio percorso, ho dato un’occhiata alle schede tecniche dei sensori “oggetto” di diatribe, e il risultato è ancora in corso di valutazione non tanto dal punto di vista qualitativo, argomento su cui non mi permetterei mai di inserirmi dal momento che non ho intenzione di mettermi a fare il paragone tra X e Y, quanto piuttosto dal punto di vista OPERATIVO che a mio avviso inizia a diventare un aspetto piuttosto “scottante”.

Il che è presto detto…a mio avviso, da un lato c’è un misunderstanding tra la “richiesta di aiuto” e la “soluzione fornita”: o l’astrofilo che risponde è molto piu avanti rispetto alla domanda posta e non riesce a farsi capire, o l’astrofilo che risponde è ancora inesperto. Magari aiuta a risolvere il problema del singolo, ma altri che poi leggono seguono la strada consigliata senza accertarsi che il proprio problema derivi dalla stessa causa, postando quindi in seguito la segnalazione che la soluzione non funziona o rinnovando il problema.

Immaginate questo processo che si estende per 5 gruppi, con 1000 utenti, su qualsiasi stream (facebook, telegram, whatsapp in cima alla lista)

Ovviamente, io non essendo possessore di questi dispositivi, non ho alcuna intenzione di relegare la questione ad una semplice “mancanza di competenze”, lo troverei piuttosto banale. Il mio tentativo per rispondere alle NUMEROSE domande fin qua ricevute, è cercare di capire a fondo il dispositivo che si sta trattando e cercare una operatività BASIC che in qualche modo aiuti ad avere un punto di partenza.

Per fare questo, ho bisogno prima di tutto di raccogliere alcuni dati. Mi servono 10 minuti del vostro tempo per rispondere al file di WORD che trovate qui di seguito

e di inviarlo alla seguente maiil:

cmos@osservatorio-hypatia.it

La “campagna” di raccolta dati termina il 6 GENNAIO 2019.

Ovviamente l’invito è esteso a tutti gli astrofili che POSSEGGONO CMOS DI ULTIMA GENERAZIONE (esempio Asi, qhy etc) sia esperti che non, sia che vivano il problema che non lo vivano.

Ritengo che un bel lavoro come comunità astrofili italiana sarebbe piuttosto interessante e soprattutto INCLUSIVA.

Ovviamente, affinchè non si risolva tutto in una perdita di tempo e non avendo io velleità particolari, qualora non dovessi ricevere un numero sufficiente di risposte volte a caratterizzare il problema, manleverò la questione tenendo a mente che evidentemente il problema in realtà non è di interesse reale nemmeno da parte di coloro che ne soffrono e quindi come farebbe chiunque, non darò seguito ad alcunchè.

Diversamente, una volta raccolti i dati, provvederò poi a proseguire con alcune figure di riferimento alcuni test, e cercare di trovare una strada per “universalizzare” almeno un punto di partenza.

Grazie a tutti.

Leggi: Work Flow Astrofotografia: i files di calibrazione

In questo secondo appuntamento di questo piccolo contributo nell’astrofotografia, volevo un pò introdurre il funzionamento dei sensori di ripresa cercando ove possibile di spiegarne le modalità di utilizzo. Debbo però anticipare una premessa: essendo io un neofita, posso sbagliarmi o scrivere alcune inesattezze. Nel mio percorso cerco sempre di auto-correggermi quando qualcosa non la capisco bene, quindi bene o male penso che ciò che andrò a scrivere possa trovare una condivisione da parte di astrofotografi di livello. Se cosi non dovesse essere, prego quindi di commentare per segnalare errori.

Bene..dal momento che i nostri amati dispositivi elettronici sono il mezzo che ci permetterà di raccogliere i fotoni, è bene spendere due parole partendo in una scala di importanza e di costi. Verranno, in questo frangente, tralasciate le webcam dal momento che seppur i funzionamenti siano del tutto analoghi ai sensori fotografici puri, nell’astrofotografia vengono impiegate maggiormente per foto planetarie o autoguida. Non che queste siano meno importanti, tutt’altro, ma preferisco concentrarmi sulla ripresa di immagini deep sky sempre tenendo comunque presente che i criteri e le caratteristiche sono poi sempre applicabili a questa tipologia di dispositivi.

Partiamo da una condizione tipo: un neofita che vuole riprendere la sua prima immagine deep sky, la prima azione che fa è andare su google e chiedere infomazioni a questo. L’approccio è molto comune, ma non nascondo che io stesso quando iniziai circa due anni fa, operai in questo modo trovandomi di fronte a un mare di dubbi e di problematiche date anche dal fatto che questo mondo all’inizio è pieno di difficoltà interpretative. Va meglio un sensore? Va meglio l’altro? Cos’è un CCD? Partiamo quindi con ordine, cercando di sfruttare alcune informazioni che abbiamo a disposizione e sfruttando una logica base che è la seguente:

“Cosa dice la teoria e cosa ho a disposizione.”

Questa seppur sembri in prima istanza una grande banalità, racchiude una chiave di lettura importante per districarsi tra quello che è “teoria” e quello che  “pratica”. Il motivo è presto detto: spesso quando le cose “non si sanno” (io soprattutto agli inizi mi sono girato mezzo web alla ricerca di informazioni e spesso non riuscivo a comprendere ciò che stava alla base)  si cercano informazioni online o parlando con astrofili di livello, ci si trova di fronte ad una marea di informazioni molto discordanti tra loro. Un esempio potrebbe essere quello relativo al gap di performance tra sensori a colori rispetto a quelli monocromatici. Per alcuni riprendere con sensori a colori può rappresentare un vantaggio enorme, per altri invece il limite di sensibilità dato da questi rappresenta un limite da cui è bene tenersi a bada. Chi ha ragione? Tutte e due le scuole di pensiero. Chi devo seguire per scegliere correttamente? Dipende…da un lato è dimostrabile facilmente come un sensore a colori sia nettamente meno sensibile e versatile rispetto ad un sensore monocromatico (cioè in bianco e nero) ma dall’altro è anche vero che chi utilizza adeguatamante sensori a colori è in grado di ottenere ottime fotografie. Paragonare le immagini avrebbe relativamente senso, dal momento che il processo di creazione di una astroimmagine di qualità passa attraverso numerose azioni che vanno dallo stazionamento, alla strumentazione, al tipo di cielo, alla tecnica di ripresa e all’occhio e all’esperienza di chi la elabora. Ecco un esempio, con questa fotografia scattata con un sensore a colori, scattata da Giovanni Leoni alias Astrobond. Prendiamoci sempre un pò di tempo per osservare…

unnamed

Questo serve per spiegare un pò il divario tra la teoria e la pratica che spesso anima le discussioni tra forum (e non solo!) Di base, penso però sia sempre opportuno affrancare un acquisto partendo da una logica teorica dal momento che noi neofiti non abbiamo abbastanza esperienza. Pertanto, se (come mi è capitato) dovessi scegliere tra un acquisto di un CCD a colori o un CCD monocromatico la scelta cadrebbe (ed è caduta) in favore del monocromatico. In generale è questa la logica con cui procedo io agli acquisti: prima cerco di capire che teoria si nasconde dietro ad un determinato processo di imaging (o di ricerca) dopodichè valuto cosa offre il mercato. A quel punto, cerco il miglior compromesso bilanciando l’impossibile perfezione matematica della teoria con le reali possibilità sia economiche che di utilizzo. Se invece non ho in programma acquisti, adatto ciò che già posseggo cercando di spremerlo al massimo. E cosi “salta fuori” che è vero che ad esempio un sensore monocromatico è molto piu sensibile e versatile di uno a colori (sperimentato sulla mia pelle), ma è anche vero che considerando la mia scarsa esperienza in ambito astrofotografico,  al momento ottengo foto dignitose principalmente con la reflex, mentre il monocromatico ancora devo imparare a sfruttarlo a dovere. Ma è chiaro che quando imparerò, avrò tra le mani qualcosa di molto piu sensibile, molto piu performante e concepito esclusivamente per questo tipo di fotografia.  Quindi è bene sempre ragionare in piu direzioni, non dare nulla per scontato e soprattutto conoscere prima di buttar via soldi (in questa passione a volte il rischio c’è a causa della possibilità di effettuare scelte sbagliate….)

IL FUNZIONAMENTO DI UN SENSORE

Spiegato “alla contadina” con i conti “della serva”

Affrontando il discorso sullla tipologia di sensori, è bene conoscere almeno sommariamente il processo fisico che porta all’acquisizione di una immagine. Si può spiegare in due parole, ovviamente a portata di neofita e per questo motivo assolutamente incomplete ma coerenti.

Abbiamo una galassia posta a milioni di anni luce da qua. Le stelle di questa galassia sono un pò irascibili perchè soffrono parecchio il caldo e quindi sparano fotoni, dando loro un bel calcione (quando si dice che l’universo è violento si intende questo: è tutto una grande incazzatura.). Il fotone, con le terga doloranti,  inizia quindi un viaggio insieme a tutti i fotoni emessi; una sorta di esodo di ferragosto, ma senza code per fortuna al massimo qualche deviazione…bene. Questo bel viaggio dura milioni di anni perchè si sa che i fotoni se la prendono comoda dal momento che tanto non hanno di sicuro niente da fare, ma un ruolo ce l’hanno e cioè venire raccolti dal nostro telescopio. Quindi, un pò come andare a caccia di farfalle, ciò che si fa quando si è in sessione è in buona sostanza questo: raccogliere fotoni. I nostri fotoni attraversano quindi il tubo e colpiscono il sensore. Il sensore è un wafer di materiali fotosensibili disposti a cella, chiamati “pixel” Il pixel reagisce quando colpito da un fotone generando un elettrone. Quando noi aumentiamo il tempo di esposizione, raccogliamo piu fotoni, quindi proporzionalmente piu elettroni secondo una prprietà di conversione definita “efficienza quantica” che rappresenta il numero di fotoni che il sensore è in grado di convertire in elettroni (esempio: efficienza quantica del 50%, raccolgo 100 fotoni, solo 50 verranno convertiti in segnale utile); nel momento in cui  terminiamo questa acquisizione il pixel scarica gli elettroni creando una sorta di corrente, o segnale elettrico. Questi elettroni verranno poi amplificati da un amplificatore, e verranno contati da un ragioniere elettronico col pallottoliere che dirà “il pixel 1 ha 10 elettroni, segna!” …”il pixel 2 ha 20 elettroni, segna!”…”il pixel tre è andato giu di testa e si è bruciato, nullo”….etc. Infine questi valori verranno convertiti in formato digitale, cioè un insieme di 1 e di 0 messi in serie, creando cosi il bit. Il bit viene raccolto in gruppi di 8, di 14, di 16 etc. determinando cosi il tipo di conversione: 8 bit, 14 bit, 16 bit che rappresentano in buona sostanza la gamma di grigi che possibile ottenere su un singolo pixel. Un sensore a 8 bit ha 256 livelli possibili di gamma, un 16 bit 65000 circa etc. il che tradotto significa che un pixel accoppiato con una elettronica a 16 bit può essere rappresentato con 65000 diversi tipi di grigio permettendo quindi di ottenere una immagine complessiva maggior dinamica e differenziazione di colori/segnale e bla bla bla…

Chiaro quindi? Fotone, convertito in elettrone, convertito in segnale elettrico, amplificato, convertito in bit e pronto quindi per essere digerito dal pc. Per sognare un pò, è bello anche sapere che l’immagine che avete stampato su carta altro non è che la raccolta di fotoni provenienti dall’universo.

MONOCROMATICO O COLORE

Come ho scritto pocanzi, il sensore monocromatico è piu sensibile. La motivazione è molto semplice: tutti i sensori nascono monocromatici. Si esatto…non esiste il sensore a colori, lo si chiama cosi per convenzione, ma il sensore di per se è monocromatico. “Diventa” a colori quando sopra al sensore si va ad applicare una matrice, chiamata matrice di Bayer, che è formata da un pattern di microlenti colorate, un colore per ogni pixel, la “trama” base copre 4 pixel adiacenti. Queste microlenti sono colorate in questa sequenza: “R-G-B-G” cioè red, green, blue, green.

bayer_grgb

Ovviamente, viene da sè che se io fotografo un oggetto completamente rosso, i pixel che lavoreranno di piu saranno quelli con la microlente che lascia passare quella lunghezza d’onda mentre le altri microlenti lavoreranno poco o niente e cosi i rispettivi pixel.

Se invece non avessi questa matrice, il pixel riceverebbero sempre la stessa quantità di luce, tutti, a prescindere dalla composizione dei colori (in realtà non proprio vero per via delle curve di sensibilità ma il concetto è questo). Ecco quindi motivata la maggior sensibilità del sensore mono rispetto a quello a colori. Essendo un limite fisico, questo è reale e inoppugnabile.

Se vogliamo quindi ottenere immagini a colore con un sensore monocromatico, quindi, basterà anteporre di fronte al sensore un filtro. Esistono dei kit composti da tre filtri, RGB (piu la luminanza ma questo lasciamo perdere per ora) che permettono di scattare immagini in cui vengono fatte passare solo le lunghezze d’onda del canale rosso, verde e  blu. Le tre lastre monocromatiche cosi ottenute vengono poi compositate tra loro creando cosi una immagine a colori. Un esempio è questa mia foto, ottenuta con questa tecnica, ma se fate un giro online vedrete foto davvero mozzafiato create proprio grazie alla maggior sensibilita del sensore “nudo e crudo”.

crescent

TIPOLOGIA DI SENSORE

Tecnicamente i sensori che vanno per la maggiore si differenziano in due macro-tipi: sensori CCD e sensori CMOS.

Ciò che differenzia le due tipologie è ovviamente l’architettura interna, relativamente alla costruzione di base, lo stadio di amplificazione e lo stadio di conversione. In poche banali parole, si può dire che mentre nel CCD lo stadio di amplificazione avviene tramite un amplificatore posto esternamente alla superficie di ripresa, nel CMOS questo processo avviene tramite l’apposizione dell’amplificatore direttamente nella parte sottostante il pixel. L’amplificazione del segnale è uno dei processi che portano alla generazione e all’emersione di rumore elettronico, quindi già da qui si può iniziare a pensare che il CCD logicamente sarà meno rumoroso dal momento che l’amplficatore è uno solo, rispeto al CMOS che ha tanti amplificatori quanti sono i pixel. Siccome gli amplificatori non lavorano tutti alla stessa maniera, ecco una sicura motivazione per cui il CCD è generalmente meno rumoroso.

Il mercato ha dato ampio spazio ai CCD fino a qualche lustro fa, dopodichè lo sviluppo della tecnologica CMOS ha permesso di ottenere sensori di ottima qualità a basso costo e soprattutto a basso consumo al punto che oggi su una comune reflex è difficile trovare l’applicazione di sensori CCD, mentre nella quasi totalità dei casi è presente un sensore CMOS. Dico questo perchè è molto piu probabile che se si voglia incominciare a fare astrofotografia con ciò che si ha in casa, si abbia a disposizione una reflex e quindi è bene sapere quali saranno le maggiori problematiche.

Sicuramente il primo è relativo al rumore, come appena spiegato. Il sensore scalda e pure parecchio, al punto che a volte può essere presente maggiormente rispetto ad un CCD un certo fenomeno detto di “elettroluminescenza” dato da calore aggiuntivo generato dall’elettronica di corredo. Ecco un esempio:

amp-glow-diodo-protezione

Le case produttrici di dispositivi di acquisizione tramite CCD invece solitamente inseriscono una cella di peltier proprio dietro al sensore. La cella di peltier è definito tecnicamente “un marchingegno magico che tramite oscuri incantesimi ed energie insospettabili tiene bassa la temperatura del sensore”. Ahahaha scherzo, si può leggere qualcosa qua: LINK. Si è capito che tenendo bassa la temperatura di un sensore, non solo aumenta la sua sensibilità ma diminuisce drasticamente la produzione del rumore. Come dicevamo nel primo articolo, e come si può vedere, tutto è volto sostanzialmente ad eliminare il rumore….

Un’altra caratteristica è che TUTTI i sensori sarebbero sensibili a gran parte dello spettro visibile (e anche leggermente oltre), solo che nelle reflex questa peculiarità rappresenterebbe un limite dal momento che le stesse vengono concepite per l’uso diurno. Pertanto, sopra al sensore viene messo un filtro che taglia tutto l’infrarosso rendendo una reflex cieca alle nebulosità ad emissione, tipicamente nella gamma che va dal debole rosso dell’Idrogeno Alfa in poi e purtroppo per noi l’Idrogeno è la componente piu presente nell’universo. Pertanto, dispondendo di una reflex non modificata, scattare immagini a nebulose ad emissione può essere poco entusiasmante, anche se va detto che qualcosina in questo ambito si riesce comunque a scattare, a patto però di lavorare bene in acquisizione e di avere un inseguimento perfetto quando si riprendono oggetti del genere: è sempre bene provare per rendersi conto delle potenzialità. Ci vinee comunque in salvo la possibilità di “deviare” questo problema effettuando la modifica alla reflex dal costo intorno alle 200 euro, ove si mette di fronte al sensore un filtro astronomico togliendo quello originale. Un esempio viene riportato in questa discussione LINK.

Occhio perchè questa modifica invaliderà la garanzia oltre a sbilanciare un pò i colori nel diurno (facilmente ribilanciabili) e a far perdere la messa a fuoco automatica. Ulteriore alternativa piu “spinta” è quella invece di togliere il filtro originale e lasciare il sensore nudo. Ovviamente è la piu “rischiosa” perchè il sensore è esposto direttamente a tutti gli agenti metereologici oltre alle polveri, inoltre lo sbilanciamento sarà terribilmente piu pronunciato verso il rosso (uhm..magenta…odioso!) ma io ho scelto questa alternativa e dopo circa 8 mesi di tentativi sono riuscito a bilanciare quasi correttamente i colori delle immagini, guadagnando in sensibilità.

Ci sarebbe anche da dire che Canon (e ora anche Nikon) hanno preparato delle camere apposite per l’astrofotografia e la fotografia diurna, nel caso della canon ad esempio la 60Da. Il punto è che la domanda da porre è questa: conviene acquistare una macchina come questa piuttosto che modificarne una usata? Io non rispondo, la valutazione è personale. Un mio grandissimo amico utilizza con buoni risultati una 60Da, ma l’opzione per l’acquisto la si deve fare in base alle proprie necessità e alle proprie mire.

Altra caratteristica della reflex è il firmware di corredo che gestisce buona parte delle impostazioni utili nel diurno ma che a volte possono dar fastidio nella ripresa astronomica o essere di ingombro come ad esempio l’ostinata preoponderanza a volerti tirar fuori la foto bella a tutti i costi secondo i parametri “diurni”. Le case produttrici fanno magie coi firmware, che intervengono e dicono “siccome TU non sei capace, la foto te la faccio IO!”. E quindi giu di correzione sui rumori, sui colori, etc.etc. Ecco, meno roba usate di queste cosine qua, meglio è. Nei CCD per utilizzo astronomico, tutto questo non c’è e la tendenza è quella di lasciare intatta l’immagine come l’hai scattata, tranne per qualche caratteristica.

Oooo bene, direi che piu o meno come infarinatura generale ci siamo. Mi sono spinto piu a parlare di Reflex perchè come già anticipato suppongo che noi neofiti partiremo da questo dispositivo qua, come è capitato a me.

Bene, ora che vi ho fatto un parziale elenco delle caratteristiche meno propedeutiche per il nostro lavoro di astrofotografi, dobbiamo renderci conto che in realtà abbiamo tra le mani un oggetto che per le astrofotografie dice la sua. Perchè a basso costo abbiamo

a) un dispositivo che ha un sensore enorme. Se dovessimo avere uno stesso campo inquadrato con un ccd, prepariamoci a sborsare migliaia di euro perchè i ccd costano. Vanno meglio, possiamo dire che non siano proprio paragonabili,  ma costano.

b) un dispositivo che volendo ci permette di fare foto sia al telescopio di notte, che della fidanzata di giorno.

c) uno strumento didattico incredibile, perchè quando si impareranno a gestire i punti a sfavore, si potrà dire di aver un pò di esperienza

d) sarà sempre rivendibile. Sia in ambito astrofotografico (se si è fatta la modifica) sia in ambito fotografico standard.

Per quanto concerne il rumore, ricordarsi sempre la calibrazione con i Dark (e i Bias ove necessari), questo aiuterà a togliere un pò il disturbo.

Una considerazione? Tutti gli astrofotografi, davvero tutti, hanno in casa almeno una Reflex quindi non bisogna abbattersi ma agguerrirsi ancora di piu. Ci sono galassie, ammassi globulari, campi estesi di stelle, via lattea etc.etc. da scattare con reflex non modificate. E ci sono tutti i restanti oggetti che si possono riprendere con reflex modificate. Poi il resto verrà…Considerando magari il CCD come scelta “matura”, magari da fare in futuro.

Ecco un bell’esempio di immagine scattata dall’astrofotografo Filippo Bezzi con una reflex Canon Eos 7D non modificata:

11856432_1043300949026881_4956408681443942278_o

Nel prossimo articolo probabilmente scriverò qualche accorgimento semplice e logico per sfruttare una reflex in ambito fotografico, oltre ad alcune cosette che sto scoprendo in merito ai CCD in modo da rendere fruibile quanto scritto in questo papiro.

Aaaaa…FINE.