24 Feb Calibrare, registrare ed integrare i Light Frames
CALIBRARE ED INTEGRARE I LIGHT FRAMES
MasterDark, MasterFlat e Superbias creati nel precedente tutorial vengono adesso impiegati per calibrare i nostri Light Frames prima di allinearli ed integrarli. Tale procedimento richiede l’uso di più Process e può sembrare complicato, ma è solo questione di prenderci un pò la mano. Iniziamo subito!
IMAGE CALIBRATION
Calibrare ed integrare i Light frames fino ad arrivare alla foto finale non è complicato come si può pensare. La prima cosa da fare è quella di calibrare i singoli Light con i masterDark, masterFlat e superbias precedentemente creati per ottenere dei Light frames privi di rumore, senza vignettature e senza le tracce di sporco presente nel treno ottico.
Iniziamo aggiungendo i nostri Light frames semplicemente cliccando “add files”, selezioniamo la cartella di destinazione dei nostri light calibrati (output directory), attiviamo tutte e tre le caselle rispettive ai masterBias, masterDark e masterFlat ed andiamo ad aprire i nostri master ricordando nel masterBias di utilizzare il superbias. Per il masterDark è ininfluente sputare o meno l’opzione “optimize” dato che i nostri Light avranno lo stesso tempo di esposizione del masterDark scelto.
Clicchiamo su “apply global” ed il primo passo è fatto.

La calibrazione dei Light Frames varia a seconda del modello di sensore usato, infatti non sempre è necessario ottenere un masterBias e non sempre è possibile sfruttare l’opzione “Optmize”. Ad esempio nei nuovi sensori Cmos in commercio oggi non è necessario creare un masterBias perchè quando si riprende immagini al di sotto dei 2″ il rumore elettronico è diverso da quello che si ha in scatti superiori ai 2″, rendendo i masterbias di fatto inutilizzabili (questo a causa di processi elettronici come Exmor usato nei sensori Sony ). Non dover usare il masterBias può sembrare un passaggio in meno ed un risparmio di tempo, ma in realtà ciò porta all’impossibilità di attivare l’opzione “optimize”, proprio per l’assenza del masterBias, di conseguenza dobbiamo avere sempre i masterDark della stessa lunghezza dei light frames, altrimenti la calibrazione non sarebbe possibile. Ciò significa che se si scatta una serie di light frames a 7 minuti non possiamo usare un masterDark a 10 minuti, e nemmeno uno a 5 minuti, ma dobbiamo crearci sempre il masterDark coi tempi esatti, ovvero a 7 minuti.
Nel mio caso posso sfruttare l’opzione “optimize”, così mi sono creato un unico masterDark da 20 minuti che utilizzo sempre con tutte le mie immagini, ovviamente abbinato al masterBias.
Consiglio quindi di informarsi sempre preventivamente sui metodi di calibrazione da usare col proprio sensore al fine di ottenere i risultati più corretti.
COSMETIC CORRECTION
Il secondo passo è quello di applicare ai nostri Light il process di COSMETIC CORRECTION, il quale servirà a rimuovere gli hot pixel ed i cold pixel. Essi sono rispettivamente pixel bruciati, quindi bianchi, e pixel neri. Solitamente i cold pixel ed hot pixel sono sempre i soliti, possono pertanto essere scambiati in fase di integrazioni come piccole stelle e di conseguenza essi non vengono rimossi ma integrati e riportati nell’immagine finale, cosa che noi non vogliamo. Ci sono due metodi per eliminare i bad pixel dall’immagine finale: usare questo process oppure eseguire il Dither in fase di integrazione. Anche se si esegue il Dither non è comunque sbagliato applicare la cosmetic correction ai nostri frames. Vediamo come:

Come sempre apriamo i nostri frames precedentemente calibrati e riconoscibili dalla lettera C aggiunta in coda al nome, selezioniamo subito una cartella di destinazione e scegliamo quale correzione applicare. Il Process mette a disposizione più metodi per rimuovere i bad pixel, io personalmente mi trovo molto bene con “use Auto Detect”, spunto la casella relativa a “Hot Sigma” se voglio rimuovere gli hot pixel, se voglio rimuovere i cold pixel invece attivo l’altra di “cold sigma”, le attivo entrambe se voglio rimuovere entrambi i tipi di bad pixel come nel mio caso. I valori di default di 3.0 funzionano benissimo e raramente li modifico, andando ad aumentare tale valore vado a ridurre l’effetto della correzione, utile quando oltre ai bad pixel il process va a correggere anche delle vere e proprie stelle o zone luminose di nebulosità, posso invece abbassarlo per renderlo più efficace se non riesce a rimuovere tutti i bad pixel. Tale valutazione si può fare senza lanciare il process ma semplicemente selezionando una foto e cliccando su “real-time Preview” (il cerchietto vuoto al centro in basso a sinistra) il quale mi farà vedere in anticipo l’effetto del process. Dovremo anche applicare un STF perché le nostre foto sono ancora in fase lineare e quindi nere. Una volta trovati i valori corretti andiamo ad applicare il process cliccando su “apply global”. Come detto i valori di default funzionano bene nel 99% dei casi.
Ecco un confronto tra il prima ed il dopo aver eseguito il process. Si vede che nell’immagine a sinistra sono presenti dei puntini luminosi, gli hot pixel, che nella seconda sono stati rimossi. Non si rilevano cold pixel. L’immagine è un crop al 200%, infatti tali bad pixel non sono ben valutabili se non ingrandendo molto l’immagine.
BATCH DEBAYER
Questa parte del tutorial si riferisce solo a chi utilizza camere di ripresa a colori, come Reflex o CCD colour. Se, come me, usate una CCD monocromatica potete passare direttamente alla parte successiva. Avendo solo immagini monocromatiche mi sono fatto prestare un frame dall’amico MAURO CANTINI, che utilizza una CCD qhy a colori, per mostrarvi la debayerizzazione. Se noi prendiamo uno dei nostri files a colore ed applichiamo un STF (screen transfer function) per poterlo visualizzare esso ci apparirà così:


(cliccare sul pallino giallo e nero alla sinistra del process STF per applicarlo)
Ci apparirà in bianco e nero, nonostante sia un’immagine a colori, e ingrandendo molto si noterà la matrice dell’immagine stessa. Questo perché non è stata debayerizzata, ed ora è il momento di farlo. Esistono 4 tipi di matrici e se non abbiamo mai fatto questo passaggio probabilmente non sappiamo quale è la matrice giusta per il nostro sensore. Possiamo sxcoprirlo con una breve ricerca online oppure in modo ancor più veloce possiamo utilizzare il process DEBAYER. Usarlo è facilissimo, basterà aprirlo, selezionare VNG come metodo di debayerizzazione e tentare con una delle 4 matrici in modo casuale fino a scoprire quella giusta. Iniziamo con RGGB, come vedete nell’immagine, clicchiamo sul triangolino blu in basso a sinistra e lo trasciniamo sopra la nostra immagine. Si creerà una nuova immagine, quella debayerizzata, nella quale applichiamo nuovamente un STF e nuovamente la controlliamo visivamente:

Adesso l’immagine è a colori, segno che è stata ben debayerizzata, ma abbiamo usato la matrice giusta?? No! Come vedete la zona di nebulosità al centro dell’immagine è verde, ma noi sappiamo che quella è una zona tipicamente rossa, segno che la matrice è sbagliata, inoltre è evidente una fastidiosa quadrettatura. Chiudiamo l’immagine e cambiamo la matrice del nostro process, proviamo ad esempio GRGB e lo riapplichiamo trascinandolo sull’immagine originale

Sta volta ci è venuta fuori blu, ancora non ci siamo. Cambiamo di nuovo matrice, tentiamo con GBRG

I colori sono quelli giusti, segno che GBRG è la nostra matrice. Si vede la nebulosità del giusto colore rosso, al centro dell’immagine la zona azzurra dell’ammasso NGC 2264 ed in alto a sinistra si riconosce la sagoma della nebulosa cono, oggetto di questo scatto.
Abbiamo trovato la matrice giusta, ora dobbiamo debayerizzare tutti i nostri light prima di passare al passo successivo, lo facciamo con lo script BATCH DEBAYER (script -> batch processing -> batch DeBayer )
Usarlo è facilissimo, basta aprire lo script, cliccando su “add” andiamo a selezionare ed aprire tutti i nostri light frames, selezioniamo VNG come metodo di debayerizzazione e la giusta matrice appena scoperta, quindi nel nostro caso GBRG, selezioniamo una cartella di destinazione dei nostri files che saranno debayerizzatiu e clicchiamo semplicemente su “execute” per eseguire lo script. Alla fine nella nostra cartella selezionata troveremo tutti i nostri light frames debayerizzati e pronti al passaggio successivo. La prima volta questo processo vi porterà via un po’ di tempo, ma una volta scoperta la vostra matrice vi basterà applicare direttamente lo script sempre alla stessa maniera. Inoltre se usate una qhy8 vi ho fatto vedere io quale è la matrice giusta e non c’è bisogno di trovarla, inoltre se scattate con Reflex voglio farvi risparmiare un po’ di tempo dicendovi che la vostra matrice sarà sicuramente RGGB.

SUBFRAME SELECTOR
Continuiamo usando un altro script. L’uso del SUBFRAME SELECTOR merita a mio avviso un capitola a parte. Di fatti potete trovare un tutorial tutto dedicato a questo fantastico script. Per arrivare all’immagine finale non è fondamentale utilizzarlo anche se da quando ho iniziato ad usarlo io non posso più farne a meno, se deciderete di provarlo è questo il momento per farlo, se decidete di non usarlo possiamo passare direttamente al process successivo.
STAR ALIGNMENT
Prima di integrare le nostre immagini è il momento di registrarle, cioè allineare tutte le immagini così da farle combaciare perfettamente. Per farlo si usa il process STAR ALIGNMENT.
Andiamo a registrare le immagini precedentemente calibrate e corrette cosmeticamente, ovvero quelle identificate con nome.C.CC.fit (o .tiff). Le apriamo come sempre con “add files” selezioniamo la cartella di destinazione e selezioniamo una di queste immagini come riferimento per registrare tutte le altre. Per farlo selezioniamo “file” dal menù a tendina e cliccando sulla linguetta a destra andiamo a scegliere la nostra immagine di riferimento. Essendo questa l’immagine sulla quale verranno registrate le altre è bene che sia una delle migliori, in termini di inquadratura, puntiformità delle stelle e messa fuoco, sarebbe preferibile fosse anche priva di scie di satelliti o di aerei transitati sul campo inquadrato. Noi possiamo sceglierla ad occhio semplicemente visualizzando e scorrendo i vari light frames, ma sappiate che è possibile sapere in maniera matematica quale è la miglior immagine da usare come riferimento usando lo script SUBFRAME SELECTOR accennato sopra, infatti vedete che le mie immagini non sono identificate con C.CC. fit, ma con una piccola .a.fit, la A sta per APPROVATI, segno che sono state prima passate su SUBFRAME SELECTOR che ha selezionato ed approvato solo alcune immagini con certe caratteristiche. Ricordiamoci di attivare la casella “generate drizzle data” e possiamo lanciare il process cliccando il solito “ apply global”. Vedremo più avanti a cosa serviranno i drizzle data che andremo a creare proprio ora.


Può capitare che il process di STAR ALIGNMENT non riesca a registrare le vostre immagini, i motivi possono essere vari, ma il più probabile è che il process non riesce a trovare abbastanza punti di riferimento per la registrazione. Se ciò succede si può provare a variare alcuni parametri anche se solitamente quelli di default sono già ottimi. Possiamo iniziare aumentando il valore di “RANSAC tolerance” il quale permetterà al processo di prendere più stelle da usare come riferimento, si può salire da 2.00 fino ad un massimo di 8.00, anche se solitamente non servirà salire sopra i 6.00, possiamo anche aumentare il valore di “RANSAC iterations” fino a 3000. Così il process ha più stelle per svolgere il suo compito, ma a volte ciò non basta semplicemente perché il process non riesce a “vedere” un numero sufficiente di stelle. Per renderlo più sensibile alle stelle dovremo andare sotto il menù di STAR DETECTION ad aumentare il numero di iterazioni, aumentando il valore di “detection scales” a 6 o 7, e diminuendo il “log (sensitivity)” anche fino al minimo se necessario (essendo un valore logaritmico va diminuito se vogliamo aumentare la sensibilità).
Se andiamo a controllare nella cartella di destinazione noteremo subito un numero maggiore di files, precisamente doppio, infatti oltre alle immagini registrate saranno presenti anche degli strani file, uno per ogni immagine. Questi sono i DRIZZLE DATA creati proprio con questo processo che ci serviranno tra poco nell’integrazione e riconoscibili per la loro tipica estensione .drz.
IMAGE INTEGRATION
Eccoci finalmente al momento tanto atteso. Integrare i light frames non è molto diverso dall’integrare dark o bias. Apriamo subito il process

Apriamo le immagini calibrate, corrette e registrate (.c.cc.r.fit) da “add files”. Apriamo subito anche i Drizzle data generati prima cliccando su “add drizzle files”, li selezioniamo e una volta aperti vedremo comparire accanto ad ogni immagine nella lista una piccola <d> ad indicare che sono stati aggiunti come vedete di fianco. Adesso settiamo il process andando a selezionare “average” come COMBINATION, “additive with scaling” per NORMALIZATION e “noise evaluation” come WEIGHTS. Sotto la sezione di pixel rejection ci assicuriamo di scegliere l’algoritmo migliore in funzione del numero di light da integrare, avendo io 28 immagini andrò a scegliere il “linear fit clipping” e seleziono “scale+zero offset” come NORMALIZATION. Riporto di seguito la tabella che avete già trovato nel tutorial precedente per scegliere il giusto algoritmo. Lasciamo tutto il resto come vedete nella mia immagine e clicchiamo “apply global” per procedere con l’integrazione.

Percentile Clipping per un numero di frames fino ad un massimo di 7
Averaged Sigma Clipping se il numero va da 8 a 10
Winsorized Sigma Clipping da 11 a 19 frames
Linear Fit Clipping per un numero di frames tra 20 e 24
Generalized Extreme Studentized Deviate (ESD) per 25 o più immagini
Alla fine otteniamo quattro diverse immagini

La prima chiamata Slope possiamo chiuderla direttamente. La seconda chiamata REJECTION HIGH ci mostra tutti i punti luminosi che sono stati rimossi con l’integrazione, ad esempio le scie luminose dei satelliti, possiamo applicare un STF per controllare. La terza chiamata REJECTION LOW mostra invece i bordi scuri dell’immagine dovuti alla registrazione, più i nostri file saranno disallineati e più questi bordi saranno grandi, questa immagine ci serve per capire quanto dobbiamo ritagliare la nostra immagine finale per escludere appunto tali bordi. Infine abbiamo l’immagine chiamata INTEGRATION che è la nostra immagine finale che possiamo guardare applicando un STF, dopo tanta attesa ecco finalmente il frutto del nostro lavoro. Se quello che guardiamo non ci piace possiamo eseguire nuovamente l’integrazione andando a variare i parametri che troviamo sotto il menù di PIXEL REJECTION (2), in questo caso non esiste un’indicazione dato che ogni foto avrà una storia a sé. Ad esempio può capitare che alcune scie di satelliti o raggi cosmici siano ancora visibili nell’immagine finale, spesso avviene quando si ha pochi frames da integrare. In questi casi si può abbassare i valori di “sigma low” e “sigma high” ad esempio a 3.00 e 2.00 e ripetere l’integrazione. Se ancora non ci siamo dovremo continuare con cautela ad abbassarli fino a trovare i giusti valori. Fine? No!, ci manca ancora un ultimo passaggio. Possiamo senza paura chiudere tutte le immagini procedere con l’ultimo passo.
DRIZZLE INTEGRATION
È il momento di dare un senso ai drizzle data prima creati. Essi ci servono in questa ultima fase. Apriamo il process DRIZZLE NTEGRATION, cliccando “add files” andiamo ad aprire i drizzle data, assicuriamoci di avere una scala di 2 ed applichiamo come sempre cliccando su “apply global”. I valori di default lavorano tremendamente bene su tutte le immagini. Quale è lo scopo di questo process? Il suo scopo è quello di raddoppiare la risoluzione dell’immagine, ovvero ipotizzando di avere delle immagini iniziali di 3000×2000 pixel otterremo un’immagine finale di 6000×4000, inoltre andando a zommare la nostra immagine noteremo subito che essa sarà più definita, meno pixelata e più dettagliata dell’immagine ottenuta con una normale integrazione.

Guardate ad esempio le stelle di queste due immagini a confronto, nell’immagine di sinistra si notano chiaramente i pixel quadrettati soprattutto attorno alle stelle, essi sono del tutto assenti nell’immagine di destra che risulta più definita e con stelle più gradevoli.
Alla fine del process avremo due immagini, una molto bianca che mostra i bordi di registrazione e che possiamo chiudere, ed una che è effettivamente la nostra immagine finale. Potete benissimo evitare questo process e fermarvi al punto precedente, ma la DRIZZLE INTEGRATION vi porterà via solo pochi secondi ed i miglioramenti sono evidenti. In ogni caso ricordate di salvare la vostra immagine come meglio credete, o fits 32bit o tiff 16bit se fotografate con reflex.
Ecco ad esempio il frutto della mia integrazione di 28 immagini su m78

Definirla immagine finale è molto improprio, infatti siamo solo all’inizio della postproduzione vera e propria che vedremo in un tutorial successivo. Alla fine dopo aver aggiunto i canali RGB e ultimato la postproduzione ho ottenuto questa immagine FINALE