Tutto è possibile

Tag: raw

Come si espone correttamente? Cos’è l’esposizione ETTR?

Esposizione corretta

Spesso quando si parla di corretta esposizione sembra che si parli di magia, di pareri, opinioni … mentre sono semplici dati tecnici da leggere e applicare in ripresa e poi eventualmente in post.

Ogni mezzo (sensore o pellicola) ha una sua sensibilità nativa (Iso o Asa a seconda della scala), la giusta esposizione è quando si studia e si espone per il corretto valore del media, al di sotto facilmente si ottiene grana / rumore, al di sopra si tende a appiattire e poi bruciare le informazioni. La tolleranza alle oscillazioni di valore dipende dalla tipologia di pellicola o dalla tipologia di sensore, motivo per cui non basta usare un esposimetro per esporre una camera analogica o digitale, ma si devono fare prove e farsi esperienza per estrapolare il meglio dal sensore o dall’emulsione.

Decidere invece come usare l’esposizione e le luci invece è una questione estetica, artistica e si declina nel gusto, nelle necessità della scena, della fotografia, dell’ambiente e del sistema di cattura della luce che stiamo usando.

Per controllare l’esposizione dell’immagine abbiamo più elementi da tener conto, qui vediamo i diversi valori che ci permettono di avere un controllo totale dell’esposizione dell’immagine.

Il diaframma

Il primo valore che determina la quantità di luce catturata e registrata dalla macchina è l’obiettivo stesso, la capacità dell’obiettivo di aprire e chiudere il diaframma. Il valore del diaframma viene espresso in numeri, quelli più bassi indicano il diaframma più aperto, mentre quello più alto è la chiusura massima che si può ottenere.

Il diaframma della lente aprendosi e chiudendosi ci permette di decidere quanta luce possiamo portare al sensore; quando il diaframma si chiude può avere valori molto alti come 16 o addirittura alcuni obiettivi hanno valore 32, mentre quando si apre possiamo avere lenti che hanno un valore 1.4 o 1.2.

Quando apro e chiudo il diaframma non influenzo solo la luce in ingresso, ma anche la profondità di campo, ovvero la capacità di avere una zona più o meno ampia nitida, quindi quando voglio dare maggiore importanza al soggetto in primo piano posso aprire diaframma per sfocare maggiormente l’immagine dietro di esso. Naturalmente devo compensare la maggiore o minor luce in ingresso.

In sintesi :

il diaframma più è alto il numero, più è chiuso, più profondità di campo; più è basso e più è ristretta la profondità di campo.

Quando si devono scegliere i diaframmi da usare, si tende a non usare i diaframmi estremi, anzi si tende ad escludere il diaframma più basso, perché potrebbe non esprimere il massimo della nitidezza; si tende ad escludere gli ultimi due diaframmi più chiusi, perché a seconda delle lenti si rischia la diffrazione, fenomeno che causa una perdita di nitidezza.

Iso o Asa

Un altro elemento da tenere in considerazione quando andiamo a gestire la luce è la sensibilità ISO o ASA, a seconda delle macchine potremmo trovare una delle due sigle che indicano la sensibilità del sensore alla luce, ovvero la sua capacità di catturare la luce.

Una volta con la pellicola la sensibilità era gestita in modo diretto, ovvero si caricava una pellicola a 80, 160, 320, 640, quindi si esponeva di conseguenza.

Nel momento in cui si è passati al digitale apparentemente le macchine sono in grado di cambiare quello che sono gli Iso/Asa, ovvero sono in grado di abbassare o alzare questo valore per semplificare la fase di ripresa. Dico apparentemente perché in realtà questo tipo di valore anche col digitale è fisso, tranne un paio di camere di alta gamma Varicam della Panasonic.

Nel mondo reale abbiamo un valore che è quello detto sensibilità nativa, la capacità nativa del sensore di catturare quella data quantità di luce, poi quello che sono le sensibilità inferiori o superiori sono elaborazioni o a livello analogico del segnale elettrico catturato da sensore o a livello digitale sulle successive informazioni convertite in digitale.

Tradotto in parole povere significa che ogni macchina che noi andiamo a prendere telecamera e macchina fotografica cinepresa ha una sua sensibilità nativa, quando non utilizziamo la sua sensibilità nativa, apparentemente vedremo immagini più chiare e più scure ma in realtà dato che vengono create queste informazioni per elaborazione analogico – digitale la qualità non sarà come avere un sensore più sensibile o meno sensibile ma sono sempre elaborazioni del segnale originale.

Conoscere la sensibilità nativa di una camera è molto importante perché è la sensibilità nel quale la telecamera, la macchina fotografica, la cinepresa esprimono la loro capacità massima di catturare l’immagine, nella sua luminosità, nella capacità di leggere il contrasto massimo tra luce e ombra.

Quando noi abbiamo una macchina ad esempio prendiamo una macchina fotografica che nasce a 160 ISO e impostiamo un valore di Iso superiore ad esempio mettiamo 1600 o 3200iso perché c’è veramente poca luce nell’ambiente, potremo notare come aumenti una sorta di rumore video, un disturbo, una granulosità che appare sull’immagine perché l’immagine originale viene amplificata quindi fisicamente non è sensore che legge 3200 iso, ma è una elaborazione digitale o analogica.

Molte macchine (telecamere e macchine fotografiche) hanno un sistema di riduzione rumore direttamente in camera, altre (cineprese) per evitare di danneggiare l’immagine o perdere dei dettagli importanti riservano questa fase di riduzione del rumore alla fase della post produzione.

Quindi a seconda della macchina che utilizziamo, possiamo avere una sensibilità iso/asa nativa e un certo range, una gamma di sensibilità aggiuntive che possiamo selezionare per catturare più o meno luce in funzione della luce ambiente e della qualità che mi può esprimere.

Quanti e quali iso/asa possiamo usare di una camera è un qualcosa che dobbiamo verificare, perché ogni macchina offre intervalli di sensibilità più o meno usabili a seconda della quantità di luce che noi abbiamo nell’ambiente di ripresa. Quindi non è possibile dare un’indicazione generica di una sensibilità Iso da utilizzare, ma bisogna scoprire qual è la sensibilità nativa e poi vedere quanto ci possiamo spingere oltre; se parliamo di telecamere normalmente è abbastanza facile perché noi troveremo la macchina con la sua sensibilità di base e poi troveremo un parametro normalmente chiamato Gain o guadagno; il guadagno è quanto stiamo amplificando il segnale elettronicamente, senza guadagno è la sensibilità nativa della macchina.

Con le macchine fotografiche la sensibilità nativa è il valore Iso più basso della macchina, quindi molte macchine hanno ad esempio 160 ISO o 200 Iso; tutte le sensibilità Iso superiori sono elaborazioni, sta poi a noi verificare quali sono usabili quali diventano eccessivamente artefatte per essere utilizzate.

Sulle cineprese nella parte del manuale delle istruzioni è indicato qual è il valore nativo della sensibilità Iso e quali sono gli altri valori che noi possiamo utilizzare come sensibilità pari di xxx.

Quando noi cambiamo la sensibilità Iso e abbassiamo il valore rispetto al valore nativo il risultato è che la sensibilità si abbassa perché la macchina campiona meno informazioni luminose e non abbiamo particolari problematiche, quando noi alziamo la sensibilità Iso, dato che stiamo amplificando un segnale con poche informazioni, poca luce, il possibile deperimento dell’immagine è evidenziato da l’aumento di granulosità o elementi di disturbo video in movimento, l’aumento del contrasto dell’immagine.

L’aumento di contrasto diventa più evidente quanto meno luce è presente; perché se ci sono poche informazioni luminose per rendere più luminosa l’immagine l’aumento degli Iso sposta nelle due direzioni la parte più luminosa e la parte più scura aumentando il contrasto generale dell’immagine.

È molto importante quando si lavora con una camera capire qual è il livello di Iso utilizzabile, entro quale livello possiamo alzare la sensibilità senza avere un deterioramento troppo vistoso dell’immagine.

Per poter gestire l’immagine anche in condizioni di basse luci la soluzione ottimale di gestione dell’Iso è quella di utilizzare iso nativo, e gestire la luce con uno degli altri parametri, ma naturalmente non sempre è possibile farlo e quindi il parametro Iso è uno strumento utile per gestire la quantità di luce che viene catturata per ottenere la corretta esposizione.

Otturazione

Quando eseguiamo una ripresa l’altro fattore che influenza l’esposizione si chiama tempo di otturazione, detto anche shutter molte macchine.

Il tempo di otturazione è l’istante, la frazione di tempo che viene utilizzata per catturare il singolo fotogramma, quindi con un tempo di otturazione più alto o più basso catturiamo più o meno luce. In fotografia si utilizza il tempo di otturazione per modificare anche la quantità di luce che entra all’interno una camera, quando si cattura un filmato il tempo di otturazione non va mai utilizzato per controllare la quantità di luce in ingresso, perché nel momento in cui alteriamo il tempo di otturazione stiamo alterando l’immagine viene catturata da sensore, non è solo una questione di luce, ma è anche una questione di percezione del movimento.

L’impostazione corretta del tempo di otturazione è sempre un valore ben preciso, legato ai fotogrammi al secondo, esistono solo due eccezioni in casi speciali che andremo a elencare più avanti.

Il valore di otturazione corretto per ottenere la cattura di un movimento in maniera fluida è uguale a uno fratto il valore doppio dei fotogrammi al secondo, significa che se io lavoro a 24 fotogrammi al secondo per il cinema, utilizzerò 1/48 di otturazione standard, se io lavoro per la televisione per il video in ambito europeo o australiano dove abbiamo il sistema standard denominato PAL siamo a 25 fotogrammi al secondo, quindi utilizzo una otturazione di 1/50 di secondo, se lavoro per Stati Uniti e Giappone quindi lo standard NTSC, oppure se devo visualizzare il filmato prettamente su computer, tablet e cellulari allora utilizzo di 30 fotogrammi al secondo, quindi il tempo di otturazione sarà 1/60.

Questa semplice formula nacque al tempo del cinema quasi 100 anni fa, la particolare proporzione tra la velocità di otturazione e la cattura di fotogrammi ci offre la corretta scia di movimento sugli oggetti veloci, per far sì che quando noi vediamo filmato lo percepiamo come un movimento continuo.

Utilizzare una velocità / tempo di otturazione differente significa alterare la percezione del movimento catturato, se io voglio ottenere un movimento più mosso allora utilizzo un valore più basso di otturazione ad esempio se io utilizzo valore di otturazione di 1/25 invece di 1/50 l’immagine in movimento sarà più mossa, quindi diventerà più faticoso leggere i dettagli, perché i movimenti si fondono tra di loro, questo tipo d’impostazione si può utilizzare se dobbiamo fare una panoramica a schiaffi molto veloce e non vogliamo vedere gli elementi ma vogliamo vedere una fusione totale di ciò che noi riprendiamo nella panoramica a schiaffo; possiamo utilizzare il trucco di abbassare il tempo di otturazione quando abbiamo veramente poca luce, una camera statica, non abbiamo movimenti veloci nella scena; con una otturazione di durata doppia abbiamo la possibilità di catturare il doppio della luce a parità di scena e diaframmi e iso.

Utilizzare un tempo di otturazione più alto del normale rende invece movimento stroboscopico, quando il tempo di otturazione è più alto del normale oltre a catturare meno luce congela il movimento in ogni istante, in maniera più netta, quindi se ci sono dei movimenti veloci diventano stroboscopici perché i vari fotogrammi non si fondono uno con l’altro per il cervello, ma il cervello percepisce in modo diverso e più fastidioso l’immagine, quel tipo di impostazione si utilizza esclusivamente se in produzione si vuole una ripresa al rallentatore e quindi sia bisogno di immagini nitide e molto dettagliate sintesi l’otturatore va impostato sempre a uno fratto il doppio dei fotogrammi al secondo.

Le uniche eccezioni su questo tipo di situazione sono legate alla creazione di effetti speciali, rallenty, oppure per necessità di catturare più luce possibile nella scena, altrimenti il movimento catturato sarà pieno di artefatti nel movimento cioè non sarà naturale

In sintesi

Otturazione sempre 1/fotogrammi al secondo x 2

Manipolazione esterna alla camera della luminosità

Quindi se vogliamo riassumere i parametri, noi sappiamo che iso dovrà essere impostato preferibilmente nel valore nativo e non dovremmo cambiarlo, il tempo di otturazione andrebbe impostato sempre uno fratto fotogrammi al secondo per due, quindi se dobbiamo controllare la luce da quello che abbiamo detto fino ad ora l’unico parametro che possiamo cambiare è il diaframma, ma abbiamo visto che comporta una variazione non solo della luce in ingresso ma anche della profondità di campo.

Quando noi vogliamo impostare determinati valori diaframma / otturazione / iso, per controllare correttamente l’esposizione dobbiamo quindi agire esternamente alla nostra camera, quindi se abbiamo poca luce dovremo in qualche modo aumentare la quantità di luce disponibile nella scena tramite pannelli riflettenti, tramite luci aggiuntive, eccetera o se invece la luce è troppa possiamo utilizzare pannelli riflettenti neri o bandiere per ridurre la quantità di luce che raggiunge i soggetti, oppure possiamo utilizzare davanti alla lente della camera quello che si chiama un filtro neutro, il filtro neutro è un filtro più o meno scuro che riduce la quantità di luce che colpisce la lente dell’obiettivo.

Riducendo la quantità di luce col filtro ND (neutro) possiamo controllare la esposizione dell’immagine. In questo modo noi siamo in grado di controllare completamente la quantità di luce in ingresso nell’immagine senza toccare i parametri che influenzano gli altri tre parametri : otturazione iso e diaframma.

I filtri neutri esistono in tre incarnazioni ovvero ci sono i filtri neutri digitali introdotti da Sony, che elaborano l’immagine per permetterci di lavorare più comodamente senza dover introdurre elementi davanti alla lente della camera davanti alla lente della camera.

I filtri neutri variabili ovvero un filtro che noi avvitiamo sulla lente della camera e girando in senso orario o antiorario possiamo far passare più o meno luce.

Il filtro neutro variabile è uno strumento molto comodo molto flessibile perché ci permette di controllare in maniera raffinata e precisa la quantità di luce che passa; esso ha due possibili inconvenienti :

  • il primo inconveniente è relativo alla qualità del filtro, se non è un filtro di alta qualità potrebbe influenzare la luminosità e soprattutto la nitidezza dell’immagine stessa quindi è molto importante investire una buona cifra sul filtro neutro per poter avere un’ottima qualità di resa ottica;
  • il secondo fattore che potrebbe (uso sempre il condizionale perché dipende dalla situazione situazione) influenzare la qualità dell’immagine è legato alla natura stessa del filtro neutro variabile, esso è formato da una coppia di polarizzatore che incrociandosi riducono la quantità di luce che passa.

Dato che si parla di filtri polarizzatori, c’è il rischio che qualche tipo di riflesso che io voglia disegnare su una superficie, su un attore vada sparire perché viene polarizzato dal filtro neutro stesso, questo tipo di problematica relativa dipende da situazione a situazione, esiste una semplice soluzione ovvero montare un filtro variabile su un’altra ghiera, che ci permette di girare dopo aver deciso la quantità di luce in entrata, quindi orientare il polarizzatore per quello che ci serve.

Il terzo tipo sono i filtri a lastra ovvero la modalità di sottrazione della luce è unica perchè abbiamo un oggetto che in modo lineare filtra una parte della luce.

Il filtro a lastra normalmente è di qualità superiore ai due precedenti tipi di filtri, ma ha lo svantaggio che a seconda di quanta luce c’è dobbiamo sostituire un filtro rispetto all’altro, richiede un investimento maggiore rispetto al filtro variabile e digitale, richiede avere un porta filtri dove mettere il filtro, ed essendo un elemento che rimane distante rispetto al classico filtro della lente c’è il rischio che possa raccogliere qualche riflesso di luce

La soluzione ottimale è il filtro lastra a livello di qualità di immagine, a livello di praticità il filtro variabile è molto più comodo ed efficiente, quindi a seconda del tipo di lavoro che uno fa, in funzione dei tempi e dei budget a propria disposizione. Il meglio sarebbe poter possedere entrambi, in caso di scelta pratica economica il filtro variabile di qualità dovrebbe essere sempre la prima scelta per una questione di convenienza unita alla praticità di poter avere diverse scale diaframmi che possiamo sottrarre immagine

Esposizione ETTR questa misteriosa…

da qualche tempo si parla di esposizione ETTR in elettronica, ma spesso non è chiaro il perchè di tale scelta, perchè guardando le immagini sembra esserci un errore di esposizione.

L’esposizione detta ETTR Expose To The Right è un metodo di esposizione che tende a sovraesporre in modo più o meno significativo le immagini per ottenere in postproduzione una maggior pulizia delle ombre e/o minor rumore generale.

Questo metodo deriva dal principio dell’esposizione in pellicola, dove una maggior quantità di luce rende il negativo più denso e quindi con un numero maggiore di informazioni rispetto ad un negativo sottoesposto che riceve meno informazioni.

Nell’ambito del digitale dipende da sensore a sensore e come viene usato, perchè ogni sensore ha una sua gamma dinamica di lettura, ma non significa che la si possa sempre salvare, ad esempio le video reflex hanno una gamma dinamica più estesa rispetto alle classiche telecamere, se fanno fotografie, ma quando registrano il video comprimono questa gamma dinamica in uno spazio molto più ridotto : 8 bit contro i 14 bit della cattura fotografica, quindi anche se le informazioni di partenza hanno una certa qualità, queste informazioni vengono compresse in uno spazio più ridotto.

Il nome è nato dal tipo di istogramma che si può leggere dalle immagini ETTR, dove l’esposizione sposta l’istogramma dalle informazioni dei medi alle alte luci.

Il concetto nasce da più motivazioni :

  • immagini più chiare vuol dire ombre più ricche di dettagli, e si può a posteriori abbassare l’esposizione ma avere dettagli anche nelle ombre.
  • immagini più chiare vuol dire compressioni migliori, perchè i codec di compressione a perdita riducono e comprimono molto di più le aree scure delle chiare
  • immagini più luminose normalmente vuol dire avere più informazioni nei medi e nelle alte luci, quindi immagini che percettivamente sono molto più interessanti.
  • ombre più chiare vuol dire meno rumore nelle stesse e quindi immagini più pulite

Quanto e quando si usa l’ettr dipende da diversi fattori, non è una tecnica lineare, ma si può applicare SOLO facendo esperimenti con le proprie attrezzature e si deve capire quale sia il limite delle stesse.

  • Ogni sensore ha il suo limite in alto e in basso come sensibilità, si tratta di testare quali sono i limiti, normalmente le macchine che registrano a 10bit il video, o meglio ancora in raw reggono molto di più delle camere tradizionali l’applicazione dell’ettr, perchè hanno più spazio di azione per recuperare le alte luci.
    Per capire i limiti si deve esaminare e scoprire come l’istogramma della camera (o dal monitor di controllo) vi fornisce i dati su luci e ombre.
    Alcune camere forniscono l’istogramma in relazione al sensore, altre alla capacità di registrazione. E’ importante verificare come funziona tale strumento per evitare di bruciare le immagini.
    Ad esempio le camere Blackmagic Design forniscono un istogramma e la zebra in relazione al sensore, quindi SOLO al salvataggio in raw, mentre se si lavora in prores si deve essere più conservativi, impostando la zebra al 95%, altrimenti le aree si bruciano.
  • Ogni sistema di registrazione interno o esterno può fornire una maggior capacità di registrazione delle informazioni lette dal sensore, dipende da come la camera gestirà la cosa, per cui va verificato, ad esempio nelle videoreflex poche hanno uscite video di qualità, oltre 8 bit 4:2:0, per cui un recorder esterno di qualità potrebbe essere uno spreco di soldi, dipende dall’uso che ne farete.
  • Ogni lente può reggere in modo diverso alla sovra esposizione, ad esempio la maggior parte delle lenti presenta un “purple fringing” ovvero un’area viola attorno alle parti sovraesposte, per cui si può recuperare le aree sovraesposte, ma rimangono aloni colorati che non si possono recuperare facilmente, a livello fotografico dentro Adobe Camera Raw c’è una funzione apposita, ma nei filmati non è così scontato.
  • A seconda dello spazio colore usato rec709 o log si hanno spazi diversi di recupero delle informazioni luminose, e considerato che molte macchine hanno metodi diversi di registrazione del log, se l’immagine non ha un grande contrasto il rischio di usare la tecnica dell’ettr in modo spinto comporta un appiattimento troppo forte delle immagini per poi ricostruire le informazioni che servono per generare l’immagine finale, ad esempio in log dove spesso l’esposizione delle alte luci si attesta intorno 80 usare l’ettr porta spesso il rischio di bruciare le alte luci
  • seguendo la logica dell’ETTR si ha meno consistenza tra uno shot e l’altro perchè si tende a esporre al max ogni ripresa, quindi gli elementi fondamentali come l’incarnato potrebbero variare troppo durante gli stacchi, per cui è importante utilizzare i Falsi colori durante l’esposizione in ETTR per mantenere la consistenza di esposizione tra una inquadratura e l’altra degli elementi fondamentali dell’inquadratura, meglio ancora se si tiene costante l’incarnato di un attore di riferimento, altrimenti la fase di postproduzione può diventare lunga e scomoda.

Come gestirlo in ripresa

Dato che la maggior parte dei monitor interni ed esterni delle camere sono limitati sia come gamma dinamica che capacità di riproduzione del colore e della luminosità, va evitato il loro uso per gestire l’esposizione in ETTR, vanno usati gli strumenti per leggere e capire la vera luminosità delle diverse aree.

Istogramma

Zebra

Falsi colori come funzionano e come leggerli.

Questi strumenti, usati correttamente aiutano a capire quanto possiamo andare a destra con i dati, naturalmente dipende sempre dalla capacità di cattura del sensore e dai vari fattori di gestione della luce. Non va usato sempre e comunque, soprattutto a seconda delle situazioni e del contrasto globale dell’immagine.

Nota Tecnica :

ho preferito lasciare la spiegazione più tecnica alla fine, perchè non a tutti interessano le spiegazioni tecniche dietro alla pratica.
I sensori moderni tendono a lavorare con un principio di esposizione legato a come funziona la sensibilità “digitale” alla luce : quando il sensore quando riceve la luce la differenza di un valore intero di stop (tempo/diaframma) si traduce nel raddoppiare o dimezzare la luce catturata; le tonalità di un’immagine rappresentano la quantità di luce registrata, quindi lo schema di gestione delle informazioni è strutturato allo stesso modo. Immaginiamo un sensore in grado di catturare 16.384 tonalità differenti (14 bit RAW), la metà di queste informazioni 8.192 saranno devolute allo stop più luminoso (l’area a destra dell’istogramma), poi gli stop inferiori avranno rispetticamente ognuno la metà delle informazioni del precedente, quindi rapidamente scendendo verso le ombre le informazioni caleranno in modo drastico.
gradientGuardando questo schema si può notare come già usando una registrazione raw a 14 bit (altissima qualità) il numero maggiore di informazioni viene registrato nella parte alta delle luci, ma se si lavora con la classica registrazione dei sensori a 8 bit diventa FONDAMENTALE tenerci alti con l’esposizione perchè fisicamente il numero di dettagli registrabili cade velocemente, per cui anche avendo tante informazioni nelle ombre, la distribuzione delle informazioni è fondamentale per registrare più informazioni possibili e spostarli nella parte alta è fondamentale, ragione per cui si usa lo spazio log di registrazione che spostando verso il centro le informazioni si cerca di conservare più informazioni possibili dai sensori.

Inoltre non tutti i sensori lavorano alle stesso modo tra luce e ombra, alcuni sensori, a partire dalla sensibilità Nativa distribuiscono la gamma dinamica in alto e in basso in modo non lineare, per cui ci sono camere in cui i 14 stop di gamma dinamica sono 9 in alto e 5 in basso, altre sono più equilibrate, dipende dal tipo di sensore, da come nasce e come è stato sviluppato.


Workflow per la stopmotion

Workflow… una parola spesso osteggiata, perchè implica un certo tipo di lavoro, di processo e spesso se non se ne comprendono i vantaggi potrebbe essere depracato in favore di processi più semplici, già provati e vissuti.

Personalmente sono un maniaco del controllo, della gestione di tutto, dai file alle immagini, fino al video e agli elementi 3d,e quindi in ogni tipo di lavoro posso inizialmente giocare per prendere confidenza con gli elementi, ma quando si tratta poi di lavorare seriamente, studio tutto il possibile per trovare il workflow migliore, che mi permetta di rendere al meglio i miei sforzi.

Alle volte dò per scontato troppe cose, dopo una semplice chiaccherata con una persona, ho capito che forse era utile buttar giù due righe su come gestire facilmente sequenze di file raw, in particolare quelli derivati da sequenze fotografiche, che potrebbero essere semplicemente un timelapse, oppure più importante, una animazione stopmotion, dove sudore e sangue sono stati spesi durante le ore per costruire fotogramma dopo fotogramma la magia dell’animazione.

Cos’è una sequenza di frame?

Un insieme di fotogrammi separati che devono essere gestiti come gruppo, ma vengono visti come singoli elementi. A seconda dei programmi potranno essere visti come un unico elemento (Resolve, Premiere, AfterEffects per esempio) o come tante fotografie separate (Photoshop o Lightroom).

Perchè scattare in raw invece che in jpeg?

Nella stopmotion da diversi anni si utilizzano le Dslr per lo scatto singolo, più comode, più semplici, più potenti della classica cinepresa da stopmotion, e con le nuove funzionalità digitali si possono usare tanti aiuti digitali come i programmi per la stopmotion, uno tra questi è DragonFrame, che permette di vedere, previsualizzare l’animazione mentre si lavora, disegnare curve di animazione, gestire più facilmente il reshooting e molto altro.

Quando si scatta con una DSLR ci sono più opzioni di salvataggio delle fotografie, il classico jpeg a due o tre livelli di compressione, alcune camere salvano in tiff, mentre il meglio si ottiene salvando nel formato detto RAW.

Il raw in realtà non è un vero e proprio formato, ma un metodo di salvataggio dei dati grezzi del sensore della camera prima che siano elaborati dalla stessa; ogni camera ha un chip di process dell’immagine che elabora i colori, la luminosità, etc per poi salvare le immagini come tif o jpeg, ma la maggior parte delle camere potendo salvare i dati grezzi come raw offrono la opzione di salvare al volo più o meno tutto quello che il sensore è in grado di catturare, poi dopo con calma elaborare i dati.

Ogni brand ha il suo formato raw, che viene poi gestito all’interno delle diverse applicazioni in più modi e con metodi diversi, per gestire questo tipo di file ci sono diversi metodi di lavoro.

Utilizzare il raw offre un controllo sull’immagine, sulla qualità, sulle correzioni veramente unico, inoltre basta poco a livello pratico per migliorare una immagine perchè banalmente… un jpeg classico è un file a 8bit, mentre un raw quando è scarso è a 12bit, vuol dire che se in un jpg posso registrare al massimo 16 milioni di sfumature, nel raw peggiore che possiamo registrare ne abbiamo almeno quasi 69 MILIARDI, cioè 4294 volte più ricco del jpeg…

Workflow rapido

ovviamente un file raw ha un peso maggiore di un jpeg, anche se non sempre tanto alto proporzionalmente alla qualità estesa, per cui spesso girare scattare in raw per eventi come i timelapse e l’animazione stop motion è conveniente e richiede poco lavoro in più, in cui in realtà quasi tutto è automatico, ma consente di avere una qualità maggiore a livello globale, maggior flessibilità operativa, e in caso di problemi avere più di quattromila volte lo spazio di azione in post. Inoltre in caso di recupero di immagini sovra o sottoesposte, non essendo danneggiate dalla compressione jpeg, si possono recuperare agilmente diversi stop senza problema.

Il workflow più efficiente per ottimizzare tempi e qualità può essere il seguente:

  1. Scatto raw
  2. Utilizzando Lightroom eseguire la divisione per cartelle per ogni scena e/o sequenza per ottimizzare l’organizzazione globale, usando il nome delle cartelle/file relativi alla scena per semplificare ricerca e organizzazione.
  3. Archiviazione dei DNG per future possibili lavorazioni
  4. Uso di MediaEncoder per la creazione dei file h264 per l’editing
  5. Terminato editing, post etc, prima del rendering sostituzione dei file di lavorazione con le clip DNG correttamente leggibili dai prodotti Adobe.

Questi passaggi potrebbero spaventare, ma in realtà sono molto semplici e possono essere gestiti in automatico, con l’ausilio di Adobe Lightroom per la gestione del raw semplificato.

Fase 1

Durante la fase di scatto sarebbe utile dividere in qualche modo le cartelle, diverse dslr prevedono la possibilità di nominare e dividere le cartelle delle card usate direttamente dalla camera, di seguito trovate per i principali brand il metodo di creazione, altrimenti fare riferimento al manuale d’istruzioni della camera.

per Canon si fanno i seguenti step :
– entrare nel Menu –> Impostazione con chiave inglese–> seleziona cartella –> Crea cartella
– entrare nel Menu –> Impostazione con chiave inglese–> seleziona cartella (e si sceglie la nuova)

per Nikon si fanno i seguenti step :
– entrare nel Menu –> Menù di ripresa –> Cartella di memorizzazione –>
seleziona cartella per numero –> Cambiare numero
 – entrare nel Menu –> Menù di ripresa –> Cartella di memorizzazione –> seleziona cartella da elenco

per Sony si fanno i seguenti step :
– entrare nel Menu –> Impostazione –> Nuova cartella
– entrare nel Menu –> Impostazione –> Selez. cartella REG

se non possibile la soluzione più agile è quella di usare un semplice blocknotes con il nome della scena prima del resto, questo fa si che sia più semplice dividere le fotografie rivedendo le foto con un qualunque browser fotografico, dal semplice finder o gestione risorse fino al potente ma gratuito Adobe Bridge.

Fase 2

La gestione della divisione in cartelle e nominazione può essere eseguita da diversi software, lo stesso Lightroom prevede di leggere senza copiare direttamente le cartelle, selezionare le fotografie relative alla scena, file/esporta e esportare i file in una cartella personalizzata (nome scena), rinominando le fotografie esportate, convertendole in Dng, formato più agile e comodo da gestire dentro i prodotti Adobe e non solo.

In questa fase possiamo organizzare le diverse fotografie, organizzarle per scene, correggere e ottimizzare le fotografie, prepararle per la fase dell’editing eseguendo correzioni del colore, stabilizzare eventuali differenze di luminosità, ottimizzare la qualità delle fotografie originali.

Fase 3

Il sistema più efficiente per archiviare i Dng è quello di creare una copia su un HD esterno al computer, sono da evitare dvd e bluray che nel tempo possono corrompersi e/o degradarsi facendo perdere la copia di sicurezza.

Fase 4

Adobe Media Encoder, se si apre il suo Browser multimediale, è in grado di vedere una cartella contenente una sequenza di DNG come una sequenza video, quindi è semplice trasportare la sequenza su un preset, e trasformarla da un’agile H264 per l’editing a file meno compressi e di maggior qualità.

Fase 5

Completato l’editing, è possibile sganciare i video creati con mediaencoder e agganciare i file Dng originali con una semplice operazione, selezionando tutte le clip, click destro mettendo offline le clip, poi successivamente, click destro collega oggetto multimediale per collegare direttamente i file DNG e avere tutta la qualità possibile da essi.

Da queste poche indicazioni diventa evidente come sia semplice da Lightroom eseguire delle regolazioni sulle immagini, copiarle da una foto a tutte le altre, e dopo aver esportato le dng usare file più leggeri di lavoro.


Blackmagic Production camera 4k

designLe camere Blackmagic dal 2012 stanno sconvolgendo il mercato, dopo la prima 2.5k con un sensore s16 l’azienda ha lanciato diverse altre camere per affrontare diverse fasce di prezzo, fasce di produzione, ambiti di lavoro.

Per una serie di combinazioni fortunate ho per le mani una BMP4K che mi sta dando tante soddisfazioni in tanti ambiti, da quello più complesso a quello più semplice della ripresa in stile camera ENG.

Su queste macchine sono nati tanti miti, sia perchè sono apparentemente “economiche ” (la 4k costa poco più di una 5d MKIII) e quindi accessibili anche ai newbey del cinema, sia perchè molte persone hanno avuto la pretesa da una Cinema camera come una telecamera amatoriale, ovvero tutta in automatico, avendo risultati poco entusiasmanti.

Essendo più economica di una controparte come Red o Arriflex tante persone hanno potuto acquistare la camera, ma senza la preparazione, o la voglia di imparare ad usare una Cinema camera, ovvero un prodotto che nasce per il cinema, con tutto ciò che ne consegue.

Il fatto ironico è che la maggior parte dei difetti che vengono imputati alla camera sono gli stessi che si possono trovare su camere professionali da una decina di volte il suo prezzo, ma in quel caso non si trovano tanti lamenti, ma al contrario si guarda l’estrema qualità che offrono queste macchine. Il problema vero è solo ignoranza sul prodotto, sul tipo di prodotto che gli utenti hanno per le mani, quindi si cercano funzioni o automatismi tipici dei prodotti amatoriali o semiprofessionali che non esistono sulle cineprese digitali.

Mito 1 : economica = non professionale

Molte persone sentendo il prezzo di base della camera la scambiano per una fotocamera e quindi la considerano più un giocattolo che una cinepresa. Partiamo dal fatto che la camera da sola non serve a nulla, quindi oltre alla camera si deve investire una cifra superiore a quella della camera stessa per renderla operativa aggiungendo ad essa come minimo le seguenti componenti :

  • cage per gestire l’ergonomia della camera >150€
  • supporto batteria v-lock o g-mount > 150€
  • batteria g-lock v-mount 100 w > 200€
  • microfono pro >200€
  • recorder esterno / amplificatore audio > 300€
  • ssd certificato 480gb (20 min raw -> 4 ore proresHQ) 250€
  • zoom luminoso serio stabilizzato 2.8 minimo > 1200€
  • Filtro ND variabile serio (per esposizione corretta) 200€
  • Filtro IR per gestire IrPollution in situazioni complesse 180€
  • cavalletto base ma stabile >750€

quindi l’investimento minimo è di circa 7000€ ben oltre la classica vDSLR o la telecamera media base, per cui proprio giocattolo non la definirei…

Se poi una persona vuole lavorare con più qualità, a questi elementi si devono aggiungere :

  • Monitor serio SDI in Hd >500€
  • Filtri ND a lastra pieni e sfumati
  • Lenti prime 35mm-50mm-85mm-135mm  >400€ per lente

Però chi arriva dal mondo Run&Gun delle VDSLR non si rende conto che si devono prendere un minimo di accessori ed elementi per rendere operativa la camera, nè accetta che se si vuol passare dalla serie C alla serie B si deve investire non solo soldi, ma anche tempo, studio, esperienza per usare al meglio il nuovo mezzo.

Mito 2 : la batteria dura poco e non si può cambiare

Molte persone che vengono dalle telecamere amatoriali o dalle fotocamere sono perplessi da questa scelta, che è comune nel mondo professionale, perchè la batteria interna non è una batteria da produzione, ma di sostegno, ovvero serve a mantenere operativa la camera quando si passa da una batteria esterna all’altra.

Le camere professionali usano sempre e solo batterie esterne, perchè montare una batteria interna di grande capacità appesantirebbe troppo la camera, e la renderebbe troppo ingombrante. Al contrario in caso di uso di Gimbal o strumenti in cui serve la camera più “free” la batteria interna consente in tante situazioni di agire dove una normale cinepresa sarebbe troppo ingombrante con una batteria aggiuntiva.

Mito 3 : ha pochi iso, non va bene per le situazioni LowLight

Le camere Blackmagic Design nascono con poche simulazioni di iso, solitamente 200-400-800 e alcune hanno anche il 1600 iso.
La scelta tecnica è evidente per una persona che ha sempre lavorato con la pellicola, mentre è incomprensibile per chi arriva dal video.
Un sensore, tranne che per alcune eccezioni, ha solo una sensibilità, mentre le altre sono solo elaborazioni digitali delle informazioni catturate dal sensore.

La BMPC4K è una camera che nasce a 400 iso, dove esprime il meglio della gamma dinamica, quando si lavora in low light

porto di santa margherita ligure di notte

Esempio di shooting a 400 iso

BMD ha fatto la scelta più efficace, catturare tutto il possibile dal sensore e poi decidere in post con calma quanto tirar su, come e quanto ridurre rumore, etc.
Per la simulazione dei diversi iso ho approfondito i vari principi di lavoro in un altro articolo.

Il vero problema di avere pochi iso disponibili nella scelta (che quasi nessuno in realtà vede, ma è reale) quando si riprende in lowlight, potendo solo arrivare a 800 iso come simulazione, diventa più difficile fare il fuoco manuale, anche con il focus peaking, mentre in camere dove abbiamo la simulazione di iso maggiori, è più semplice vedere per mettere a fuoco con poca luce, mentre con la BMPC4K o si ha un monitor esterno con lut e simili o diventa complicato, ma si fa, come si è sempre fatto con le cineprese in 100 anni di cinema, non a caso nel cinema a lato cinepresa c’è un misuratore di distanza digitale per i fuochi.

Mito 4 : produce file troppo grossi da usare

beh questo è il mito che mi fa più ridere… si compra una cinepresa digitale per avere qualità e poi si pretende che registri dei file compressi come l’h264 o h265… rovinando tutta la qualità che può offrire…

Comunque oltre al Raw, che effettivamente richiede spazio e potenza per lavorarlo la stessa camera può registrare in diversi formati prores molto più parchi nello spazio occupato pur mantenendo una qualità molto alta.

Dal 4k si può passare al formato fullHD che è di ottima qualità perchè è un downsampling del segnale 4k che arriva dal sensore, quindi con un dettaglio e una nitidezza incredibili occupando comunque uno spazio ragionevole.

Se si spende 7000 € per una camera e poi non si spende qualche centinaio di euro per gli hard disk del girato… cambiate mestiere…

Mito 5 : non scatta fotografie

Per forza è una cinepresa!!! se è per quello non va su internet, e non fa un buon espresso…
anche se la maggior parte delle telecamere scattano fotografie, spesso di qualità non eccelsa, non è molto assennato comprare una cinepresa per scattare fotografie…
E’ un commento fatto da chi arriva dalle vdslr, e mi lascia perplesso… a quel punto potrei rovesciare la domanda, se compri una fotocamera da 2500 euro perchè non fa bene i video in fullHD e 4K (A7 series esclusa) ?

Comunque se una persona volesse usare la BMPC4K come fotocamera, e si adattasse ad una ergonomia non adatta a questo scopo, basta mettere la camera in modalità raw, scatto in timelapse a 1minuto, e usare il bottone d’azione anteriore per lo scatto.

Di contro si può pensare alla BMPC4K come una delle poche fotocamere al mondo da 8.6 megapixel che può scattare raffiche di 30 fotogrammi al secondo per lo spazio disponibile sulla memoria, cosa che nessuna dslr può fare…

Personalmente ho una fotocamera per fotografare, una cinepresa per riprendere, ad ogni oggetto il suo scopo dove si esprime al meglio.

Mito 6 : ha un sensore piccolo per sfuocare

La BMPC4k ha un sensore s35 standard come Alexa e Red, quindi nel formato 35mm cinematografico, con le ottiche si comporta esattamente come si comporta una cinepresa di fascia alta; la ricerca dello sfuocato ad ogni costo è una moda moderna nata con le riprese fatte con le fullframe, dove la profondità di campo viene ridotta in modo esagerato e incontrollabile in una ripresa in movimento.

Non è un caso che il cinema sia stato per la maggior parte delle sue incarnazioni un formato 35mm, mentre il formato 70mm è sempre stato relegato a poche produzioni e in situazioni più particolari. Una dimensione di piano focale troppo grande costringe l’uso di diaframmi molto chiusi per poter gestire agilmente la profondità di campo sia nello statico ma soprattutto in movimento, ma chiudere troppo il diaframma può comportare il problema chiamato diffrazione che fa perdere nitidezza nell’immagine.

Col salire della risoluzione si deve andare di pari passo con la dimensione del sensore, ma se a livello pratico sensorre più grande uguale più luce, sensore più grande risoluzione più grande significa spesso incorrere nel problema della diffrazione.

Se volete approfondire il discorso dei formati della pellicola e dei sensori potete leggere questo articolo, mentre a riguardo dei vantaggi e svantaggi dell’uso di sensori di dimensioni grandi e piccole le trovate in questo altro articolo. Con l’esclusione di Barry Lindon dove Kubrick fece fare delle lenti apposite molto veloci, si tende a usare diaframmi più chiusi per non far impazzire i fuochisti e avere spazio di movimento.

Mito 7 : non ha un Nd integrato

Normalmente le telecamere hanno filtri ND integrati e non le cineprese, Blackmagic ha fatto una scelta ben precisa, ottimizzare i costi creando un corpo macchina cinema, con le logiche del cinema, nessun Dop serio userebbe un Nd interno se può scegliere un Nd esterno, magari sfumato e di qualità molto più alta.

Allora lo stesso tipo di difetto lo si può imputare  a macchine più costose come Red o Alexa, ma nessuno sembra lamentarsene…

Mito 8 : non si possono cancellare le clip, riempirò il disco subito

vero, anzi verissimo, perchè come in altre camere professionali è impedita la cancellazione per due ragioni tecnico pratiche molto importanti :

  • si evitano cancellazioni accidentali di clip da parte dell’operatore o altre persone attorno alla camera
  • si evita la frammentazione del supporto con continue cancellazioni di clip e riscritture. Fondamentale quando si registrano dati raw a quasi 20 gb al minuto…
    La frammentazione causerebbe sicuramente rallentamenti nella registrazione, e/o fotogrammi saltati durante la registrazione

Il problema di riempire i supporti è proprio relativo ai videomaker, o chi è nato col nastro (me compreso) perchè abituati a supporti molto economici si tende a sprecare registrando il superfluo, e quasi a caso nella speranza di azzeccare qualcosa di migliore nel riprendere di più.

Nel cinema non si possono registrare di nuovo le pellicole, si impressionano una volta sola, se si sbaglia, si butta la pellicola… Usare gli ssd con le Blackmagic Camera segue lo stesso principio, non si butta nulla, ma prima di fare una ripresa una persona deve pensarci bene e fare al meglio.
Più che un limite lo vedo come l’opportunità di lavorare al meglio per quello che si vuol fare, per imparare a inquadrare e riprendere meglio.

Mito 9 : è una camera rumorosa

Per fortuna.. come lo sono anche Alexa e Red quando non sono esposte correttamente, o una pellicola sottoesposta… La camera nasce IN TUTTO e per TUTTO una camera votata alla postproduzione, e la riduzione rumore è un processo da fare BENE in postproduzione, farla in registrazione è una necessità delle riprese Run&Gun, ma nel cinema si cattura il materiale al meglio e poi solo dopo si andrà a manipolare, campionare e rimuovere il rumore scegliendo per ogni inquadratura i settaggi migliori, senza perdere di definizione.

Inoltre è importante sapere che la camera è una macchina che deve lavorare in ETTR, ovvero una camera che si espone guardando l’istogramma e spostandolo dal centro un po’ a destra, in modo che si avrà l’immagine più pulita e definita possibile.

L’esposizione ETTR che molti fotografi già conoscono, sia moderni che utilizzatori della pellicola, spesso è poco compresa dagli utilizzatori classici di camere e telecamere.

Il concetto è molto semplice, per avere una immagine pulita senza rumore si deve offrire un minimo di xx informazioni luminose, quindi si apre il diaframma, si illumina, si gestisce l’esposizione per far si che le parti più buie abbiano più luce possibile senza mandare in saturazione le alte luci, poi in post si riportano le informazioni dell’istogramma nella posizione corretta, con la differenza che saranno più pulite.

https://youtu.be/NJQjGr1HNRY

Dato che sia il raw che il prores 10bit offrono maggior spazio di azione, registrare immagini un po’ sovraesposte (ma non clippate) offre la possibilità di catturare immagini più pulite, che verranno equilibrate a posteriori.

C’è un interessante articolo sull’ETTR sul blog di un filmaker molto in gamba Tom Majersky, per comprendere bene come funziona e come usarlo al meglio.

Mito 10 : non registra l’audio bene

La camera nasce con un micro microfono giusto di riferimento, poi ha due ingressi audio bilanciati per introdurre un segnale audio stereo di qualità. grazie ai ricenti firmware (dell’ultimo anno) è stata ottimizzata per registrare da microfoni esterni o attraverso recorder esterni un segnale audio di più che discreta qualità, visto che comunque cattura audio a 24bit 48 khz… Volendo si può collegare un microfono direttamente agli ingressi bilanciati, ma come per molte altre camere è meglio mettere in mezzo tra microfono e camera un amplificatore di segnale, o personalmente ho fatto la scelta di un recorder esterno Tascam dr-70, che fa sia da amplificatore che da recorder a 24bit 96khz, con canali separati (4) per cui ho sia una buona copia in camera dell’audio per il sinch automatico, sia un sistema di cattura e audio di alta qualità.

Potrei girare l’affermazione dicendo che tranne le vdslr panasonic le altre vdslr hanno un audio scarso e spesso non hanno neanche l’ingresso per l’audio serio da microfoni esterni…

Quali sono invece le informazioni che molti non sanno, e che invece sarebbe importante che i futuri acquirenti di una camera del genere dovrebbero sapere?

    • la camera nasce con lcd posteriore a bassa risoluzione per una visione veloce e il controllo touch delle funzioni, avere un monitor esterno di qualità per fuoco e gestioni generali è fondamentale.
    • la camera nasce per fare riprese votate alla post, se la si vuol usare Run&Gun esprime il suo meglio in FullHD proresLt dove tra scalatura e compressione il rumore è sparito nella maggior parte delle situazioni, e usando la curva Film si lascia ancora spazio alla post colore, mentre se si usa la curva Video, si ha già immagini di ottima qualità per montarle e usarle direttamente, essendo comunque dei file a 10bit.
    • per registrare un audio buono è fondamentale introdurre un segnale di un microfono amplificato direttamente o con un amplificatore intermedio beachtek o simili, come si fa con le dslr, per avere un buon rapporto segnale rumore
    • non tutte le ottiche canon compatibili sono supportate completamente, in particolare quelle che non hanno acquisito da canon gli schemi di costruzione delle ottiche e dell’elettronica, ma hanno fatto reverse engeneering (non faccio nomi, ma nell’ambiente e con una ricerca google si scopre), in quei casi la stabilizzazione potrebbe non essere supportata, come anche il fuoco automatico o il controllo diaframmi. Con l’uso delle ottiche native canon in generale si ha compatibilità quasi totale.
    • nascendo come cinema camera, anche riggata, è comunque una camera massiccia e che per le riprese in movimento richiede un certo tipo di attrezzatura per essere “mossa” in libertà.
    • il meglio dello sviluppo dei file avviene con DaVinci Resolve, che viene fornito in licenza full con la macchina, in particolare i file raw, ciò che si può estrarre dai file raw con davinci, per quanto si usino altri software evoluti, non si estrae tutta la gamma tonale, e comunque non con la stessa semplicità e pochi click.
    • come indicato nel mito 9, si deve sapere come va esposta, ovvero dato che il sensore lavora come la pellicola, si deve saper gestire al meglio il tutto, per poter estrapolare il massimo della qualità, se l’esposizione viene gestita in modo normale il sensore non riceverà il massimo della luce che serve e quindi i risultati saranno sempre di qualità più scarsa. Questa camera preferisce lavorare in ETTR, se non si applica questo sistema di esposizione le immagini saranno oltre che più piatte, più rumorose di quello che serve, inutilmente, meno dettagliate e povere d’informazioni nelle ombre.
  • la camera, come Alexa e Red soffre di IR pollution, quindi usando i filtri ND per ridurre la luce di giorno (perchè il problema non è quando manca luce, ma quando ce n’è troppa) si deve usare un filtro ircut che tagli le frequenze da 680 nm per evitare che i filtri neutri più forti diano una una dominante rosso marcino alle immagini.


L’importanza dell’ ISO nel digitale

image-quality-and-iso-sensitivityDopo aver chiacchierato con un po’ di persone ho pensato di buttar giù due riflessioni sulla sensibilità dei sensori moderni e sulla ignoranza che dilaga …

Ormai se una camera non riprende al buio con 128.000 iso (ho scritto 3 zeri) sembra che sia inutilizzabile, infatti il cinema si è sempre fornito di pellicole a 128.000 iso… naturalmente…
quando ho detto di aver usato una cinepresa digitale che lavora a 400 iso mi hanno preso per folle, e hanno pensato che parlassi di un prodotto molto vecchio.

Il cinema è fatto di sensibilità e luce, luce che si riceve, che si cattura, che si riflette …
Quando il cinema incontra l’avventura Fitzcarraldo
Se girate documentari, posso capire la ricerca della luce naturale, ma non ricordo tra le pellicole approvate dal National Geographics sensibilità superiori ai 1600 asa, quando si parlava di fotografia, assolutamente 400 per quanto riguardava i documentari… il lavoro veniva rifiutato, perchè non era nei loro standard.

Kodak e Fuji hanno prodotto pellicola cinematografica fino all’anno scorso, ora solo per le copie d’archivio, e non hanno mai fatto pellicole troppo sensibili, perchè le emulsioni più sensibili erano meno nitide, sia per struttura dei grani della pellicola, sia per la lavorazioen durante lo sviluppo. Infatti regola aurea in fotografia è usa sensibilità bassa perchè corrisponde a granulosità fine quindi dettaglio e definizione.

I digitalartisti che sono nati col digitale, e non si sono sforzati di conoscere l’analogico almeno come base di teoria, sono convinti che tutto sia legato alla sensibilità del sensore e della macchina, dimenticando che poi un sensore troppo sensibile, o amplifica digitalmente il segnale, oppure diventa inutilizzabile di giorno, perchè si deve chiudere il diaframma così tanto (creando diffrazione e quindi perdita di nitidezza) o usando filtri ND così spessi da perdere nitidezza e/o causare dominanti a vignettatura laterale che non si potranno mai togliere in post se non con fatiche assurde.

Esempio, con sensore a 400 iso, alle 15 di pomeriggio devo chiudere in situazione media il diaframma a 8-11 per esporre correttamente, oppure usare un ND 16 per togliere gli stop necessari per poter gestire l’esposizione corretta.
Se devo fare delle riprese in orari più serali o notturni sarebbe innaturale vedere sempre e tutto, ma comunque usando ottiche prime più veloci (1.8-1.2) posso lavorare con immagini ottime e dettagliate.

Troppo spesso si spinge per avere native immagini che tra rumore, e distorsioni date dall’amplificazione del segnale diventano innaturali…
Una ottica 50 mm 1.4 a 1600 iso 1/48 fornisce una immagine paragonabile a quella dell’occhio umano medio, come contrasto, luminosità in esterni notturni.

Troppi pensano che il segreto del filmlike sia un uso di tecnologie molto spinte, mentre alle volte il vero segreto è lavorare entro i limiti delle macchine, e saperli gestire al meglio…
Ogni DoP serio sa che se la macchina offre 14 stop di gamma dinamica è meglio usarne 8-9 se va bene, perchè la testa e la coda… come per fare del buon whisky vanno buttate… è il motivo per cui è nato il Log, che oggi si usa più del Raw e con il raw; si prende il meglio della gamma dinamica, lo si rimappa nel range disponibile di registrazione comprimendo tutte le informazioni, ma potendole riespandere a posteriori oltre a recuperare tutta la gamma dinamica si ha una qualità che non si avrebbe mai lavorando con il video in modalità normale.

Un’altra leggenda / mistificazione che nasce ė che gli iso siano solo dei metadata, non è esatto, dipende da camera a camera.

Nella maggior parte delle camere ha un sensore con sensibilità fissa a xxx iso e si registrano queste informazioni nella registrazione del file raw, poi a seconda delle impostazioni della camera, se si è indicato un iso differente dall’iso nativo viene mostrata una immagine rielaborata in funzione delle informazioni dei metadata registrati nell’immagine. Per questo motivo salvare un file raw permette di manipolare l’immagine in postproduzione sfruttando tutte le informazioni originali.

Questo però è valido solo se la registrazione del raw è fatta in modo completo, ovvero parliamo di camere di fascia alta come arriflex o red, mentre nel caso di BlackMagic Cinema Camera esistono si i metadata che indicano quale sia lo scostamento tra gli iso nativi e quelli artificiali, ma esiste una differenza fondamentale su come vengono registrati i dati.

L’iso nativo della bmcc è di 800 iso per la 2,5k e 400 iso per la 4k, mentre gli altri iso sono creati artificialmente facendo un sottocampionamento o un sovracampionamento delle informazioni. Teoricamente possiamo manipolare in post le informazioni, ma nel caso della Bmcc esiste un però…

La bmcc nasce con un ottimo sensore a 16bit, ma registra le informazioni in un file dng raw a 12bit Log, il che significa che dovrebbe registrare tutto il possibile, quando registra a iso nativi, ed è quello che bmd suggerisce per il maggior spazio di lavoro in postproduzione, quando invece lavorano in formato non nativo vengono applicate delle curve al log per prediligere le alte e le basse luci, quindi i 16bit rimappati sul 12bit log viene leggermente spinto nelle due direzioni, quindi in realtà potrebbe essere leggermente meno protetto come gamma tonale sugli estremi.

Ma quindi tutti questi iso in più servono o no?

Difficile dare un’unica risposta, diciamo che dipende da situazione e uso della camera :

PRO iso alti e bassi più ampi:

  • registrando in prores si può avere più spazio di azione per la post perchè si registra una maggior quantità d’informazione nelle zone d’ombra che sarebbero più chiuse, o nelle alte luci
  • avendo iso più alti si può vedere meglio per fare il fuoco
  • avere iso più bassi può essere utile quando non si hanno filtri ND per ridurre la luce

CONTRO iso alti e bassi più ampi

  • registrare a iso troppo alti può causare perdite di definizione e/o rumore eccessivo che rimane “inciso” nelle immagini
  • registrare a iso bassi con il downsampling può clippare le alte luci a seconda dell’algoritmo che esegue il downsampling
  • se si usano senza cognizione di causa si potrebbe limitare l’azione della post

Poi ci sono delle eccezioni, alcune camere sono dotate di un doppio ccd o cmos per la gestione di iso bassi e alti, in questo modo hanno praticamente due iso nativi (nuova panasonic varicam) e in quel caso questo discorso non vale.

bmccMa quindi queste camere BlackMagic Design poco sensibili?

dopo aver fatto un semplice esperimento, bmcc4K affiancata ad una canon 60D, scatti in raw su una e sull’altra, portati gli scatti dentro lightroom, gli scatti a iso nativi a 400 iso della bmcc4K sono stati schiariti in post per raggiungere i dettagli ottenuti con la 60D a 6400 iso raw, il risultato è praticamente lo stesso, solo più rumorose perchè la canon ha una riduzione rumore in camera nativa, ma una volta passata la riduzione rumore otteniamo lo stesso livello di informazione.

Naturalmente c’è un handicap per la bmcc perchè la blackmagic non ci ha mai pensato, che un iso più alto significa anche avere una immagine più luminosa per la messa a fuoco manuale.


Pagina 2 di 2

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!