Carlo Macchiavello

Tutto è possibile

Flickera, strappa, la panoramica che non va?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

E’ divertente vedere come sulla rete siano presenti risorse infinite, ma allo stesso tempo si diffondano tanti pareri e concetti errati per il semplice copia e incolla, condividi, o voglia di essere … l’esperto del Bar Sport come nel libri di Stefano Benny

Contrariamente a quello che la maggior parte dei sedicenti esperti i concetti di ripresa base sono pochi e semplici, legati a principi di percezione visiva basilare, che non possono cambiare perchè non dipendono dalle camere e dalle loro tecnologie, ma dalla capacità dei nostri occhi di percepire le immagini in movimento e come vengono elaborate dal cervello..

I nostri occhi catturano la luce, che rimane impressionata sulla retina per un tempo X definito persistenza retinica; quando l’occhio percepisce una serie d’immagini in sequenza :

  • se la differenza è corretta le immagini si fondono e vengono percepiti come movimento fluido
  • se la differenza è troppo grande il cervello percepisce le singole immagini, quindi un movimento scattoso, stroboscopico.

All’inizio della storia del cinema si lavorava a camera fissa, e il frame rate era variabile, perchè definito da una manovella girata dall’operatore, quando si iniziò ad automatizzare il tutto utilizzando dei sistemi  a molla prima e poi motorizzati, si è trovato il giusto bilanciamento tra fluidità e uso della pellicola nei 24 fotogrammi al secondo.

Con 24 fotogrammi al secondo, girati in modo corretto, si ha la percezione del movimento fluido, al di sotto si percepisce uno scattino più o meno pronunciato tra un fotogramma e l’altro. Il numero di fotogrammi al secondo, per anni il Santo Graal dei filmaker convinti che fosse il segreto dell’effetto cinema, è solo uno degli elementi che servono per ottenere un corretto risultato di percezioni fluida del movimento lineare, circolare, o della camera in movimento.

Mito 1 : è la pellicola a creare l’effetto cinema fluido, il digitale non lo può fare

hateful eightil segreto della fluidità è data da più fattori, che vanno correttamente impostati.
L’uso di un sistema di ripresa a pellicola rispetto al digitale non è fondamentale, quanto la cura con cui vengono girate le immagini. Se una qualunque persona con una macchina digitale semi automatica può provare a fare delle riprese e ottenere dei risultati decenti, con la pellicola si deve avere più cura e conoscenza in ciò che si fà, il che include le regole che troverete in fondo all’articolo per ottenere la corretta ripresa e riproduzione del movimento.
Sicuramente la proiezione in pellicola (anche di un materiale girato in digitale) offre una maggior fluidità della proiezione digitale della maggior parte dei proiettori (troverete la spiegazione più avanti).

Mito 2 : sono i fotogrammi al secondo che fanno più o meno fluido il filmato

Fattore relativamente corretto, più fotogrammi uguale più frammentazione di un movimento veloce, quindi la differenza tra i frame si riduce e si hanno meno probabilità di vedere i difetti, ma non si può pensare di girare a 120 fotogrammi al secondo per fare un play a 120 fotogrammi al secondo, la maggior parte dei televisori, proiettori e monitor non sono in grado di riprodurli. E fino ad ora tutti gli esperimenti di cinema in HFR (High frame rate) che sono banalmente 48 fotogrami al secondo invece che 24, hanno dato una percezione troppo … “reale” da come mi è stata descritta da tanti spettatori, amici, ma non tecnici, che non solo non apprezzavano l’effetto, ma al contrario lo hanno definito “come guardare il telegiornale”, decisamente meno cinema.

Mito 3 : è la camera a fare la differenza

b_unbroken_2_01Diciamo di si, è vero che alcune cineprese sono migliori di altre, i sensori leggono in modo diverso le immagini e quindi il risultato cambia, diventando più o meno piacevole.
Addirittura alcune camere possono riprendere il movimento in differenti modi e quindi forniscono una cattura diversa dell’immagine.

Ad esempio le macchine fotografiche catturano le fotografie con la tecnica del global shutter, ovvero in uno stesso istante cattura tutte le informazioni del sensore, ma quando lavorano per il video lavorano con la tecnica del rolling shutter, ovvero catturano sequenzialmente le linee, dall’alto verso il basso, il che significa che la stessa immagine se scattate una fotografia o catturate un fotogramma da un video offrirà una cattura del movimento differente, con distorsioni, effetti jello, e altre problematiche, questo riduce la percezione dell’effetto cinema.

Il rolling shutter non va demonizzato, dipende dalla sua velocità di lettura, molte cineprese digitali utilizzano la tecnica del rolling shutter per aumentare la gamma dinamica, ma la velocità di lettura del sensore è abbastanza alta da non doversi preoccupare dei difetti del rolling shutter.

Un altro elemento importante, che è il motivo per cui le vdslr sono entrate prepotentemente nel campo video è il contrasto dell’immagine, dove la classica telecamera offre una immagine molto dettagliata e contrastata, generata da un sensore a 8bit con caratteristiche ben precise, la dlsr nasce con un sensore da 12 a 14 bit che cattura molte più informazioni di luminosità e colore, offrendo immagini più morbide nel contrasto e ricche di sfumature, come si comporta la pellicola; addirittura le cineprese digitali partono da sensori a 16bit, per simulare più accuratamente la sensibilità e la curva dinamica della pellicola.

Mito 4 : c’è qualche filtro di post nascosto per fare il cinema

Anche se in postproduzione è possibile aggiustare qualcosa, per rendere più fluide le immagini, spesso il risultato è meno piacevole e corretto della ripresa fatta con le corrette impostazioni. Non esiste l’effetto cinema in post, se una immagine è ripresa male, si può limare, ma non si può trasformare il video in cinema, l’immagine stroboscopica in immagine fluida (con le eccezioni di post particolari e in particolari situazioni). In alcuni casi è possibile aggiungere la Motion Blur che si avrebbe catturato nella ripresa con Shutter corretto nella fase di post, ma da inquadratura a inquadratura il risultato e la qualità del risultato può variare quindi non si deve dare per scontata la cosa.

Mito 5 : ci sono dei segreti che i DoP famosi non vogliono condividere

Mai mito fu più sbagliato, dal 1935 la ASC americana quando pubblicò la Bibbia dei Direttori di fotografia, dove ci sono tutte le specifiche di ripresa corrette, giunto alla decima edizione, oggi si può acquistare in versione cartacea e digitale su Amazon Manuale vol 1, Manuale vol 02.

Chiunque voglia seriamente lavorare nel campo della ripresa deve conoscerlo a memoria, ci sono ogni tipo di tecnica e spiegazione pratica di come ottenere il giusto risultato di ripresa, che sia pellicola o digitale non cambia nulla, perchè i principi sono indipendenti dal mezzo di ripresa.

Mito 6 : la ripresa interlacciata è più fluida
meglio fare interlacciato e poi deinterlacciare

Mai mito fu più sbagliato, la ripresa interlacciata ha una maggior percezione di fluidità perchè i due semiquadri che compongono l’immagine vengono catturati in due istanti separati, quindi combinati insieme offrono una percezione di maggior mosso rispetto alla ripresa progressiva con gli stessi valori, nel momenti in cui si deinterlaccia con una qualunque tecnica si andrà a buttar via buona parte delle informazioni di movimento di uno dei due semiquadri, e si tornerà ad avere un fotogramma progressivo con le stesse caratteristiche di cattura di movimento della ripresa progressiva, ma con quasi la metà delle righe orizzontali, quindi avremo perso dal 30 al 40% della definizione.

Come ottenere un movimento fluido corretto?

Il segreto della fluidità è data da più fattori, che vanno correttamente combinati, se sbagliate uno di questi fattori, le immagini saranno scattose, che siano immagini digitali, che siano create da un programma di grafica 3d, che siano realizzate da una telecamera.

Quando catturiamo una immagine in digitale i fattori principali che influenzano la fluidità di movimento sono :

  1. Diaframma.
    Una delle ragioni per cui si sono diffuse molte le vdslr è la loro capacità di sfuocare molto anche a diaframmi più chiusi grazie al sensore di grandi dimensioni, questo oltre ad aiutare a concentrarsi sui soggetti senza saper lavorare di luce e scenografia, aiuta anche a ridurre l’effetto strobo, perchè sfuocando davanti e dietro il cervello uniforma e “impasta” maggiormente le informazioni correggendo anche eventuali leggeri strobo.
    Il diaframma regola aprendo e chiudendo le lamelle la quantità di luce entrante, il che ha due risultati diretti sull’immagine :
    Diaframma aperto, profondità di campo ristretta, zona a fuoco molto corta e contrasto tra luce e ombra più morbido
    Diaframma chiuso, profondità di campo più estesa, maggior contrasto globale dell’immagine.
    a diaframma aperto abbiamo un minor contrasto delle immagini che aiuta il cervello a fondere i diversi fotogrammi in unico movimento fluido.
  2. Otturazione o Shutter.
    Il tempo in cui catturiamo il singolo fotogramma definisce la nitidezza degli oggetti in movimento. Esiste una regola per cui la otturazione dovrebbe essere sempre il doppio dei fotogrammi al secondo, per cui se giriamo a 24 fotogrammi al secondo l’otturazione dovrebbe essere di 1/48 di secondo. Tutto questo nasce dal cinema e dall’otturatore a farfalla. Questo rapporto 2:1 fa si che le immagini siano abbastanza nitide quando sono ferme per percepire correttamente il dettaglio, ma abbastanza sfuocate quando si muovono velocemente per rendere più fluido il movimento percepito.
    Più è veloce il movimento, maggiore sarà la scia lasciata dall’oggetto e fotogramma dopo fotogramma offrirà una maggior fusione tra uno e l’altro dando origine ad un movimento fluido e continuo.
    Spesso si vedono riprese stroboscopiche perchè si alza troppo lo shutter per compensare la luce, cosa che si fa ogni tanto in fotografia, ma nelle riprese video è un grave errore che può portare notevoli problemi.
    Meglio mettere un filtro Neutro e ridurre la luce piuttosto che alterare come viene catturata la stessa.
    La regola generale è 1 / Numero dei Fotogrammi al secondo x 2 = tempo di otturazione.
  3. Iso.
    La sensibilità iso reale normalmente è una, in certi casi al max sono due con sensori sovrapposti, il resto sono elaborazioni analogiche o digitali del segnale catturato, ma come nel caso della pellicola, a bassi iso abbiamo più dettaglio e morbidezza, ad alti iso abbiamo meno dettaglio e più contrasto, quindi andiamo contro la regola n5 della fluidità.
  4. Lunghezza focale.
    Questo parametro è fondamentale perchè se noi lavoriamo con un grandangolo e giriamo di 5 gradi la camera, la differenza nell’immagine è piccola, mentre se applichiamo lo stesso movimento su un teleobiettivo spinto, la differenza tra una immagine e l’altra potrebbe essere di metri…
    La regola è semplice : la velocità di movimento della camera sarà inversamente proporzionale alla lunghezza focale della lente.
  5. Contrasto immagine.
    Il contrasto dell’immagine è un parametro fondamentale per gestire l’effetto strobo all’interno di un movimento, perchè maggiore è il contrasto dell’immagine e maggiore sarà il tempo che rimarrà impressa la parte luminosa dell’immagine sulla retina contro le parti scure, quindi se abbiamo un movimento su una campitura chiara di elementi molto scuri, o viceversa, sarà più facile percepire un movimento stroboscopico contro un’immagine che abbia un contrasto minore.
    Non a caso quando si riprende in pellicola (per tornare al mito 1) la capacità di compensare meglio la differenza di luminosità,  e in particolare le alte luci della pellicola offre immagini più morbide e piacevoli della ripresa digitale classica.
    Inoltre oggi si tende con la correzione colore ad aumentare i contrasti e rendere molto più forti i due estremi amplificando questo difetto.
  6. Movimento di camera
    La velocità di movimento della camera in senso orizzontale o verticale comporta un cambiamento più o meno ampio dell’immagine in funzione della focale (vedi regola n. 4), quindi la velocità va regolata in funzione di come cambierà l’immagine altrimenti risulterà stroboscopica.
    Non a caso dentro il mitico Manuale di American Cinematographer che ho indicato all’inizio dell’articolo contiene una serie di tabelle con le velocità di spostamento in funzione del framerate e della focale montata.
    La regola generale qui non esiste, perchè ci sono troppe variabili in gioco, inoltre a seconda dell’immagine più o meno contrastata si può variare la velocità e la percezione risulterà più o meno corretta, immagine più contrastata (vedi regola 5) più lento, immagine più mrobida di contrasti, più veloce.
    Esiste un trucco per superare alcuni limiti, in alcune occasioni : se dobbiamo fare una panoramica o una ripresa a schiaffo, si abbassa l’otturazione, in modo che ogni fotogramma in movimento diventerà molto più sfuocato durante il movimento veloce, amplificando la percezione di velocità e si evita l’effetto stroboscopico.
  7. La dimensione dell’immagine percepita.
    Banale, ma molti non ci pensano, chi nasce nel cinema, pensa in grande, quindi ogni tipo di movimento viene pensato per essere visto su uno schermo di grandi dimensioni, e quindi i fattori elencati fino ad ora sono tenuti in grande considerazione. Ogni differenza tra un fotogramma e l’altro viene amplificata, quindi tutta l’esperienza percettiva viene amplificata. Lo stesso movimento su un 40 pollici comporta una differenza di un cm tra un fotogramma e l’altro, visto su 15 metri di schermo diventa 60-70 cm e a seconda della distanza dallo schermo diventa quasi fastidioso quel salto perchè superiore alla capacità di fusione del cervello.
    Regola di base, non usare solo la visione sui monitor di controllo camera o un monitor piccolo per verificare i movimenti veloci, ma testare anche sulle grandi dimensioni, dato che non tutti hanno la possibilità di testare al cinema le immagini, basta un semplice videoproiettore, se si può investire su una camera di medio livello e attrezzatura varia, si può investire 5-600 euro per un buon proiettore HD o superiore per testare l’immagine su 2-3 metri di larghezza e avere la percezione corretta del movimento senza elaborazioni o postprocessing di vario tipo (per fortuna nessun videoproiettore ha i vari chip pixelworks e simili che tritano le immagini).

A questo punto conoscete le ragioni tecniche per cui una panoramica scatta o salta mentre fate una ripresa, quindi dovete ragionare di conseguenza per correggere la o le cause di tale problema IN RIPRESA perchè l’aggiunta di sfuocatura di movimento in post è fattibile entro certi limiti e comunque nella maggior parte dei casi sarà meno naturale di quella reale.

In sintesi i movimenti strappano perchè la differenza tra un fotogramma e il successivo è troppo grande per essere percepita dal cervello come movimento fluido, e quindi vengono percepiti i singoli fotogrammi.

Queste ragioni tecnico pratiche globali che valgono per ogni mezzo di ripresa analogico (pellicola) o digitale (cineprese), si devono tenere in mente ogni volta che si fa una ripresa, altrimenti successivamente si possono avere problemi non risolvibili in postproduzione.

Perchè al cinema il film lo vedo meglio che a casa?

Esistono diversi motivi, sia che si veda in pellicola che in digitale di solito se un film è pensato per il cinema è ripreso e gestito nel modo corretto (batman dark night return presenta alcuni punti con strobing, Civil war durante i combattimenti è inguardabile, shutter altissimo e molto fastidioso, ho avuto modo, grazie ad un amico gestore di cinema di guardare frame by frame le sequenze e tecnicamente sono aberranti, fastidiose, vedevo mezzo cinema che strizzava gli occhi…

movie-theaterQuando si proietta in pellicola si può apprezzare una maggior fluidità per un fattore tecnico molto semplice, l’otturatore a farfalla. Quando si proietta una pellicola esiste una operazione che viene ripetuta 24 volte al secondo : otturatore aperto viene visto il fotogramma, otturatore chiuso il fotogramma viene sollevato per passare al successivo.

Questa operazione fa si che ci sia la classica luce intermittente che proviene dalla cabina di proiezione (che si può vedere in tanti vecchi film), e soprattutto fa si che colpendo lo schermo e rimbalzando sulla retina i diversi fotogrammi si fondano insieme, perchè mentre sta scendendo l’immagine impressa sulla retina del primo fotogramma, arriva la luce del secondo fotogramma che si fonde su una parte del primo, rimasta per persistenza retinica, in questo modo viene creata una forma di blending dell’immagine residua rendendo più fluido il passaggio da un fotogramma all’altro.

La proiezioni digitale invece manda luce continua sostituendo istantaneamente un fotogramma con il successivo, quindi essendo sempre i fotogrammi al massimo della luminosità sono più forti e non si mescolano tra di loro nello stesso modo, causando una maggior incidenza di possibile strobo rispetto alle stesse immagini proiettate dalla pellicola. Infatti nei moderni proiettori digitali stanno ripristinando l’otturatore a farfalla per migliorare la fase di visione dei film.

Purtroppo ci sono alcuni produttori di televisori che stanno sperimentando la malsana idea di fare pannelli giganti per sostituire i cinema con dei supertelevisori delle dimensioni del telo del cinema, spero vivamente che tale trend non prenda mai piede, considerati i possibili problemi di fruizione dell’imagine che possono introdurre, oltre al fattore tv nel riprodurre una immagine nel modo corretto, già è difficile trovare un televisore fedele a ciò che viene introdotto in esso, figuriamoci se fanno un discorso del genere al cinema…

Quando vediamo lo stesso film a casa, sa Dio cosa andiamo a vedere, perchè difficilmente un televisore ha la capacità di lasciare intatte le immagini, gli ingegneri video che lavorano per le varie case produttrici di televisori hanno l’arroganza di pensare cosa sia meglio per noi durante la visione di una immagine, masticandola con processori d’immagine che saturano all’inverosimile i colori, contrastano fino a trasformare ombre delicate in macchie nere, aumentando la nitidezza fittizzia con maschere di contrasto che creano dei bordi attorno ad ogni dettaglio ad alta frequenza, che eliminano ogni sorta di rumore video trasformando una spiaggia in una distesa di colore sfumato, perchè il dettaglio della sabbia per loro era rumore, e per ultimo, a seconda dei tifosi di fluidità o nitidezza c’è il partito di “flash” che aggiunge sfuocatura di movimento a ogni pixel in movimento più veloce di X facendogli lasciare la scia come il noto supereroe della DC nella serie anni 90, oppure quelli che la devono eliminare completamente perchè loro vogliono vedere nitida ogni cosa, trasformando il più delicato film in una brutta telenovelas anni 80….

Ora io ironizzo, ma vi posso garantire che trovare un televisore in cui si possa disabilitare ogni singolo parametro di manipolazione e vedere le immagini originali, quelle su cui centinaia di persone hanno sudato settimane se non anni per realizzarle è un’impresa titanica…


Log o non Log, ma quale log?

gamma-power-law_chart

Cos’è il log

Log è l’abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell’uso.

 Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura, no.
A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come Sony dove ci sono curve di contrasto molto flat registrate quasi sempre a 8 bit (poche sfumature utili per la postproduzione), è fondamentale scegliere bene il profilo, magari con l’ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell’immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello Sony c’è il rischio che nella registrazione si perdano delle parti dell’immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il formato log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate.
Nei tempi recenti il log è stato usato anche nei formati a 8 bit, ma con le ovvie limitazioni.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8-10bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l’occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili… se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla…

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi nella compressione, per cui un file log a parità di cattura con un Rec709 potrebbe offrire meno rumore video (se sviluppato correttamente, altrimenti mostrerà il rumore originale, i falsi miti che il logo offra più rumore è semplicemente perchè riportando il log in uno spazio rec709 il rumore meno contrastato sembra più presente).

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso catturando una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l’esposizione dell’immagine
  • in alcune macchine scegliere il log (la curva di Log) corretto.

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

    • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
    • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
    • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c’è tempo per fare la post minima del log (non ci credo…).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto.
Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti.
Le immagini, tranne l’ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original

Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file)

Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione.

Log vs rec 709 illuminato

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l’immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

Con l’ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno… e tutti
non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione… cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist.

Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica.

Tech note

quando si espone, ogni dop o fotografo sa che per ogni “stop” di luce si deve raddoppiare le informazioni, per farla semplice, se ho 100w di illuminazione, per ottenere +1 stop devo metterne il doppio del precedente, quindi 200W, ma appena supero questa soglia, +2 stop uguale 400W (il doppio del precedente) quindi come vedete diventa rapido il calcolo per cui come nel logaritmo, per avere le informazioni necessarie è fondamentale raddoppiare le informazioni di base ( o dividerle) quando si tratta di luce.

Quindi se ho esposto correttamente un’area del sensore avrò il valore di partenza, poi ad ogni salto in avanti o indietro, dovrò raddoppiare o dividere i valori di informazione luminosa, il che significa che tra luce e ombra in modo lineare avrei il massimo delle informazioni solo ed esclusivamente nella luce. Mentre in una cattura logaritmica che mima una distribuzione più uniforme delle informazioni siamo in grado di “distribuire” in modo più “variegato” le informazioni disponibili, quindi sia nella luce che nell’ombra possiamo catturare un certo numero di informazioni, offrendo nella fase finael una immagine più ricca di sfumature globali.

Ogni camera partendo da un sensore a 16bit offre come minimo 65k di sfumature di luminosità, quindi codificando queste stesse informazioni in una curva logaritmica più morbida e regolare, siamo in grado di ottimizzare la registrare delle informazioni per una immagine più ricca e pulita quando si scende a 10 bit o peggio a 8 bit di informazioni luma / colore.



Un buon filtro ND variabile Genustech Eclipse

71SPYgEAUVL._SL1500_Pur essendo un amante dei filtri a lastra, ammetto che un filtro ND variabile di ottima qualità può essere molto utile, soprattutto se si hanno macchine molto sensibili, e durante il giorno una macchina a 400 iso è ESTREMAMENTE SENSIBILE…

Dopo aver studiato in giro molti siti, review etc, ho scelto il Genustech Eclipse.
La recensione che mi ha convinto è quella del filmaker tedesco Frank Glencairn. In cui vede il confronto tra il Genustech Eclipse e l’Heliopan.

Cos’è e a cosa serve?

Un filtro Nd serve a ridurre la luce, il filtro ND variabile è una coppia di polarizzatori che ruotando uno rispetto all’altro riducono progressivamente la luce passante di diversi stop in modo graduale. Ruotando una parte del filtro si riduce o aumenta la quantità di luce che passa, mentre un filtro a lastra ha valori fissi di passaggio della luce.

Perchè è meglio di un filtro a lastra?

Perchè migliora la gamma dinamica dell’immagine! Il filtro ND variabile essendo un polarizzatore va a tagliare le alte luci, prima le alte luci delle medie, mentre un filtro a lastra abbassa la luce in generale, quindi usando un filtro ND variabile abbiamo la possibilità di controllare ancora più facilmente la luce in ingresso per una parte dell’immagine senza chiudere le ombre.
Inoltre potendo decidere in modo più preciso quanta luce togliere con la rotazione, è possibile dosare meglio la luce, evitando di comprare troppi filtri a lastra, e allo stesso tempo togliere troppa luce quando non si ha un filtro neutro intermedio tra due.

Perchè è peggio di un filtro a lastra?

perchè essendo un polarizzatore potrebbe togliere alcune alte luci (riflessi), che potrebbero essere utili per dare maggior tridimensionalità alle immagini, è parte della sua natura.

Alcuni filtri variabili possono introdurre degli effetti di moires, non è questo il caso.

La soluzione banale (come indica Frank) è accoppiare il filtro a un polarizzatore senza cristallo (solo la cornice), quindi si ruota il filtro ND per decidere la luce che serve, poi ruotando il secondo filtro collegato si orienta il filtro ND in modo da non togliere i riflessi di luce che ci danno fastidio. Quindi tutti i vantaggi senza gli svantaggi.

Perchè lo ho scelto?

perchè è il meglio che potevo scegliere ad una cifra più che onesta.
Il filtro mostra un’ ottima nitidezza anche a chiusura massima, nessun inquinamento cromatico evidente, non fornisce difetti visivi come il moires che viene introdotto da altri filtri come l’Heliopan, quindi per meno di 150 € è un ottimo prodotto.


Sensibilità ultra, la nuova frontiera, indispensabile o no?

Cattura l’avventura!

explorerDa tempo le macchine sono sempre più sensibili, per riprendere con la luce di una candela… sapete quando ho sentito questa frase?

1988 pubblicità di una delle prime spallari VHS della Philips… giusto quei trentanni fà…

Certo erano immagini con un gain (un guadagno artificiale) che neanche sui primi cellulari si vedeva… eppure per l’epoca era magia.

Oggi poi ci troviamo in una serie di situazioni contraddittorie che molti non si spiegano, macchine fotografiche ultra sensibili come le recenti Sony Alpha che spaziano oltre i 200.000 iso (parliamo di duecentomila) fornendo immagini più che decenti se presente un minimo di luce, mentre camere più professionali arrivano a 800-1600 asa le bmc, 3200 asa le Arriflex e le Red, cosa che la maggior parte delle persone non si spiegano.

Le domande che sorgono spontaneamente sono :
– perchè non lo fanno le aziende così blasonate se Sony lo fa ?
– serve veramente avere questa luminosità oltre l’umano?

Sinceramente alla prima domanda non so darmi una risposta, o meglio, posso solo fare ipotesi, relative al tipo di tecnologia che sta dietro alle cineprese, e perchè non si sente la necessità di arrivare a sensibilità così folli, dato che anche con la pellicola nel cinema ci si ferma con la 500 Asa prodotta da Kodak.

A cosa serve una maggior sensibilità di pellicola o sensore?

Il discorso potrebbe essere molto articolato, con tanti discorsi nostalgici, ma mi piace essere pratico.
Il cinema si fa con la luce, quindi a me dei discorsi di riprese in lowlight senza luci o altro non mi frega molto, soprattutto perchè raramente vengono bene anche con i sensori ultrasensibili, mancano i riflessi di luce nei punti giusti, i giochi di luce e ombra, tante cose che sembrano naturali, ma che sono finemente costruiti dai direttori di fotografia.
Un sensore più sensibile aiuta a lavorare meglio in determinate situazioni, punto …

Sfatiamo qualche mito sulla luce naturale ?

  • Il recente Revenant con fotografia del premio oscar Lubensky è stato girato in luce naturale, non ha usato luci aggiuntive…
    più o meno, ha fatto largo uso di pannelli riflettenti, ha sfruttato fuochi e luci varie naturali, e pare che durante la fase di colorgrading abbiano massaggiato parecchio le immagini per esaltare e amplificare molto i contrasti di luce e le varie tonalità delle immagini.
    Comunque, essendo un amante della Golden hour, quell’intervallo di tempo al tramonto in cui c’è una luce magica, so che si può ottenere un risultato molto vicino a quello, ma se lo poteva permettere solo Inarritu, perchè quell’intervallo dura pochi minuti… per sfruttarlo al meglio sono andati più al nord possibile per poter trovare i luoghi con una durata maggiore della Golden Hour.
  • Se ho luce, quella basta, perchè aggiungere luce?
    spesso il problema non è la quantità di luce, ma la distribuzione tra zone di luce e ombra, la direzione, che se sbagliata rovina il viso di attori e attrici, il rischio è che lo sfondo sia più luminoso del primo piano, quindi si deve schiarire il primo piano per non bruciare lo sfondo, che è brutto da vedersi
  • Se il sensore è sensibile perchè devo usare la luce?
    il sensore può essere sensibile ma non a tutta la luce, ma solo a determinate frequenze, per cui più andiamo sul low light, più si perdono alcune frequenze di colore della luce, quindi anche se il sensore è più sensibile è probabile che i colori che può catturare siano meno intensi, o peggio, che ne perda alcuni, il che significa che le immagini saranno più povere e soprattutto limitate
  • Perchè si usano pellicole meno sensibili al cinema, perchè si devono usare meno iso in ripresa se ci sono?
    per una questione di qualità dell’immagine finale, all’alzarsi della sensibilità chimica o elettronica, l’immagine peggiora aumentando il contrasto, riducendo i dettagli fini catturabili, quindi si usa sempre gli ISO o Asa nativi di un sensore o una pellicola e non si “tirano” amplificano in nessun modo. Nella pellicola per catturare maggior luce i grani devono essere più grandi e con una capacità di cambio alla esposizione più duro, quindi diventano velocemente più visibili, offrendo però un contrasto maggiore, e la cattura della luce diventa più grossolana.
    Allo stesso modo nel digitale si amplificano le informazioni, ma se queste sono poche, quando si amplificano aumenta il contrasto e quindi si evidenzia l’immagine ma anche il rumore stesso.

Update 2020 : mi fa piacere notare come certi argomenti da me trattati vengano ripresi anni dopo dal noto BlogTecnico RedSharkNews


超感度、新しいフロンティア、不可欠かどうか?

冒険をキャプチャ!

エクスプ ローラー機械は長い間、ろうそくの光で再開するために、ますます敏感でした. 私がこの文章を聞いたとき、あなたは知っていますか?

フィリップスの最初のVHSショルダーパッドの1988年の広告. ちょうど30年前の..

もちろん、彼らはあなたが見ることができなかった最初の携帯電話でもゲイン(人工的な利益)を持つ画像でした. しかし、当分の間、それは魔法でした。

今日、私たちは、多くの人が説明していない一連の矛盾した状況に自分自身を見つける、200,000 iso(我々は20万を話す)以上の範囲の最近のソニーアルファのような超敏感なカメラは、光の最小値がある場合、まともな画像以上のものを提供し、より専門的な部屋は800-1600 asa le bmc、3200 asa le Arさいなことにほとんどの人が説明していない。

自発的に発生する質問は次のとおりです。
– ソニーがそうするなら、なぜそのようなエンブラゾンド企業がそれをしないのか?
あなたは本当に人間を超えてこの明るさを持っている必要がありますか?

正直なところ、私は答えを与えることができない、またはむしろ、私はカメラの背後にある技術の種類に関連して、私は仮定を行うことができます、そしてなぜあなたは映画で映画でコダックが生産500浅で停止するので、そんなにクレイジーな感性に到達する必要性を感じることはありません。

フィルムやセンサーの感度を高くする方法は何ですか?

スピーチは非常に明瞭で、ノスタルジックなスピーチがたくさんあるかもしれませんが、私は実用的であることが好きです。
映画は光で作られているので、特に超敏感なセンサーでもうまく来ない、適切な場所での光の反射、光と影のゲーム、自然に見えるものの多くが、写真の監督によって細かく構築されているので、私は光や何も与えていない低照度撮影の話です。
より敏感なセンサーは、あなたが特定の状況でより良い作業をするのに役立ちます.

自然光に関するいくつかの神話を払拭しましょうか?

  • アカデミー賞を受賞したルベンスキーの写真を持つ最近のレヴァナントは、自然光の中で撮影され、追加のライトを使用しませんでした。
    多かれ少なかれ、それは反射パネルを広く利用し、様々な自然の火や光を利用し、カラーグレーディング段階では、光のコントラストと画像のさまざまな色合いを強化し、増幅するために画像をたくさんマッサージしたようです。
    とにかく、ゴールデンアワーの恋人であり、魔法の光があるとき、私はあなたがそれに非常に近い結果を得ることができることを知っていますが、イナリトゥがそれを買う余裕があれば、その間隔は数分続きます. それを最大限に活用するために、彼らはゴールデンアワーよりも長い期間の場所を見つけることができるように、できるだけ北に行きました。
  • 私は光を持っている場合は、それで十分です、なぜ光を追加するのですか?
    多くの場合、問題は光の量ではありませんが、光と影の領域間の分布、間違った場合、俳優や女優の顔を台無しにした場合、リスクは背景が前景よりも明るいということですので、背景を燃やさないために前景を明るくする必要があり、見て悪いです
  • センサーが敏感な場合、なぜ私は光を使用する必要がありますか?
    センサーはすべての光に敏感ですが、特定の周波数でのみ、低光に行けば行くほど、光の色の周波数が失われるので、センサーがより敏感であっても、キャプチャできる色が強くない、または悪いことに、画像が貧弱で特に制限されることを意味します
  • なぜ映画に敏感でない映画を使うのですか?
    最終的な画質の問題では、化学的または電子的な感度が上昇すると、コントラストが高くなり、細かくキャプチャされた詳細が減少し、センサーやフィルムのネイティブイソやAsasが常に使用され、何らかの方法で「引っ張る」ことはしません。より多くの光を捉えるためにフィルムでは、穀物はより大きく、より困難な露出で容量を変更する必要がありますので、すぐにより目に見えるようになるが、より大きなコントラストを提供し、光の捕獲は粗くなる。
    同様に、デジタル情報では増幅されますが、それが少ない場合は、増幅するとコントラストが増加し、画像だけでなくノイズ自体もハイライトされます。

アップデート2020 :私が取り上げた特定のトピックは、数年後に有名なRedSharkNewsによって取り上げられていることに注意してください


Pagina 25 di 39

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!