Tutto è possibile

Tag: red Pagina 1 di 2

perchè le box cam non vanno bene per chi le vorrebbe

Ricordo da una vita il desiderio di gear, hardware dei filmaker, istigati dai produttori di props per le camere, la possibilità di attaccare, aggiungere pezzi alla propria camera, "potenziarla" secondo loro, spesso mettendo quello che potrebbe servire, riempiendo e circondando la camera di tutto e di più... per poi usarle per lo stile Run and gun... ovvero lo stile guerrilla che dovrebbe essere fondato sulla semplicità.

Curioso come in campi paralleli, come quello fotografico, questo tipo di Rigging non ha mai preso piede, i fotografi aggiungono una cover alla camera, elegante, un bottone più ampio ... al massimo un battery grig per aumentare l'autonomia della camera durante scatti prolungati, ma niente di esagerato.

La scusa numero 1 che sento da chi vuole le box cam è :
la vogliono personalizzare, perchè a loro serve la cam con i componenti disposti in modo differente... mah... soprattutto perchè di solito questo tipo di scusa la sento usare da persone che non hanno reali esperienze con più camere, se va bene con telefono e una reflex, ma non hanno mai usato telecamere reali, spallari o quel tipo di camere dove l'ergonomia è studiata da DECENNI e tutto è pensato per far lavorare in un certo modo le persone.

Infatti appena vedo un rig di questi personaggi posso notare tre cose scomode :
- bilanciamento del peso : la struttura non è pensata per distribure il peso mentre ci si muove, si cammina, o semplicemente la si tiene su un in mano, causando oscillazioni e/o problemi dopo poco tempo che uno usa la camera, lasciamo stare poi l'idea di metterla su un gimbal, visto che la distribuzione del peso e la posizione del monitor sono fondamentali per la gestione sul quel tipo di prodotti.
- ergonomia : i bottoni da schiacciare, le ruote da girare per controllare fuoco, diaframma e zoom non sono usabili dalla stessa mano.
- trasportabilità : quasi tutti i rig che ho visto sono proni a danni durante il trasporto della camera perchè la struttura e i cablaggi non sono protetti e se posti in borsoni, flycase etc comunque rischieranno di colpire e danneggiare i connettori delle camere e le altre attrezzature.

La scusa numero due è :
se la devono montare per riprese speciali ad esempio

  • camera car : un rig per montare una camera qualunque su una macchina, stabile, costa dai 200 ai 500 euro, e si montano camere per diversi kg, non c'è bisogno di mettere una box cam, e nella maggior parte dei casi una camera più grande è anche più stabile. comunque tutti questi rig hanno un mount per una testa di cavalletto e quindi si monta quello che si vuole.
    Se si deve fare un rig leggero, si usano action cam come le ultime gopro, oppure come la blackmagic micro studio cam g2, per restare sul leggero.
  • drone cam : questa è l'accezione che mi fa più ridere.. perchè chi lo dice non ha il patentino, non sa cosa voglia dire far volare un drone nè quali siano le logiche per farlo volare.
    Per avere un drone che sollevi una camera 300-400 gr si devono spendere diverse migliaia di euro, lo si deve fare di professione, si devono aver speso altrettanti euro per i patentini per i droni grandi, assicurazioni etc, senza contare che la camera volerebbe quasi alla cieca, mentre essendoci con spese minori droni con camere che registrano anche in raw, con controllo totale, ottiche hassemblad, è ridicolo anche pensarlo... ma ammettendo di volerlo fare, vuol dire che non ci sono problemi di budget.

La scusa numero tre è che la camera non è adatta al loro tipo di ripresa, quindi la devono rendere da run and gun a camera spallare, aggiungenso spallaccio, monitor laterale, maniglie, appendono cavi varii, dalla batteria partono più elementi per alimentare i prodotti

  • da box cam a spallare significa spendere molti soldi aggiungere alimentare tanti elementi collegati, monitor/viewfinder, microfono, recorder audio, radiomicrofono; montare uno spallaccio e dei magic arm per portare il monitor davanti a loro, spesso troppo vicino causando fatica agli occhi.
  • collegare ad una batteria più prodotti fa rischiare il cosiddetto ground loop; quando si collegano più apparecchi alla stessa batteria si rischia il corto circuito e friggere connettori hdmi e sdi come niente.
  • alla fine se la camera non nasce per essere spallare diventa difficile avere un buon bilanciamento del peso, il che ne risulterà una camera difficile da bilanciare sulla spalla quando ci si muove, quando si cambiano focali o fuoco, quando si deve fare una ripresa per un tempo prolungato.

Quindi in breve, chi vuole una box cam per cambiare il rig e adattarla a più situazioni e risparmiare invece di comprare più camere, finisce con lo spendere di più in accessori e contorni; chi vuole cambiare la natura della camera si troverà con una camera che non ha mai i bottoni al posto giusto, quindi perderà tempo (vitale per chi fa run and gun) nel cercare controlli e/o cambiare le impostazioni, chi vuole piazzarla in posti speciali si accorgerà che comunque dovrà aggiungere come minimo un trasmettitore video per vederne le uscite con il rig e scoprirà che non è più economico fare questo tipo di scelte...

Per tutti gli altri, che non hanno problemi di budget, le box cam sono perfette, perchè saranno le camere per quello che servono, mentre per le altre operazioni, useranno altre camere, perchè ogni camera ha il suo ambiente naturale d'azione.

Un esempio :
Red Komodo, perfetto leggera, versatile. solo il corpo macchina sono 6k, poi aggiunto un monitor, supporti proprietari dove registrare e altre due o tre sciocchezze, si arriva senza problema a 10k. quindi se si sono spesi 10k per una camera specifica non è un problema spenderne altri per una seconda cam più comoda per metterla sulla spalla.

Sony Fx 3, perfetto, versatile, leggera, solo il corpo macchina sono 4.7k, da aggiungere poi monitor esterno, recorder esterno per il raw, e arriviamo senza problema a 7-8k

Panasonic Lumix DC-BS1HE, leggera, versatile, buon sensore, solo il corpo 3.4k, da aggiungere poi monitor esterno e/orecorder esterno per il raw, e arriviamo senza problema a 5/6k

giusto per citare marchi noti di box cam di un certo livello.

12k è lo specchietto, vediamo dietro le vere rivoluzioni

Il 16 luglio 2020 Grant Petty, ceo e fondatore di Bmd presenta una nuova camera che rivoluzionerà tanti paradigmi, da qui ai prossimi anni.

Di fronte ad un mercato saturo di prodotti che sta guardando le risoluzioni verso 8k è stato presentato il risultato di tre anni di sviluppo: la Ursa Mini Pro 12k.

 

Subito sono partite le lotte tra fanboy e haters di varie fazioni, da chi si lamenta del prezzo (di una camera che è stata presentata da Petty come un prodotto pensato per la fascia Hi-end) al fatto che il 12k non funziona, etc etcIn tutto questo chiasso si sono perse le vere rivoluzioni, sviluppi che partono dalla fascia alta, ma che di sicuro apriranno nuovi sviluppi anche alle camere più economiche.

Sensore Blackmagic

La camera presenta un sensore proprietario Blackmagic Design con struttura parallela completa, ovvero non esiste la matrice di bayer, quindi ogni pixel ha tre fotorecettori, ognuno per una componente colore Verde, Blu e Rossa e in aggiunta la luce bianca.

Questo fattore significa che è in grado di :

  1. Sensore senza matrice di Bayer = Bye bye Red Patent sul raw compresso
  2. scalatura di cattura SENZA crop, quindi il sensore 12k è in grado di generare un file braw a risoluzione inferiore senza pixel binning, ma con la qualità e aliasing del sensore originale. Quindi la camera registra anche 4k e tante altre combinazioni di risoluzione.
  3. 12k 60fps fino a 220 fps in 4k raw (chi li cercava doveva andare di Phantom, ora ha una alternativa).
  4. su una risoluzione così alta anche le riprese agli iso più alti saranno usabili perchè nel downscaling spariranno i difetti più evidenti
Braw 2.0 e color science 5
  1. viene rilasciata una nuova Color Science 5 che migliora le immagini che è retrocompatibile con le camere precedenti con il braw, quindi si può applicare tale cs anche ad altre camere, a shooting già fatti (già disponibile la beta di Resolve e del nuovo Braw 2.0).
  2. Braw 2.0 prevede la registrazione splittata su più supporti per superare i limiti di registrazione dei supporti attuali.
  3. Braw 2.0 aggiunge nuovi flavour di compressione come 18:1, Q1 e Q3, per ottimizzare ancora di più spazio e qualità
  4. Braw 2.0 è talmente ottimizzato da permettere lo stream 12k anche su macchine molto modeste, e oggi il Braw è disponibile anche per macchine non Blackmagic design come C300 mkII, Eva1, Sigma FP.
  5. Nella nuova Color science 5 le camere hanno una curva di log uguale per ogni iso, questo significa che sarà più facile creare delle LUT di look che funzionino più facilmente attraverso riprese differenti.

Ovvio che questa macchina nasca per il cinema e non per l'indipendente, anche perchè viene venduta con attacco PL (attacco ottiche cinema) e solo su richiesta si acquista l'attacco per EF, sarei curioso di trovare e verificare nelle specifiche delle lenti EF quale ha la risolvenza adatta per questa risoluzione. Il costo della macchina non è un problema considerato che l'ecosistema di lenti da noleggiare costerà quando il corpo macchina.

Quello su cui voglio puntare lo sguardo è l'iceberg che sta dietro l'annuncio dove le tecnologie sviluppate porteranno blackmagic Design molto avanti nei prossimi anni.

Questa immagine è una semplice ripresa braw fatta per test qualche settimana fa, senza nessun tipo di correzione colore qui si può vedere la differenza tra le due color science, basta osservare le alte luci recuperate in automatico perchè le differenze stanno nei dettagli, in questo caso nel roll off delle alte luci dove si ottiene una base di partenza migliore e più facile da gestire anche per chi ha meno skill di postpro.

 


the Best of Sharpness, l’acutezza, la nitidezza e tutto il resto… o forse no

Nippon Kogaku 35mm 2.0 su sensore 4k

Oggi con la fisima della nitidezza e della definizione inoculata dal marketing, se non abbiamo un telefono che riprende in 8k (per mostrarlo sul display magari neanche fullhd, compresso), se non facciamo riprese panoramiche da 12k (combo di Newyork girato con 3 red 8k), non abbiamo immagini definite.

Dall'altra parte abbiamo persone che fanno studi scientifici sulla capacità visiva dell'occhio e confrontando in modo diretto le immagini delle diverse camere dimostrano che a parità di pixel non è detto che abbiamo realmente immagini più definite, anzi in certi casi diventa il contrario, motivo per cui Arriflex con la sua Alexa, 2,7k e 3.4k in openGate spesso offre immagini più nitide di quelle catturate con cineprese digitali 8k.

Senza fare il pixel peeper, lasciando queste seghe mentali ad altre persone, visto che il mio obiettivo primario è la narrazione per immagini, vediamo di capire brevemente quali sono i fattori che permettono di esprimere al meglio la nitidezza e l'acutezza di una ripresa (indipendentemente da fattori umani).

fattore 1 : la lente
 

La lente può (condizionale) determinare la qualità dell'immagine perchè è il sistema con cui si cattura la luce, la focalizza e la proietta sul piano focale (pellicola o sensore). La qualità delle lenti oggi è abbastanza lineare, per cui la differenza può essere la luminosità della lente, ma usata nel modo corretto (vedi il fattore 2), una lente media offre una buona definizione senza dare grandi limitazioni sulla nitidezza, a patto che :

  • la lente sia pulita e non abbia elementi estranei sopra
  • che non ci sia luce laterale (non protetta da paraluce e mattebox) che abbatte il contrasto
  • che non ci siano filtri di bassa qualità che riducono la definizione iniziale della lente, spesso si usano filtri neutri di qualità non ottimale, che riducendo la luce la diffondono togliendo nitidezza all'immagine originale.
  • che sia correttamente calibrata per proiettare sul sensore l'immagine (alcune lenti soffrono di problemi di pre/back focus, ovvero l'immagine viene proiettata poco prima o poco dopo il piano focale, quindi per centesimi di mm di tolleranza l'immagine è più morbida perchè non allineata col piano focale
  • che la lente sia perfettamente allineata (in alcuni casi le lenti possono essere leggermente angolate rispetto al piano focale causando una perdita di definizione su uno dei lati in alto, o in basso, o a destra, o a sinistra.

In un precedente articolo avevo fatto una disanima tra diverse lenti, da lenti vintage a lenti medie, e una lente di fascia più alta senza riscontrare una differenza di nitidezza percepibile nell'uso comparato: stesso diaframma, stessa situazione, stesso sensore, stesso soggetto.

fattore 2 : il diaframma

Quando si gestisce la ripresa troppe persone dimenticano che le regole di fotografia valgono sempre, indipendentemente dalla qualità dell'attrezzatura. Molti oggi sanno che il diaframma gestisce la luce in ingresso definendo se farne entrare tanta o poca, e di conseguenza alterando anche la profondità di campo. Ho spiegato in modo più esteso in un altro articolo sull'esposizione questo discorso, ma in molti non sanno come cambiando il diaframma si possa entrare in un campo di alterazione della luce che genera la DIFFRAZIONE e come possa essere il limite della propria ripresa.

In breve cosa è la diffrazione?

Quando si chiude il diaframma di un valore maggiore di X il dettaglio di luce proiettato sul diaframma non si concentra ma si diffonde, per cui un punto chiaro su una superficie scura non è più nitido ma sfuocato. Tradotto in soldoni c'è troppa luce e chiudo il diaframma pensando di ridurla, ma man mano che chiudo il diaframma perdo nitidezza, quindi a diaframma 22 la stessa immagine sarà sfuocata rispetto a diaframma 11 come se avessimo applicato un filtro di diffusione o di blur.

Come si gestisce la diffrazione?

Dato che la diffrazione appare da un certo diaframma in poi si tratta di scoprire quale sia il diaframma limite della propria lente, in funzione del proprio sensore. Un semplice e comodo calcolatore di diffrazione lo potete trovare in questo interessante articolo sulle lenti e le loro caratteristiche.

Comunque per semplificare la vita a molti di noi, una semplice tabella per avere un riferimento, poi da lente a lente può esserci più tolleranza. Risoluzione vs Dimensione

Risoluzione Sensore Sensore 4/3 Sensore s35 Sensore 24x36
FULL HD f/18 f/26 f/32
4k f/9.9 f/12 f/18
4.6k (UMP) f/11
5.7k (eva1) f/8.8
8k (Red Helium) f/9.4

Come si può notare non si parla di diaframmi particolarmente chiusi, se non alle basse risoluzioni, il che diventa particolarmente divertente notare come con l'aumentare della risoluzione si abbassa la possibilità di chiudere il diaframma, altrimenti si crea diffrazione, catturando una immagine progressivamente più sfuocata pur aumentando il numero di pixel catturati. Attenzione che per risoluzione si intende la risoluzione del sensore, non della cattura del filmato, perchè la dimensione dei fotodiodi o dell'elemento che cattura la luce influenza in modo diretto la nitidezza delle immagini.

Per questa ragione quando si lavora con le cineprese digitali il filtro neutro è un elemento fondamentale e indispensabile per preservare la nitidezza originale, e contrariamente a quello che credono molte persone, le dslr non sono così comode avendo un gran numero di pixel da cui ricavare un formato fhd, perchè se usiamo una fotocamera che registra in fhd ma il sensore è un 24mpx, quello è il limite da usare per scegliere il diaframma di ripresa e mantenere il massimo della nitidezza possibile, a questo proposito la mirrorless ottimale per il video è quella creata da sony nella serie A7s perchè pur usando un sensore fullframe ha una risoluzione di ripresa corrispondente all'output, ovvero 4k, e quindi meno sensibile alla diffrazione di una A7r che con 36 e 54 mpx tenderà ad avere il triplo e il quintuplo dei problemi.

fattore 3: il sensore
 

Il sensore, la sua tipologia, la sua risoluzione possono influenzare la nitidezza catturata, quindi ovviamente se il sensore è a misura della risoluzione di uscita il risultato sarà migliore. La maggior parte dei sensori sono strutturati da una matrice detta Bayer, nella quale si cattura un segnale monocromatico e poi filtrandolo si ricavano i colori, per cui abbiamo il verde che rappresenta la luminanza che possiede buona parte delle informazioni, mentre gli altri due colori sono ricavati ecatturati parzialmente, per cui si dice che comunque un sensore xK abbia una reale risoluzione di 2/3 dei K originali e poi venga fatto l'upsampling effettivo dei pixel. Il che tecnicamente è vero, ma non è un reale problema. Esistono sensori fatti come wafer dei tre sensori (uno per colore) che catturano separatamente le componenti colore RGB che spesso offrono immagini di ottima nitidezza. Esiste poi la scuola di pensiero del downsampling, ovvero catturiamo con un sensore di dimensioni maggiori, ad esempio 4.6k, 5,7k e poi da questo ricaviamo alla fine un segnale in 4k o 2k o fhd, in modo da sovracampionare le informazioni e avere una maggior precisione e dettaglio. La semplice prova di forza o applicazione muscolare degli X k non è fonte sicura di qualità o di dettaglio, inoltre con l'aumentare della risoluzione e non delle dimensioni del sensore incontriamo il problema della Diffrazione (come abbiamo visto prima), e il problema della sensibilità, perchè la stessa lente deve distribuire la stessa luce su un numero maggiore di fotorecettori, quindi ogni elemento riceve meno luce o con meno intensità.

A livello teorico maggior numero di pixel correttamente gestiti nella cattura può corrispondere ad un maggior numero di dettagli, a patto che utilizzi la risoluzione reale del sensore, cioè i pixel catturati siano esattamente la matrice del sensore. Le eventuali elaborazione del segnale prima della registrazione (raw o sviluppata) possono inficiare la nitidezza del segnale. Esistono diversi tipi di amplificazione del segnale e durante quella fase (analogica o digitale) si può alterare la percezione di nitidezza.

fattore 4: la compressione

Una volta catturate le informazioni, queste devono essere in qualche modo registrate, e pur partendo da sensori con un'alta capacità di cattura di dettaglio, o d'informazioni (spesso 16bit lineari) poi la registrazione delle informazioni viene ridotta a 14-12bit raw o 10bit compressi con algoritmi varii che per ridurre il peso dei file andrà a alterare in modo più o meno significativo le nitidezza delle immagini. Ogni camera ha i suoi algoritmi di compressione, molti nelle cineprese si basano sul concetto della compressione wavelet, che sia raw o no, per impedire la formazione di blocchi di tipologia più "digitale" come la compressione mpeg che genera blocchi di dati a matrici quadrate, questo ottimo tipo di trasformata nel momento in cui si comprimono i dati tende man mano che si aumenta la compressione a rendere più morbido il filmato. Naturalmente quando si parla di morbidezza parliamo di finezze, non certo di avere immagini sfuocate. Molti Dop quando usano le camere Red scelgono di usare compressioni più o meno spinte in alternativa all'uso di alcuni filtri diffusori per rendere più piacevoli le immagini.

Quindi facendo una ripresa o una fotografia, non possiamo strizzare i dati in poco spazio e pretendere di avere il massimo delle informazioni, del dettaglio, della definizione. La scelta dei formati di compressione è molto importante e conoscere le differenze tra i diversi formati di compressione e le loro tecnologie applicate alle diverse camere è importante per poter gestire correttamente la qualità di partenza iniziale. Alcuni formati a compressione maggiore (h264/5) generano artefatti a blocchi, mentre le gestioni dei formati wavelet possono ridurre la nitidezza dell'immagine man mano che si aumenta la compressione, ma in modo molto leggero, tanto che molte compressioni wavelet vengono definite visually lossless

fattore 5: la lavorazione
Le lavorazioni dei file possono alterare la percezione della nitidezza se vengono create più generazioni dei file originali non utilizzando formati DI di qualità per lo scambio e l'esportazione dei materiali. L'applicazione di effetti o lavorazioni con sistemi non professionali può causare ricompressioni non volute, downscaling e downsampling colore che possono influenzare la nitidezza originale. Inoltre ci sono fasi molto delicate come il denoise che in certi casi può essere troppo forte o troppo aggressivo e come tale tende a mangiare non solo il rumore, ma anche il dettaglio fine.
fattore 6: il delivery

Un fattore poco conosciuto è la scalatura dinamica dei flussi video, soprattutto quando si guardano i film in streaming legale. Il file alla fonte ha una risoluzione e una compressione, ma durante la trasmissione se ci sono problemi di segnale, rallentamenti, problematiche varie il segnale viene istantaneamente scalato per impedire che il filmato vada a scatti o in qualche modo possa influire sulla visione generale, quindi da una scena all'altra potrebbero esserci delle variazioni consistenti della qualità e i sistemi di contrasto dinamico andrebbero ad amplificare ulteriormente i bassi dettagli. Se abbiamo un prodotto stabile e lineare come un bluray o un bluray 4k abbiamo la certezza che la qualità sarà sempre costante, mentre se usiamo una distribuzione differente delle perdite di qualità potrebbero essere causate dalla trasmissione variabile.

fattore 7: la fruizione

Un fattore che tanti sottovalutano, spesso causa del danno finale, sono i metodi di fruizione del materiale video. A partire dal dispositivo di visione, che spesso altera in modo più meno significativo l'immagine, vedi l'articolo sui televisori da telenovelas, al metodo di gestione delle informazioni. Quando vediamo una immagine non sappiano se il pannello è a misura per l'immagine che stiamo vedendo, il che può essere causa di alterazione di vario tipo, perchè dovrà essere scalata in realtime con diversi algoritmi più o meno efficienti nel mantenere il dettaglio o perderlo. Spesso abbiamo televisori 4k che mostrano materiale fhd (1/4 delle informazioni) o peggio sd (1/16 delle informazioni). Il danno però nasce dal fatto che tutti questi televisori applicano le funzioni di oversampling anche quando una immagine ha realmente la dimensione del pannello, quindi anche se apparentemente sembrano ancora più nitide, in realtà gli effetti dei vari algoritmi di sharpening tendono a creare nuovi "FINTI" dettagli che sovrascrivono e cancellano i dettagli originali.

Spesso ci sono tanti parametri attivati a nostra insaputa, o peggio abbiamo la difficoltà di disabilitarli, perchè solo in determinate combinazioni di visione sono modificabili. Ci sono prodotti di fascia alta che è possibile disabilitare le maschere di contrasto e i vari algoritmi di contrasto solo con i segnali in ingresso HDMI, non per i segnali interni o da stream internet interno... il che è può essere imbarazzante con i segnali 4k da Netflix che sono ottimi e non richiedono ulteriori process, anzi...

 

Log o non Log, ma quale log?

gamma-power-law_chart

Cos'è il log

Log è l'abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell'uso.

 Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura, no. A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come Sony dove ci sono curve di contrasto molto flat registrate quasi sempre a 8 bit (poche sfumature utili per la postproduzione), è fondamentale scegliere bene il profilo, magari con l'ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell'immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello Sony c'è il rischio che nella registrazione si perdano delle parti dell'immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il formato log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate. Nei tempi recenti il log è stato usato anche nei formati a 8 bit, ma con le ovvie limitazioni.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8-10bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l'occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili... se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla...

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi nella compressione, per cui un file log a parità di cattura con un Rec709 potrebbe offrire meno rumore video (se sviluppato correttamente, altrimenti mostrerà il rumore originale, i falsi miti che il logo offra più rumore è semplicemente perchè riportando il log in uno spazio rec709 il rumore meno contrastato sembra più presente).

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso catturando una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l'esposizione dell'immagine
  • in alcune macchine scegliere il log (la curva di Log) corretto.

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

    • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
    • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
    • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c'è tempo per fare la post minima del log (non ci credo...).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto. Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti. Le immagini, tranne l'ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file) Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione. Log vs rec 709 illuminato

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l'immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

Con l'ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno... e tutti non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione... cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist. Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica. Tech note quando si espone, ogni dop o fotografo sa che per ogni "stop" di luce si deve raddoppiare le informazioni, per farla semplice, se ho 100w di illuminazione, per ottenere +1 stop devo metterne il doppio del precedente, quindi 200W, ma appena supero questa soglia, +2 stop uguale 400W (il doppio del precedente) quindi come vedete diventa rapido il calcolo per cui come nel logaritmo, per avere le informazioni necessarie è fondamentale raddoppiare le informazioni di base ( o dividerle) quando si tratta di luce. Quindi se ho esposto correttamente un'area del sensore avrò il valore di partenza, poi ad ogni salto in avanti o indietro, dovrò raddoppiare o dividere i valori di informazione luminosa, il che significa che tra luce e ombra in modo lineare avrei il massimo delle informazioni solo ed esclusivamente nella luce. Mentre in una cattura logaritmica che mima una distribuzione più uniforme delle informazioni siamo in grado di "distribuire" in modo più "variegato" le informazioni disponibili, quindi sia nella luce che nell'ombra possiamo catturare un certo numero di informazioni, offrendo nella fase finael una immagine più ricca di sfumature globali. Ogni camera partendo da un sensore a 16bit offre come minimo 65k di sfumature di luminosità, quindi codificando queste stesse informazioni in una curva logaritmica più morbida e regolare, siamo in grado di ottimizzare la registrare delle informazioni per una immagine più ricca e pulita quando si scende a 10 bit o peggio a 8 bit di informazioni luma / colore.

Sensibilità ultra, la nuova frontiera, indispensabile o no?

Cattura l'avventura!

explorerDa tempo le macchine sono sempre più sensibili, per riprendere con la luce di una candela... sapete quando ho sentito questa frase?

1988 pubblicità di una delle prime spallari VHS della Philips... giusto quei trentanni fà...

Certo erano immagini con un gain (un guadagno artificiale) che neanche sui primi cellulari si vedeva... eppure per l'epoca era magia.

Oggi poi ci troviamo in una serie di situazioni contraddittorie che molti non si spiegano, macchine fotografiche ultra sensibili come le recenti Sony Alpha che spaziano oltre i 200.000 iso (parliamo di duecentomila) fornendo immagini più che decenti se presente un minimo di luce, mentre camere più professionali arrivano a 800-1600 asa le bmc, 3200 asa le Arriflex e le Red, cosa che la maggior parte delle persone non si spiegano.

Le domande che sorgono spontaneamente sono : - perchè non lo fanno le aziende così blasonate se Sony lo fa ? - serve veramente avere questa luminosità oltre l'umano?

Sinceramente alla prima domanda non so darmi una risposta, o meglio, posso solo fare ipotesi, relative al tipo di tecnologia che sta dietro alle cineprese, e perchè non si sente la necessità di arrivare a sensibilità così folli, dato che anche con la pellicola nel cinema ci si ferma con la 500 Asa prodotta da Kodak.

A cosa serve una maggior sensibilità di pellicola o sensore?

Il discorso potrebbe essere molto articolato, con tanti discorsi nostalgici, ma mi piace essere pratico. Il cinema si fa con la luce, quindi a me dei discorsi di riprese in lowlight senza luci o altro non mi frega molto, soprattutto perchè raramente vengono bene anche con i sensori ultrasensibili, mancano i riflessi di luce nei punti giusti, i giochi di luce e ombra, tante cose che sembrano naturali, ma che sono finemente costruiti dai direttori di fotografia. Un sensore più sensibile aiuta a lavorare meglio in determinate situazioni, punto ...

Sfatiamo qualche mito sulla luce naturale ?

  • Il recente Revenant con fotografia del premio oscar Lubensky è stato girato in luce naturale, non ha usato luci aggiuntive... più o meno, ha fatto largo uso di pannelli riflettenti, ha sfruttato fuochi e luci varie naturali, e pare che durante la fase di colorgrading abbiano massaggiato parecchio le immagini per esaltare e amplificare molto i contrasti di luce e le varie tonalità delle immagini. Comunque, essendo un amante della Golden hour, quell'intervallo di tempo al tramonto in cui c'è una luce magica, so che si può ottenere un risultato molto vicino a quello, ma se lo poteva permettere solo Inarritu, perchè quell'intervallo dura pochi minuti... per sfruttarlo al meglio sono andati più al nord possibile per poter trovare i luoghi con una durata maggiore della Golden Hour.
  • Se ho luce, quella basta, perchè aggiungere luce? spesso il problema non è la quantità di luce, ma la distribuzione tra zone di luce e ombra, la direzione, che se sbagliata rovina il viso di attori e attrici, il rischio è che lo sfondo sia più luminoso del primo piano, quindi si deve schiarire il primo piano per non bruciare lo sfondo, che è brutto da vedersi
  • Se il sensore è sensibile perchè devo usare la luce? il sensore può essere sensibile ma non a tutta la luce, ma solo a determinate frequenze, per cui più andiamo sul low light, più si perdono alcune frequenze di colore della luce, quindi anche se il sensore è più sensibile è probabile che i colori che può catturare siano meno intensi, o peggio, che ne perda alcuni, il che significa che le immagini saranno più povere e soprattutto limitate
  • Perchè si usano pellicole meno sensibili al cinema, perchè si devono usare meno iso in ripresa se ci sono? per una questione di qualità dell'immagine finale, all'alzarsi della sensibilità chimica o elettronica, l'immagine peggiora aumentando il contrasto, riducendo i dettagli fini catturabili, quindi si usa sempre gli ISO o Asa nativi di un sensore o una pellicola e non si "tirano" amplificano in nessun modo. Nella pellicola per catturare maggior luce i grani devono essere più grandi e con una capacità di cambio alla esposizione più duro, quindi diventano velocemente più visibili, offrendo però un contrasto maggiore, e la cattura della luce diventa più grossolana. Allo stesso modo nel digitale si amplificano le informazioni, ma se queste sono poche, quando si amplificano aumenta il contrasto e quindi si evidenzia l'immagine ma anche il rumore stesso.

Update 2020 : mi fa piacere notare come certi argomenti da me trattati vengano ripresi anni dopo dal noto BlogTecnico RedSharkNews

Pagina 1 di 2

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!