Tutto è possibile

Categoria: Articoli Pagina 3 di 4

Log o non Log, ma quale log?

gamma-power-law_chart

Cos’è il log

Log è l’abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell’uso.

 Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura, no.
A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come Sony dove ci sono curve di contrasto molto flat registrate quasi sempre a 8 bit (poche sfumature utili per la postproduzione), è fondamentale scegliere bene il profilo, magari con l’ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell’immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello Sony c’è il rischio che nella registrazione si perdano delle parti dell’immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il formato log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate.
Nei tempi recenti il log è stato usato anche nei formati a 8 bit, ma con le ovvie limitazioni.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8-10bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l’occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili… se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla…

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi nella compressione, per cui un file log a parità di cattura con un Rec709 potrebbe offrire meno rumore video (se sviluppato correttamente, altrimenti mostrerà il rumore originale, i falsi miti che il logo offra più rumore è semplicemente perchè riportando il log in uno spazio rec709 il rumore meno contrastato sembra più presente).

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso catturando una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l’esposizione dell’immagine
  • in alcune macchine scegliere il log (la curva di Log) corretto.

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

    • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
    • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
    • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c’è tempo per fare la post minima del log (non ci credo…).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto.
Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti.
Le immagini, tranne l’ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original

Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file)

Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione.

Log vs rec 709 illuminato

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l’immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

Con l’ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno… e tutti
non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione… cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist.

Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica.

Tech note

quando si espone, ogni dop o fotografo sa che per ogni “stop” di luce si deve raddoppiare le informazioni, per farla semplice, se ho 100w di illuminazione, per ottenere +1 stop devo metterne il doppio del precedente, quindi 200W, ma appena supero questa soglia, +2 stop uguale 400W (il doppio del precedente) quindi come vedete diventa rapido il calcolo per cui come nel logaritmo, per avere le informazioni necessarie è fondamentale raddoppiare le informazioni di base ( o dividerle) quando si tratta di luce.

Quindi se ho esposto correttamente un’area del sensore avrò il valore di partenza, poi ad ogni salto in avanti o indietro, dovrò raddoppiare o dividere i valori di informazione luminosa, il che significa che tra luce e ombra in modo lineare avrei il massimo delle informazioni solo ed esclusivamente nella luce. Mentre in una cattura logaritmica che mima una distribuzione più uniforme delle informazioni siamo in grado di “distribuire” in modo più “variegato” le informazioni disponibili, quindi sia nella luce che nell’ombra possiamo catturare un certo numero di informazioni, offrendo nella fase finael una immagine più ricca di sfumature globali.

Ogni camera partendo da un sensore a 16bit offre come minimo 65k di sfumature di luminosità, quindi codificando queste stesse informazioni in una curva logaritmica più morbida e regolare, siamo in grado di ottimizzare la registrare delle informazioni per una immagine più ricca e pulita quando si scende a 10 bit o peggio a 8 bit di informazioni luma / colore.



sapere di non sapere, abbastanza… la mia utopia verso il mondo

Oggi parliamo del non sapere…

in una società che vi offrono di diventare Expert, Guru, Professional xxx di qualcosa in un click, cambiando spazzolino da denti (giuro ho appena visto la pubblicità) è strano definire di sapere di non sapere.

socrateTanti secoli fà un filosofo molto più saggio di me, Socrate, disse e scrisse : so di non sapere.

Sono un curioso e un’avida spugna della conoscenza, ogni campo in cui posso avere un minimo di curiosità desidero accumulare più conoscenza, e non ne sono mai soddisfatto. Qualunque campo in cui devo interagire, per natura, non mi accontento di sapere qualcosa, devo smontare ogni elemento del campo per renderlo più produttivo e soprattutto averne conoscenza per averne un maggior controllo.

Il mio principio è che non sapendo abbastanza di un argomento potrò mantenere una minima umiltà per far si che possa accettare di dover imparare ancora molto, e allo stesso tempo mi piace conoscere di più, sapere che c’è sempre un oltre a quello che già so, mi da la tranquillità che posso imparare tanto di più 😀

Nell’ambito lavorativo ho una curiosità insita nel lavoro di ogni persona, capire come funziona il suo ruolo, il suo lavoro, perchè… beh ho una idea folle, ma non tanto, avendo una buona base di quello che sarà il lavoro di chi collabora con me, posso collaborare meglio fornendogli le informazioni, gli elementi nel modo corretto per farlo lavorare meglio. Come trovo inaccettabile chi mi passa materiale scadente o di bassa qualità pur avendo modo di darmi molto di più per pigrizia o ignoranza (causata dalla pigrizia o superficialità perchè non gli compete il seguito del lavoro), voglio poter far si che chi lavora con me possa avere il materiale e le informazioni al meglio, per poter lavorare perdendo meno tempo e qualità possibile. Per fare questo devo imparare i ruoli e i mestieri di tante altre persone, ma se nel mondo fosse composto di una persona ogni 100 come me, molti lavori e processi sarebbero molto più semplici e veloci.

un esempio tecnico? immaginiamo di dover postprodurre del materiale video, se ci mandano un export completo del filmato su cui lavorare invece che il materiale originale spesso si deve fare il triplo della fatica, per preservare qualità e magari inventarsi qualche trucco per mascherare al meglio e scontornare del materiale che al momento di lavorare sugli originali avremmo risolto in un decimo del tempo.

Un esempio pratico? immaginiamo che dovete metter mano a del materiale, e chi ha fatto le riprese pur avendo tempo non ha inserito i metadata in camera, quello che erano pochi secondi per l’operatore sono ore in cui si guarderà e catalogherà il materiale più volte, soprattutto per distinguere una sequenza dall’altra, quando chi ha fatto le riprese sapeva esattamente perchè erano differenti.

Un esempio di pigrizia? un fonico che invece di settare la data e l’ora sul recorder se ne frega di questi dettagli, il risultato è che poi per distinguere il materiale si perderanno ore per ascoltare e distinguere i materiali, mentre se si imposta ora e data in un attimo si potranno accoppiare alle riprese.

Un esempio di sottovalutazione dei ruoli? quando si tratta con un reparto marketing e alla richiesta del logo dell’azienda, invece di mettervi in contatto con il reparto grafico, vi girano un file word con dentro una jpeg a bassa definizione del marchio. Se esiste un reparto grafico, è perchè servono conoscenze ed esperienze che non hanno al marketing, quindi perchè scavalcarlo? e soprattutto perchè lamentarsi se il logo poi risulta sfuocato, se non sapete neanche il perchè?

in ogni caso c’è un problema di superficialità e menefreghismo, dando per scontato che finito il proprio lavoro, quello degli altri non li riguarda… se c’è la prima volta un problema di ignoranza, c’è il fattore “mi sono chiesto se quando do questo materiale a chi lo deve ricevere lo potrà usare subito oppure deve fare fatica per capire cosa ho realizzato?”

l’altro lato della conoscenza del mondo moderno è che da ogni lato si trova gente che vi vuol vendere conoscenza, e al 90% (si lo so, parte del mio business è fare corsi, e sono conscio di ciò che sto per scrivere) chi vende conoscenza non ce l’ha…

E’ veramente inquietante come la maggior parte dei consulenti, delle persone che vendono conoscenza ed esperienza sono quelli che hanno meno competenze nell’ambito in cui vorrebbero dirvi cosa fare… per cui diffidare sempre, a partire da se stessi, e soprattutto da chi è troppo sicuro di se stesso.

Socrate diceva: so di non sapere, io mi permetto di aggiungere per essere più chiaro l’avverbio “abbastanza”.
Finchè ci porremo dei dubbi, vorremo apprendere di più, dubiteremo delle fonti, e cercheremo conferme, sapremo di essere nel giusto, chi si afferma nella verità assoluta sarà sempre fonte di grandi paure e dubbi da parte mia.

Lavoro in un ambito in cui da un giorno all’altro l’evoluzione della tecnologia, dei metodi operativi, delle tecniche di lavoro cambiano e si evolvono continuamente, quindi le certezze sono teoria, la pratica poi dimostra come molti elementi si evolvono e cambiano da un mese all’altro per cui avere certezze assolute vuol dire essere monolitico, statico, che in un mondo in continua evoluzione è sintomo di essere obsoleti ancor prima d’iniziare.

Oggi grazie al web 2.0 tutti possono diffondere notizie di ogni tipo, ma purtroppo se venti anni fa era difficile trovare informazioni, oggi è difficile da trovare le informazioni corrette in mezzo a tante informazioni errate o distorte.
Purtroppo la fretta con cui si muove il mondo moderno porta le persone a accettare per buone le prime notizie per buone, magari partendo da wikipedia, una delle fonti e raccolte più ampie dell’ignoranza mondiale, dove col fatto che chiunque può scrivere, chiunque può inserire informazioni errate per il gusto di contribuire, senza aver controllato ciò che inserisce…

Per chi pensi che sia un retrogrado, un antico, premetto che sono stato il primo a fondare mezzi di diffusione della conoscenza sulla rete più di venti anni or sono alla sua nascita, non ce l’ho con le nuove tecnologie, ma con il loro abuso indiscriminato.

Per wikipedia (notizia che ho fatto cancellare) mi ero traferito in australia (terra che trovo splendida, ma non ci sono mai stato) e sono morto in seguito all’attacco di un rinoceronte mentre facevo delle riprese per un film… wordpress ha tanti plugin, ma non quello della pubblicazione da morto :-PP quindi se leggete queste notizie, forse proprio morto non sono. Questo dimostra che le notizie pubblicate non essendo contro-controllate, possono contenere tante inesattezze, e se un amico non mi avesse cercato preoccupato, chissà per quanto sarebbe rimasta on line quell’informazione, e quanto si sarebbe diffusa nel mondo.

Ci sono stati in questi ultimi anni troppe notizie diffuse tramite i social ma anche teorici siti più affidiabili tramite ansa etc, che per la fretta di condividere la notizia, hanno portato scompiglio e/o inesattezze a livello mondiale. Dubitate sempre e verificate sempre più fonti, altrimenti sarete delle bandiere in balia del primo soffio di vento della rete…

 


8 bit, 10bit, 24bit, 32bit che razza di bestie sono quando esporto?

Cosa significano le diverse sigle?

In tante occasioni parlando di video di sentono diverse sigle che in un modo o nell’altro influenzano la qualità dell’immagine che andiamo a vedere e soprattutto a manipolare.

Quando si lavora con il video nella maggioranza dei casi si parla di video catturati a 8 bit, questo valore si riferisce alla componente colore singola, quindi il sensore o il sistema di registrazione cattura 2 alla ottava, il che significa 256 informazioni colore.

256 toni di colore per il canale del rosso, 256 toni per il canale del verde, 256 toni per il canale del blu.
La combinazione di tutte queste possibili sfumature creano una immagine che può contenere 16 milioni e rotti di combinazioni possibili, ovvero una immagine a 24bit.

quando si aggiunge il canale alfa ad una immagine a 24 bit, dato che il canale alfa segue le stesse capacità e regole del colore, avremo una immagini a 256 toni di grigio che definiscono la trasparenza totale (100% di luminosità) o la totale opacità del pixel (0% di luminosità).

quindi abbiamo una immagine a 24 bit (R = 8, G= 8, B=8) + 8 bit di alfa, totale immagine a 32 bit.

quando andiamo a esportare una immagine abbiamo teoricamente (dipende se e come il software supporta l’esportazione) la possibilità di esportare video e immagini a diverse profondità colore, più è alto il numero, maggiori sono le informazioni contenute e quindi maggiore è la qualità registrabile.

Parlo di qualità registrabile perchè se importo un video a 8 bit e lo esporto a 16bit, non significa che il video diventa a 16bit, non migliora l’immagine, nè aumentano i colori originali, restano gli stessi, ma se ho applicato dei filtri di correzione colore, probabilmente esportando a qualità più alta PRESERVO la qualità originale.

da un programma posso esportare :

8 bit per canale : 24 bit + eventuale alfa 8 bit che diventa 32bit
16 bit per canale : 48 bit + eventuale alfa 16 che diventa 64bit
32 bit per canale : 96 bit + eventuale alfa a 32 che diventa 128 bit (solo da vfx e software di post)

quando si parla di video, possono essere registrati a diversi bit da 8, 10, 12, 16 bit a seconda del codec di lavoro e dalle impostazioni dello stesso. Naturalmente avere uno spazio colore maggiore significa avere più informazioni e quindi più spazio di azione dove intervenire con la corezione colore o con la postproduzione in generale.

Perchè servono più di 16milioni di colori?

perchè in realtà quei colori sono la somma di tutti i colori possibili dei tre canali colorati, ma se devo fare una sfumatura di rosso puro, blu puro (il cielo) ho solo 256 possibili sfumature di blu, oltre intervengono leggeri squilibri degli altri colori, che portano il blu del cielo ad andare verso il verde, oppure verso il magenta, quindi non è più il colore puro.

Perchè non posso usare solo 8 bit se ho registrato una immagine nel modo corretto?

perchè non solo il limite è in registrazione, ma soprattutto nella post produzione, per comprendere meglio è possibile fare un esempio molto semplice, creare un colore sul limite e poi aumentare la sua luminosità.

esempio scostamento coloreDopo aver creato un colore rosso di un valore leggermente sbilanciato, ovvero col verde maggiore del blu ho semplicemente applicato una luminosità molto alta, e come potete vedere nelle informazioni finali, il colore non si scosta in modo lineare, perchè il rosso essendo già al massimo (255 come valore) non si può muovere, quindi salgono verde e blu, ma non in modo lineare e proporzionale, quindi man mano che rendo più luminosa l’immagine la quantità di verde del colore aumenta, quindi il rosso si inquina e cambia il colore originale.

Se invece avessimo avuto uno spazio colore a 16bit, dove le possibili combinazioni sono maggiori, il range di lavoro non è più 0-255 ma 0-32768, quindi le possibili sfumature realizzabili prima di ottenere uno scostamento colore evidente sono maggiori e più morbide.

Quando esporto un video a 8bit cosa posso esportare?

quando apriamo un pannello di compressione di un software, a seconda di quale codec esportiamo possiamo selezionare una profondità colore differente, ma attenzione che se si considera anche il canale alfa potremmo esportare più di quanto serve, anche quando non serve.

Se seleziono una esportazione a 8 bit, significa che esporto un file a 24 bit (8+8+8), ma se si attiva l’esportazione del canale alfa, in realtà noi esportiamo un file a 32bit perchè il file colore è a 24bit + 8 bit di canale alfa. Nella maggior parte dei casi il file sarà usato allo stesso modo, quindi nessun problema, ma in situazioni specifiche come con le macchine di messa in onda, un file a 32bit, anche se magari la parte del canale alfa è vuoto, viene rifiutato, e quindi è fondamentale sapere come esportare il materiale nel modo corretto.

Quando si lavora cosa può cambiare se lavoro in uno spazio colore più ampio?

Il discorso è molto semplice, se prendiamo una immagine e spostiamo le informazioni di luminosità, da uno spazio a 8 bit a 8 bit c’è il rischio di perdere delle informazioni intermedie perchè non c’è lo spazio corretto dove spostarli. basta confrontare l’istogramma del progetto a 8 bit con quello a 16bit.

confronto correzione colore 8 16bit

L’istogramma della correzione 8bit si vede come diventa frammentato, con diverse frequenze che spariscono e quindi rappresentano informazioni perse durante la correzione delle informazioni mentre nell’istogramma a 16bit queste informazioni vengono conservate perchè esistono più posizioni è possibile mantenere le informazioni anche di fronte ad una manipolazione più aggressiva dei valori.

Anche se poi il risultato finale sarà esportato in un file codificato a 8bit, la sorgente sarà di un file elaborato a 16bit e quindi preserverà meglio le informazioni originali.

Questo è il motivo per cui i software di correzione colore professionale lavorano solo in uno spazio colore a 32bit per canale, in modo che ogni operazione applicata ai colori delle immagini saranno a prova di errore e non ci sarà rischio di degrado causato da limitazioni dello spazio di lavoro.

Quando si lavora con AfterEffects e si manipola il colore, avere uno spazio colore di lavoro a 16bit serve a preservare il materiale durante la correzione colore, se si lavora con Premiere è importante abilitare le spunte “Rendering alla profondità massima” in modo che il calcolo interno delle elaborazioni del colore sia fatto a 32bit e quindi si corregga al meglio e nello spazio più ampio anche se poi andiamo a esportare in un codec usando solo gli 8bit di registrazione finale. DA RICORDARE come premiere, non essendo un programma di post, il calcolo nello spazio più ampio colore lo esegue in presenza di video manipolati da effetti a 32bit, nel caso la sequenza contenga anche un solo filtro a 8 bit, tutto il rendering sarà eseguito a 8 bit e non nello spazio colore a 32bit.

e quindi?

nella normalità si lavora a 8 bit, perchè le fonti medie di dslr, telecamere medie è a 8bit, e quindi solo per l’export di materiale fortemente manipolato lavorare negli a 16bit fa la differenza, mentre se non vi viene chiesto l’export di materiale con caratteristiche diverse, per fare dvd, bluray, file per tv, file per Online (youtube, vimeo, etc), file per messa in onda è a 8 bit, senza canale alfa.


Dal passato con furore…

Chiunque mi conosca sa che ho una certa passione per le lenti vintage.

Acquistare una lente vintage significa rinunciare nella maggior parte dei casi agli automatismi, il che non è un male, se per usarle non si ha fretta o non le si vuol usare per fotografia o ripresa sportiva. Per quanto mi riguarda le lenti vintage a me servono per fotografia e ripresa in condizioni più o meno controllate, e quindi non sono interessato agli automatismi, anzi spesso li disabilito per avere il controllo.

Perchè una lente vintage, vista la vasta gamma di lenti che le case fotografiche offrono oggi?

oggi vengono vendute lenti a 80-100 euro che non valgono neanche i fondi di bottiglia, ma poste su camere che le riconoscono, che correggono in camera i difetti, e contrastano, rendono nitide in post, per molte persone possono essere una buona base di partenza. In passato non esistevano prodotti di bassissimo livello, perchè la pellicola non perdonava certi difetti, e la camera non poteva rielaborare le immagini, quindi molte lenti partivano già da un buon punto di partenza a livello qualitativo.

Le lenti vintage a seconda di chi le vende e dove le si comprano possono essere un ottimo affare a livello di rapporto qualità prezzo delle lenti.
Il fatto che lavorando solo in manuale diventano inutili o poco comode per molte persone, il corpo in metallo pesante per altri, che preferiscono i “plasticotti” leggeri, spesso si trovano occasioni sui mercatini, nelle aste di usato e on line.

Naturalmente esistono anche nel vintage lenti poco attraenti come qualità, tutto sta nel sapere cosa si cerca e dove si mettono queste lenti. Se si punta su marchi noti come Leica e Zeiss si ha la certezza che qualunque lente sarà al minimo di ottima fattura, poi ci sono diversi marchi russi che usavano lo stesso schema e tipo di lenti di Zeiss, ma con prezzi più popolari, e li a seconda degli obiettivi si poteva avere dei piccoli gioiellini o dei prodotti di media fattura. Altri marchi come Nikon, a seconda della lente e del periodo, offrono interessanti prodotti.

Volendo posizionare queste lenti su sensori moderni, non dimentichiamo che devono essere lenti di qualità per essere in grado di risolvere abbastanza informazioni per fornire ai sensori moderne dettagli sufficienti per costruire delle belle immagini, quindi la scelta deve andare di conseguenza su lenti di un certo valore.

Cosa mi offre in più una lente vintage?

mi offre le sue imperfezioni, la sua unicità.
Una lente moderna è creata in totale automazione, per cui se prendo 10 50mm 1.2 di un certo marchio so che intercambiandoli avrò lo stesso identico risultato, mentre se prendo anche due lenti vintage, prodotte parzialmente da opera artigianale, avrò dei risultati differenti, anche di poco ma avrò un qualcosa di personalizzato. Si narra che lo stesso Kubrick, fanatico ed esperto di fotografia, avesse chiesto a Zeiss diverse lenti dello stesso tipo, per scegliere e comprare quella che preferiva per ogni focale, così che fosse la sua lente, la sua scelta visiva.

Quale scegliere?

quelle che ci piacciono di più… io mi sono innamorato del look delle Nippon Kogaku, una serie prodotta dalla Nikon, prima che prendesse il marchio Nikon tra gli anni 50 e 60, lenti particolari, prodotte tutte in metallo pesante, grandi lenti limpide che offrono una luce pulita e morbida, pur lasciando molto dettaglio al loro interno.

Totalmente meccaniche si possono adattare all’attacco canon in modo facile e rapido con un anello, oppure se si vuol fare un lavoro fatto bene, l’azienda di barcellona chiamata Leitax crea baionette da sostituire alle originali, così avremo un saldo e robusto attacco nativo per canon.
Una alternativa disponibile per le conversioni delle sole lenti Canon FD è l’americano EDMIKA, che ora ha aperto un centro di conversione anche in Europa.

Il particolare coating di queste lenti non protegge troppo dai flare se riprendo direttamente la luce o in controluce, creando aloni attorno agli oggetti in controluce e particolari riflessi che trovo più interessanti e meno asettici delle lenti moderne, che nel tentativo di rendere perfette le immagini si adoperano per togliere il più possibile di questi difetti, che però danno un certo sapore alle immagini.
Mi fa sorridere l’idea di come si scelgano lenti moderne per evitare flare e aloni, e poi ci si adoperi in vari modi per aggiungerli in postproduzione, sia perchè lo trovo uno spreco di tempo, sia perchè alla fine dato che tutti quelli che li aggiungono in post, essendo dei preset, saranno tutti più o meno uguali, mentre con le lenti vintage quel tipo di comportamento è reale e quindi sarà differente ogni volta che si farà una ripresa.

Le foto che vedete qui sopra sono fotogrammi raw catturati con un sensore s35 4k, praticamente come una fotocamera 8,9 megapixel 12bit raw, che alternano un semplice 35mm 2.0 ad un piccolo gioiello, l’85mm serie H 1.8 della Nippon Kogaku, una lente per la quale l’ingegnere ottico prese la massima onorificenza dall’imperatore del giappone per il lavoro svolto nella qualità ottica e costruttiva; quante lenti oggigiorno possono vantare un simile background?

Un altro marchio che mi ha offerto tante soddisfazioni sono le lenti della serie Minolta rokkor MD, ho un 50mm 1.4 che usato con mirrorless mi ha offerto tante soddisfazioni sia come luce che nitidezza, di fronte ad una lente comprata usata per meno di 90 euro.

Un altro marchio molto interessante è Voigtlander, che produceva e produce lenti di altissimo livello, in vari mount, tra cui un mount molto interessante che è il Rolley QBM, il fattore interessante di questo mount è che è molto semplice ed economico adattarlo all’attacco EF canon, basta acquistare una economica baionetta, svitare le tre viti posteriori della lente, togliere il vecchio mount e mettere il nuovo, riavvitare e a questo punto la lente è pronta per essere saldamente unita con moderne camere.

Posseggo uno splendido voigtlander Ultron 55mm 1.4 AR che offre una luce e una definizione spettacolare anche sui moderni sensori, sia al centro che lateralmente anche a tutta apertura. Questi sono fotogrammi estratti da test eseguiti con la lente modificata e montata su una Blackmagic Production Camera 4k, pur vedendo solo dei jpeg è possibile comprendere la qualità offerta da una lente che ha più di 40 anni.

Naturalmente so che ci sono molte lenti Leica e Zeiss di qualità più alta di queste, ma parliamo di costi ben più alti che non avrei potuto affrontare, perchè anche se vintage, invece di perdere valore nel tempo, quelle lenti si sono accresciute di valore.

L’uso delle vintage è una moda o una reale necessità?

personalmente posso dire che ho una doppia ragione, da un lato parlo di un lato economico, perchè posso acquistare lenti vintage di una qualità che non potrei affrontare nelle controparti Zeiss moderne; da un altro lato il mio gusto visivo trova più soddisfazione nell’usare questo tipo di lenti che le asettiche e ultra taglienti lenti moderne, che trovo spesso anche troppo contrastate (non parlo di dettaglio, ma di contrasto luce ombra) per i miei gusti.

Che poi sia di moda in vintage e si cerchi di riprodurre i difetti dei filmati amatoriali del passato, quello è un discorso diverso, ad esempio la moda lanciata dalla Lomo, e la moda della lomografia, macchine e lenti con difetti voluti per simulare le brutte foto o i brutti sviluppi del passato è un tipo di gusto visivo che nasce dalla noia della perfezione moderna, dove chi sa che può riprodurre mille volte lo stesso risultato cerca l’originalità nel finto difetto, o vero difetto. Il che, mi ripeto, lo trovo ironico e divertente in un mondo in cui ci sono persone che cercano la perfezione assoluta, il risultato perfetto e la definizione perfetta.

Leggendo una intervista al leggendario Roger Deakins, ho visto che anche lui, nel campo cinematografico ha una netta preferenza alle lenti prodotte più nel passato che in quelle moderne per un certo modo in cui catturano la luce, e decisamente lui non ha problemi nel scegliere di noleggiare una lente più moderna da una prodotta 20 o 30 anni fà per una cinepresa seria.


LUT cosa sono e a cosa servono.

lut-buddyCosa sono le LUT?

ci sono tanti modi di spiegare una LUT, più tecnico o più pratico, a me interessa spiegare il lato pratico, per il lato tecnico basta una ricerca su Google e trovate mille e più pagine tecniche che vi spiegano cosa sono fino alla formula matematica che le descrive.

Una LUT Look Up Table è praticamente una tabella, un preset che prende i colori di una immagine, di un filmato, e li corregge secondo i valori contenuti nello schema della LUT.
Internamente ci sono tabelle a 1, 2, 3 dimensioni che prendono il valore del colore originale e lo cambiano in un altro valore; le LUT 3D sono quelle più precise, perchè descrivono la trasformazione del colore in modo più dettagliato secondo lo spettro cromatico più esteso, se nella modalità 1D è una tabella valori in cui 1 diventerà 1.22, nella lut 3D cubica abbiamo uno scostamento sui tre assi del colore e quindi avendo una descrizione più dettagliata, sarà più precisa la correzione che la LUT andrà ad applicare.

A cosa servono le LUT?

Le LUT servono a tre scopi diversi, a seconda di quando si applicano tali correzioni.

LUT da set/Monitor : girando con camere che lavorano girando il log o in raw, il materiale se rivisto direttamente sarebbe strano, desaturato, piatto come contrasti, quindi spesso si usano monitor che al volo applicano una LUT per mostrare il materiale secondo una visione più “tradizionale” ad esempio il rec709 che è lo standard video.

LUT di sviluppo : sia sul set che magari dopo, si creano delle LUT per fissare un certo tipo di correzione dell’immagine originale per fissare l’estetica dello shot che viene fatto, in modo che il Direttore di fotografia possa al momento verificare l’effetto generale della ripresa fatta, che dare delle indicazioni in modo che chi si occuperà della fase color grading abbia una indicazione precisa di cosa il Direttore di Fotografia intendeva catturare sul set.

LUT di Postproduzione : si carica o si crea una tabella di correzione per dare un particolare look alle immagini partendo da LUT che simulano il tipo di risultato che si avrebbe in “determinate condizioni” ad esempio le Lut che simulano i diversi tipi di pellicola emulano come i colori e i contrasti si altererebbero in funzione della stampa su quel tipo di pellicola.

per far soldi … vendendo dei preset che forse potranno funzionare, su alcune immagini…

Perchè non funziona la LUT che sto applicando?

La spiegazione è molto semplice, la LUT funziona sempre, è l’immagine a cui la diamo in pasto che non è adatta.
Contrariamente a quello che pensano in molti, le LUT nascono come preset di correzione del colore, sviluppate su immagini di tipo X, quindi le LUT vi forniranno quel tipo di risultato SOLO se voi le applicherete ad immagini con lo stesso tipo di contrasto e densità di colore, altrimenti i risultati possono essere di ogni tipo. Le LUT sono SOLO delle tabelle di allocazione del colore, ma non possono essere senzienti, ovvero non sanno quale sarà il risultato finale, solo di quanto cambiare il tutto.

Come faccio a far funzionare una LUT?

domanda semplice, risposta molto semplice, olio di gomito, si deve alterare l’immagine sorgente PRIMA di applicare la lut in modo che sia il più simile possibile all’immagine originale usata per creare la lut, questo farà si che il risultato finale sarà il più vicino possibile a quello che ci si aspetta dall’immagine dimostrativa della LUT.

Perchè una immagine NON vale l’altra quando applico le LUT?

se una immagine ha un contrasto alto o basso, la LUT scosterà i colori in modo diverso.

qui potete vedere un esempio di come una immagine LOG o in modalità video rec 709 per la una LUT Kodachrome siano sbagliate, e quindi da una delle due ho dovuto creare una immagine ad hoc per poter ottenere un risultato più naturale da quella LUT.

completoIl file Log non è abbastanza flat, il file rec 709 è troppo contrastato e troppo saturo, mentre per far funzionare correttamente la lut ho dovuto decontrastare il log, ma saturarlo un po’ di più dell’originale. Quindi diventa evidente che quando si usa una LUT più “aggressiva” di un semplice sviluppo delicato, spesso è necessario mettere in mezzo un livello di correzione per far funzionare la lut nel modo corretto, lavorando sul contrasto e sul colore, perchè spesso la tabella è troppo forte o poco forte.

La Lut deve essere pensata più da un punto di partenza, che un punto di arrivo, per cui può essere interessante per la manipolazione delle immagini, ma non la si deve pensare come una bacchetta magica, non trasforma in pellicola le immagini che gli date in pasto alle Lut, ma aiutano lo sviluppo delle immagini per arrivare ad un determinato risultato.

La free Lut per simulare la cara e vecchia Kodachrome è un dono fatto dal cinematographer Frank Glencairn, la potete trovare sul suo blog in questo interessante Articolo sullo sviluppo del colore in stile kodachrome.

Come le lavoro le immagini prima delle LUT?

con qualunque strumento che vi permetta di vedere in realtime le applicazioni di Lut e correzione colore in contemporanea, ad esempio lo strumento LUMETRI di premiere dalla CC2015 in poi, che contiene la possibilità di caricare le LUT in due punti diversi, sia per lo sviluppo base e poi per lo sviluppo creativo, e la cosa interessante è che nello sviluppo creativo i programmatori di Adobe hanno introdotto controlli di regolazione colore come lo “sbiadito” e vividezza; sbiadito è la traduzione un po’ grossolana di bleach pass, il candeggiante, che aiuta l’applicazione delle LUT rendendo più “flat” piatta l’immagine riducendo contemporaneamente sia la saturazione che il contrasto; la vividezza è uno strumento che aumenta il colore inversamente al valore della saturazione degli elementi, oppure toglie colore in modo direttamente proporzionale alla quantità di saturazione degli elementi, molto utile per uniformare i valori di saturazione dell’immagine, riducendo gli eccessi e i contrasti di saturazione che complicano l’applicazione delle LUT e tutte le altre lavorazioni di correzione colore.

Su photoshop ad esempio le LUT si applicano come livello di regolazione, per cui possiamo inserire prima del livello di LUT due livelli di regolazione di valori tonali e vividezza e controlliamo agilmente l’immagine vedendo anche quanto la LUT la cambia e “dosiamo” l’intervento della lut stessa.

Posso applicare le LUT ad ogni tipo di immagine?

Le lut nascono per lavorare al meglio su immagini flat che nascono da file log o raw, per cui applicandole su immagini morbide e poco sature le LUT possono agire bene, e possono funzionare di più al secondo colpo.

Perchè dico al secondo colpo? Perchè log non è uno standard, se prendiamo un file log di una red, di una blackmagic, di una alexa, di una dbolex avremo tanti log diversi, diverse saturazioni e diversi contrasti. Log è un file in cui il colore e il contrasto invece di essere registrati in modo lineare sono registrati in modo logaritmico per gestire meglio e più latitudine di posa e informazioni, ma ogni azienda ha il suo modo di gestire e catturare le informazioni log.

Ad esempio logC Alexa e log blackmagic sono molto simili, Alexa tiene la saturazione più alta, Blackmagic più bassa, ma il contrasto di luminosità è invertito, quindi la LUT sviluppata sulle immagini di una non va bene su quelle dell’altra e viceversa.
Entrambe le camere registrano un log 10bit in .mov e un 12bit log raw, partendo da un sensore 16bit, ma la curva di gestione è differente.
Potete trovare qui alcune indicazioni della curva di log della Alexa.
Questo significa che anche salendo su camere più professionali non esiste un modo standard di creare le immagini e catturarle allo stesso modo. Se una Lut potesse magicamente equilibrare le immagini e dare l’aspetto X indipendentemente dalla sorgente, probabilmente sarebbe superfluo avere sia sul set che in post diversi ruoli e diverse professionalità, ma nonostante i tentativi di filtri, sistemi di allineamento colore in post, uso di tabelle come il target gretag e simili, i sistemi di correzione colore automatici al massimo posso aiutare a “normalizzare” ovvero uniformare le immagini tra di loro, ma di certo non a creare la magia, per quella servono sempre gli esseri umani.

Un altro esempio di come una camera non possa lavorare in modo lineare è dato dal fatto che a seconda della lente che poniamo davanti, dell’iso impostato, anche lavorando con le stesse condizioni cambierà il contrasto di luce, e quindi anche poi la saturazione. Quindi anche usando la stessa camera, e girando in raw, dove non avvengono elaborazioni, ma si cattura esattamente ciò che il sensore legge, basta aprire o chiudere i diaframmi della lente fissa, che cambiando il contrasto una lut usata a TA (tutta apertura) sarà inutilizzabile a 11 di diaframma perchè l’immagine andrà “massaggiata” prima di essere sottoposta alla lut.


Pagina 3 di 4

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!