Tutto è possibile

Categoria: Tecnica Pagina 21 di 25

Riflessione tecnica e/o analisi tecnica

Un pezzo della mia storia sulla qualità visiva.

Abbiamo abbastanza qualità per i nostri progetti?

Dopo aver cambiato tanti mezzi di ripresa sono approdato ad un prodotto che mi permetterà per qualche anno di lavorare tranquillo, anche ad alto livello. La cosa curiosa è proprio che mentre mi sono stabilizzato con questo mezzo, ho letto tutta una serie di articoli relativi ai vari camera’s peeper che nell’attesa della fantomatica nuova macchina, deprecano cosa possono avere per le mani, prodotti ottimi per raccontare una storia.

Esiste un termine in inglese coniato da Stu, Next camera disorder, che rappresenta bene il concetto : non posso lavorare con il mio attuale strumento, perchè quello che sta per uscire è meglio… non devo sprecare tempo ora con la mia camera/reflex/cinepresa, perchè otterrei risultati di qualità non sufficiente.

videoDifettiOggigiorno sembra che la prossima camera che si comprerà sarà sempre migliore, più risoluta [8k], più sensibile [Sony A7 series], Modulare quindi sarà la definitiva [Axiom], più professionale [cinepresa XXX scegliete voi], quindi si procrastina con la storia…

Ammetto che comprendo la perplessità di alcune persone, di fronte a mille offerte e ad un mercato in continua evoluzione, ma non comprendo la pigrizia… Si vogliono macchine sempre più automatiche e perfette, dove fanno tutto loro, e che costino poco poco, ma allora dove sta l’arte e l’abilità nell’usarle se fanno tutte le cineprese/telecamere/macchine fotografiche?
Non a caso si vedono un sacco di immagini patinate, tutte molto simili, con lo stesso movimento di slider, con gli stessi filtri di post, le stesse lut… le fanno le macchine, [mod provocazione On] quindi i creatori diventano intercambiabili e si possono pagare anche poco, tanto uno vale l’altro [mod provocazione Off].

Senza diventare noiosi, la prima camera che ho usato nel 1990 (si comincio ad essere un master) era una vhs spallare, e la risoluzione effettiva era di circa 200 linee, quindi se avessimo acquisito il materiale digitalmente al max della qualità l’effettiva risoluzione (interlacciata) è circa 320×200 pixel, poi l’acquisizione da vhs decente con tbc si può fare in pal, ma non vedreste nessuna differenza di qualità e nitidezza. Il montaggio si eseguiva facendo almeno un paio di copie [degrado analogico forte] durante il montaggio, e quello diventava il master, che poi veniva duplicato per mandarlo ai rari festival che accettavano vhs 25 anni fà… Eppure la gente con il vhs e 8mm (nastro digitale) girava comunque cortometraggi.

un esempio molto interessante è questo cortometraggio che ha lanciato Robert Rodriguez, e che gli ha permesso di essere conosciuto da molte persone, compreso Quentin Tarantino che vide la brutta copia della copia della copia di questo VHS.

Poi passai con un grande salto ad una MiniDv, dove la risoluzione era realmente 720×576 pixel, molto sporchi [sensibilità intorno ai 800 iso tirata max] e contrastati, e interlacciati. Ma comunque questo non ha impedito la realizzazione di storie, da li poi un salto all’HDV progressivo 1440×1080, e il full HD con le tre ccd e poi le mirrorless panasonic. Butto li qualche cifra di pixel pur sapendo che sono termini relativi, nel mio articolo relativo alle risoluzioni ho fatto una disamina più precisa su quale sia la differenza tra la risoluzione apparente e reale, e come il numero di pixel non sia il reale indicatore di qualità di un prodotto.

Con le mirrorless ho ritrovato il piacere di usare obiettivi a fuoco manuale, il controllo manuale e reale dei diaframmi della camera, lavorare con ottiche fisse, ho usato telecamere che avevano solo metà dei diaframmi dichiarati, mentre oltre una certa cifra i diaframmi erano emulati dall’uso di un filtro neutro che toglieva luce, non cambiando la profondità di campo (e spesso introduceva una dominante verde… mannaggia ai progettisti daltonici).

Oggi sono su una macchina che produce dal fullHD registrato con prores Proxy alla qualità più scarsa fino al 4k raw quando si ha bisogno del massimo della qualità e della flessibilità in post produzione, il tutto con qualche vincolo, perchè nascendo come cinema camera nasce è stata pensata per usi di un certo tipo, per persone che sanno come riprendere e postprodurre il materiale in un certo modo, ma è esattamente quello che cercavo, perchè mi offre il controllo che volevo e una qualità di gran lunga oltre quello che mi serve oggi (con la precedente camera ci hanno girato inquadrature di Madmax, diciamo che con questa si può anche fare di più).

Ognuno di noi ha una sua idea della qualità, poi però la pubblicità, le immagini luccicanti delle pubblicità ci possono far cambiare idea.. forse… o forse sono pensate per farci pensare che non abbiamo abbastanza.. una delle basi della cultura moderna del marketing, far credere di non aver abbastanza per far comprare il superfluo, sempre. Ho scritto una riflessione sul 4k oggi, proprio in funzione dell’inutilità di avere il 4k in tv, sui cellulari e sulle camerine amatoriali.

I miti della qualità

ora stacchiamoci dai sentimentalismi e cerchiamo di capire cos’è realmente la qualità, reale o percepita. quando si osserva una immagine noi percepiamo prima la luminosità e poi il colore, tramite la luminosità percepiamo il dettaglio, la profondità e le distanze tra gli elementi, poi il colore ci fornisce informazioni aggiuntive sugli elementi; questo principio non è digitale, ma analogico, perchè sono così che funzionano gli occhi dell’essere umano, coni per il colore e bastoncelli per catturare la luce, questi ultimi essendo più numerosi e attivi per catturare luce e movimento forniscono il vantaggio.

quindi analizzando una immagine in movimento cosa possiamo indicare come qualità?

  • la risoluzione dei dettagli fini, quindi poter vedere ogni elemento possibile.
  • la capacità di fornire dettagli e informazioni sia in ombra che in luce, come fa l’occhio umano che ha una gamma dinamica molto ampia
  • dei colori percebili NON troppo accesi, perchè se troppo accesi alterano la percezione delle sfumature, e comunque l’occhio umano percependo prima la luminosità e poi il colore, in una immagine troppo satura percepirebbe meno dettaglio, quindi la ritiene meno ricca.
  • riproduzione corretta del movimento veloce, quindi non troppo nitido altrimenti diventa stroboscopico, non troppo mosso, altrimenti diventa illeggibile.

beh in teoria questi sono elementi oggettivi per determinare la qualità, ma basta andare in un centro commerciale e vedere come le persone percepiscano come migliore quello che è l’esasperazione di questi elementi, colori accesi tanto da perdere tonalità perchè vanno in solarizzazione, contrasti e maschere di contrasto esasperati per mostrare una “incisione” di dettaglio che non esiste, ma creando una specie di finto basso rilievo danno l’illusione di tale elemento visto da lontano, funzioni infernali che tolgo e aggiungono la sfuocatura di movimento in funzione della follia dell’ingegnere che ha progettato quei circuiti, convinto che il “SUO” gusto visivo sia quello da imporre al resto del mondo, sicuramente nel 90% non disabilitabile, e così via… tanto da trasformare le immagini cinematografiche in specie di telenovelas brasiliane anni 90…

10 tacche di colorequalche dubbio? bene guardate bene questa PNG, dove ci sono tacche a stacchi di 10 toni tra un colore e l’altro e tra una luminosità e l’altra, a seconda del vostro monitor e della calibrazione applicata, appena voi andate a toccare la saturazione perdete i primi toni da sinistra, ovvero dal 30 al 40% delle sfumature colore della vostra immagine.

Stessa cosa vale per la luminosità dove le parti più scure vanno a perdersi.
Poi ci sono quelli che dicono, si va beh quando visualizzo una tabella di colori, di solito ho immagini ricche di colore…

osservate questa immagine, alzando la saturazione perdiamo due cose fondamentali, il dettaglio tra i pistilli, perchè tutte le sfumature minime diventano uguali e quindi si appiattiscono, e il colore vero, perchè in origine il fiore è tra il rosso e il lilla, ma alzando la saturazione, il blu è già al massimo, quindi alzandosi il rosso si perde l’equilibrio originale, trasformando un colore in un altro.
A dimostrazione che sbagliano quelli che dicono che alzando la saturazione, avendo colori più brillanti otteniamo colori più naturali, dato che accade esattamente il contrario.

saturazione

 


FpS oggi, che scelgo?

Nel mondo del video e del cinema esistono degli Standard, con la S maiuscola, nati su ragionamenti e necessità tecniche ben precise, ma naturalmente ci sono tutte le varianti che nascono per banali ragioni economiche, che comportano problemi e mal di testa a non finire per chi deve utilizzare le attrezzature video e cinema adattandonsi alle “varianti di standard”…

Partiamo dalle basi, quali sono i Frame Rate corretti?

Il cinema nasce più di cento anni fà e superata la fase a manovella, in cui la velocità di ripresa e proiezione era in funzione di chi girava manualmente una ruota, si è stabilizzato sulla velocità di 24 fotogrammi al secondo. Questo valore è nato dalla necessità di trovare il giusto medio tra percepire fluidamente una immagine, e non consumare troppa pellicola (oggi troppi giga) nel riprende, e nel gestire poi il prodotto finale.

24 fotogrammi al secondo proiettati con un proiettore con otturatore (dopo capiremo il perchè di questa puntualizzazione), sono sufficienti per fornire informazioni al cervello umano del movimento continuo, se catturati correttamente.

Quando naque la televisione di doveva trovare un sistema per riprodurre le immagini, utilizzando un “pennello eletronico” che disegnava riga per riga le immagini; si trovò un sistema sufficientemente dettagliato e corretto con la scansione interlacciata. I primi esperimenti di trasmissione di immagine per scansione risalgono ad Alexander Bain tra il 1843 e il 1846 (si parliamo del 1800…), mentre la prima immagine live si deve a Georges Rignoux e A. Fournier a Parigi nel 1909.

200px-John_Logie_Baird,_1st_Image25 Marzo 1925, John Logie Baird fece la prima dimostrazione pubblica di trasmissione di  silhouette in movimento nel departimento di  Selfridge. a Londra.

Per l’epoca la performance del ventriloquo e attore Stooky Bill che parlava e si muoveva fu un passo storico per la trasmissione delle immagini.

Ora facciamo un salto in avanti fino all’origine delle attuali tecniche di creazione dell’immagine, ovvero al 1941 per il segnale in formato americano a 525 linee e il 1944 per il segnale in formato Europeo a 625 linee in Unione Sovietica.

video_modes_progressive_examplePer ottimizzare la banda di trasmissione delle immagini, la televisione nasce con una modalità chiamata interlacciata, ovvero quando vengono catturate le immagini ogni fotogramma viene catturato in due tempi diversi, ovvero per ogni fotogramma prima si catturano solo le linee pari dell’immagine, poi nell’istante successivo si catturano le dispari, poi le pari del fotogramma successivo, e così via.InterlaceScanTV

Questo fa si che i fotogrammi effettivamente si fondono insieme dando una illusione di maggior fluidità, ma in pratica si ottimizza il flusso dati perchvideo_modes_interlaced_exampleè tranne il primo frame, che è fatto di due semiquadri completi, in pratica, i successivi essendo composti dai semiquadri uno ereditato dal precedente, e uno dell’attuale, si cattura e si trasmettono metà delle informazioni dei fotogrammi.

Per disegnare correttamente queste informazioni si deve sincronizzare le diverse attrezzature di ripresa e trasmissione e dato che non esistevano all’epoca dei sistemi di condivisione di certi tipi di dati ad alta velocità si fece la scelta di usare la frequenza della corrente elettrica; per questo motivo sono nati i due standard televisivi con le seguenti caratteristiche :

Pal per Europa, Australia e paesi con corrente a 50 hrz.
Ntsc per America e Giappone con corretne a 60 Hrz.

Queste due diverse scansioni ha fatto si che i due standard trasmettano in due modi diversi :
Pal 50 hrz = 25 fotogrammi interlacciati (50 semiquadri) a 625 linee
Ntsc 60 hrz = 30 fotogrammi interlacciati (60 semiquadri a 525 linee).

Il Pal parte con le Linee Pari (Lower), e l’NTSC parte con le linee Dispari (Upper). Quindi sono due standard molto diversi.

Anche passando all’Alta definizione, si sono mantenute le caratteristiche originali di frequenza di fotogrammi, di ordine dei campi invertito, pur uniformando almeno il numero di linee verticali e orizzontali a 720 e 1080i.

Il numero di fotogrammi è rimasto invariato anche oggi con il digitale perchè anche se non esiste più un pennello elettronico per disegnare le immagini, i televisori hanno comunque degli schermi / pannelli che ridisegnano/aggiornano i fotogrammi con la stessa frequenza, legata alla corrente elettrica perchè lo standard NON PUO’ cambiare, dato che per legge la televisione pubblica (e quindi anche quella privata) deve essere fruita e vista correttamente da chiunque sul territorio italiano, anche con vecchi apparecchi di 50 anni fà. Ed essendo troppo costoso fare una doppia trasmissione di segnale (antico e moderno) siamo ancora legati ad un concetto antiquato di quasi cento anni fà…

Come fare le riprese?

in tutti i modi, compatibili per quello che sarà l’output.

In sintesi :
24 fotogrammi progressivi = cinema
25 fotogrammi interlacciati = Televisione Europa e Asia
30 fotogrammi interlacciati = Televisione America e Giappone

Se mescoliamo qualcosa, vedremo o da una parte o dall’altre dei difetti :

  • frame rate differente tra ripresa e riproduzione = saltini sul video
  • uso di interlacciatura diversa (upper invece di lower) = immagini che sembrano andare avanti e indietro
  • visione di materiale su dispositivo sbagliato = X

perchè all’ultima voce di elenco ho scritto X?

La maggior parte dei televisori Europei supportano la riproduzione (non la ricezione) anche di segnali NTSC a 30 fotogrammi, quindi potremmo anche vedere del materiale realizzato nel modo non Standard per la nostra area geografica, quindi il fatto che vediamo correttamente un dvd o un file non significa che sia standard. Per un periodo è esistito anche uno standard chiamato Pal60, ovvero codifica colore del Pal, ma la frequenza dell’NTSC.

Molti televisori hanno software di lettura e interpretazione delle immagini in movimento che compensano i difetti e gli errori di riproduzione dei filmati quindi potrebbero (condizionale) aver corretto alcune differenze tra standard in modo invisibile.

Quindi se vedo una cosa sbagliata sul computer e giusta sulla Tv è la tv che mi corregge il tutto, e il mio file è sbagliato?

Non è detto. Bisogna sempre considerare che noi utenti pal siamo sfigati, ovvero viviamo in un mondo video pal, 50 hrz, con video a 50hrz, ma vediamo su telefoni, tablet, monitor da computer a 60hrz, quindi vedere un filmato in riproduzione a 25 fotogrammi al secondo su questi dispositivi sarà sempre con interpretazione dei frame e potremmo vedere dei difetti di movimento che non sono presenti realmente nel filmato, ma creati dal player dei filmati…

Quindi se monto al computer come faccio a giudicare?

la risposta è semplice, come ogni montatore serio, l’unico modo per avere una risposta affidabile è vedere su un monitor VIDEO l’uscita del segnale, così che possiamo avere una risposta affidabile su un monitor Video che gira a 50 hrz, altrimenti ogni possibile errore di movimento può essere causato non dal filmato, ma dall’errato adattamento dei 25 fotogrammi al secondo con la scansione a 60 hrz del monitor.

Ma quando riprendo a X fotogrammi al secondo l’otturazione come deve cambiare ?

l’otturazione corretta è N fotogrammi al secondo x2.
Questo valore è nato da 100 anni di esperienza cinematografica dove si è compreso come una otturazione doppia rispetto alla velocità dei fotogrammi è il corretto valore per ottenere la scia di movimento (motion blur) sufficiente per dare l’illusione di continuità di movimento.
Un valore superiore crea un effetto stroboscopico, perchè annulla la sfuocatura di movimento, mentre un valore inferiore crea una sfuocatura di movimento troppo forte e quindi diventa tutta l’immagine troppo mossa.

Perchè allora posso cambiare l’otturazione nelle telecamere e nelle cineprese se devo usare questo valore fisso?

Nell’uso normale delle riprese, per una percezione corretta del movimento vige la regola del FpS x2, ma quando si devono fare effetti particolari, come fare i rallenty in postproduzione, si alza l’otturazione perchè altrimenti non è possibile ottenere determinati effetti o rese in postproduzione.
In casi particolari di riprese notturne con camera fissa, oppure in cui si ha bisogno di gestire movimenti molto veloci, si tende a scendere con l’otturatore, per sfuocare maggiormente e mantenere la fluidità di movimento pur veloce.

L’unica cosa a cui stare attenti sono le luci…. quando si lavora in un ambiente con corrente a frequenza X, le luci, i neon, i pannelli a led etc tendono a lavorare con la stessa frequenza, per cui se uso una frequenza diversa tra otturatore e corrente potrebbe apparire un fenomeno detto Flickering.

Ad esempio se giro in un ambiente 50 hz a 24p (tipico del cinema) c’è il rischio che si creino delle onde in ripresa, stessa cosa se giro a 30 in ambiente 50hz, per cui le diverse cineprese digitali hanno otturazioni speciali per quelle situazioni, mentre le dlsr e le telecamere più amatoriali non li hanno e quindi il risultato è un difetto visivo difficilmente eliminabile.

Se riprendo solo per il web cosa devo scegliere?

il web, lo streaming direttamente sui vari dispositivi lavora tutto con frequenza a 60hrz, quindi in quel caso si rompe la regola del pal e si gira a 30 fotogrammi al secondo PROGRESSIVI, perchè tutti questi dispositivi visualizzano i fotogrammi interi e non divisi per semiquadri e in questo particolare caso è FONDAMENTALE rispettare la regola del fps x 2, perchè ogni tipo di movimento troppo veloce se l’otturatore è più alto sarà scattoso e poco piacevole da vedere. Unica eccezione è relativa alle luci artificiali.

Quindi in conclusione?

Con la maggior parte dei televisori e monitor, nonostante gli 800/1000 mhz vantati, il segnale letto è sempre quello di un 24-25-30 e pochissimi monitor /tv possono leggere e riprodurre filmati a 50-60p reali, quindi riprendere a framerate superiore è utile SOLO per scopi di rallenty in post, non siamo in grado di visualizzarli realmente, il refresh superiore è relativo SOLO a frame generati dal televisore o dal monitor artificialmente, non letti dalla sorgente, e spesso in modo del tutto arbitrario alterando in modo vistoso e negativo il filmato visualizzato.

Serve realizzare un rallenty? massimi fps catturabili al giusto livello di otturazione

Non serve un rallenty?
24 = cinema
25 = emissione televisiva, monitor televisivo Pal (europa australia)
30 = emissione televisiva, monitor Ntsc (USA, Giappone), Computer e Mobile che hanno schermia 60hrz di refresh.

Ricordiamo solo che lavorando con luci artificiali non usare la stessa frequenza della corrente richiede attenzione al flickering di certe luci e ove possibile correggere la frequenza dell’otturazione per evitarlo.


Non premere rec finchè…

pergamena con elencoIn un mondo dove tutto va in velocità altissime è bene in certi momenti fare un salto a piè pari e fermarsi per controllare alcune cose, che dopo saranno un sacco di problemi, anche se spesso non ci si pensa.

In un mondo perfetto c’è un direttore di fotografia, un mondo di persone attente a tutto quello che succede, nel mondo normale, no, e se anche ci sono in mezzo a quel casino si possono commettere degli errori, anche pesanti.

Ho pensato che condividere l’elenco dei passi da controllare può essere utile a tante persone per cui…

Prima di premere rec è utile una specie di rito per essere tranquilli che poi si può correre senza troppi dubbi.

Carletto’s List
  1. tutti i dadi sono stretti?
    in un rig classico sono tanti i dadi (manopole) che si stringono ma si possono allentare, magari ripresa dopo ripresa, e rischiare di veder cadere parte dell’attrezzatura è una gran brutta esperienza
  2. i cavi sono connessi bene e legati col velcro?
    un cavo che si stacca, che balla facendo rumore e/o difetti, che slegandosi fa inciampare o impedisce un movimento è una gran brutta cosa.
  3. i parametri di ripresa sono corretti?
    FPS, Shutter, formato di ripresa, Iso, diaframma
  4. Le lenti e il sensore sono puliti?
    un puntino di polvere sul sensore diventa un’ombra scura a diaframmi più chiusi, su una lente con la luce contro diventa un punto chiaro, che da correggere in post diventano un costo non trascurabile
  5. La batteria è carica?
    Tra varie riprese, magari basse temperature, il rischio che proprio durante una ripresa la batteria ci abbandoni esiste, ed è meglio evitare di perdere il più bel ciak della nostra vita.
  6. C’è abbastanza spazio di registrazione sul supporto?
    come per la batteria, dopo un po’ di riprese verificate sempre di avere spazio operativo.
  7. L’audio è a posto ? Microfoni, connessioni, cavi relativi, DeadCat se serve? Abbiamo sentito in passante il segnale audio per essere sicuri che non ci siano ritorni o difetti di qualche tipo?
    a posteriori rifare l’audio o correggerlo è un costo molto alto rispetto a fare una prova prima.
  8. Abbiamo controllato l’inquadratura bene?
    Se ci sono elementi che spuntano da dietro gli attori che disturbano, se ci sono oggetti fuori luogo da cancellare in post, ombre di persone del set, riflessi strani che non dovrebbero esserci, negli oggetti riflettenti per caso si vede troupe o attrezzature?
    Quel tipo di post per cancellare o aggiustare le immagini ha un costo di tempo e denaro non trascurabile, per cui è importante evitarla ove possibile
  9. i cellulari sono spenti?
    anche se silenziati molti smartphone creano disturbi nei radiomicrofoni e/o in camera, magari può sembrare eccessivo, ma ho visto troppi ciak buttati per uno squillo di troppo… soprattutto dalle notifiche di facebook.

so che possono essere magari suggerimenti banali, ma avendo dovuto risolvere clip girate alle velocità sbagliate, con troppo rumore perchè l’operatore non guardava le impostazioni della camera e pur avendo luce ha alzato gli iso perchè non ha notato il diaframma troppo chiuso per riprese precedenti, o shot in cui ho dovuto ricreare il motion blur naturale perchè invece di chiudere il diaframma o mettere un filtro ND ha alzato lo shutter, senza vedere che lo ha alzato veramente troppo.

insomma, se faccio il danno mea culpa, ma se lo faccio perchè non sono stato attento…

e succede quindi fate una veloce check list di cosa controllare e risparmierete tanto tempo dopo in edit e post


8 bit, 10bit, 24bit, 32bit che razza di bestie sono quando esporto?

Cosa significano le diverse sigle?

In tante occasioni parlando di video di sentono diverse sigle che in un modo o nell’altro influenzano la qualità dell’immagine che andiamo a vedere e soprattutto a manipolare.

Quando si lavora con il video nella maggioranza dei casi si parla di video catturati a 8 bit, questo valore si riferisce alla componente colore singola, quindi il sensore o il sistema di registrazione cattura 2 alla ottava, il che significa 256 informazioni colore.

256 toni di colore per il canale del rosso, 256 toni per il canale del verde, 256 toni per il canale del blu.
La combinazione di tutte queste possibili sfumature creano una immagine che può contenere 16 milioni e rotti di combinazioni possibili, ovvero una immagine a 24bit.

quando si aggiunge il canale alfa ad una immagine a 24 bit, dato che il canale alfa segue le stesse capacità e regole del colore, avremo una immagini a 256 toni di grigio che definiscono la trasparenza totale (100% di luminosità) o la totale opacità del pixel (0% di luminosità).

quindi abbiamo una immagine a 24 bit (R = 8, G= 8, B=8) + 8 bit di alfa, totale immagine a 32 bit.

quando andiamo a esportare una immagine abbiamo teoricamente (dipende se e come il software supporta l’esportazione) la possibilità di esportare video e immagini a diverse profondità colore, più è alto il numero, maggiori sono le informazioni contenute e quindi maggiore è la qualità registrabile.

Parlo di qualità registrabile perchè se importo un video a 8 bit e lo esporto a 16bit, non significa che il video diventa a 16bit, non migliora l’immagine, nè aumentano i colori originali, restano gli stessi, ma se ho applicato dei filtri di correzione colore, probabilmente esportando a qualità più alta PRESERVO la qualità originale.

da un programma posso esportare :

8 bit per canale : 24 bit + eventuale alfa 8 bit che diventa 32bit
16 bit per canale : 48 bit + eventuale alfa 16 che diventa 64bit
32 bit per canale : 96 bit + eventuale alfa a 32 che diventa 128 bit (solo da vfx e software di post)

quando si parla di video, possono essere registrati a diversi bit da 8, 10, 12, 16 bit a seconda del codec di lavoro e dalle impostazioni dello stesso. Naturalmente avere uno spazio colore maggiore significa avere più informazioni e quindi più spazio di azione dove intervenire con la corezione colore o con la postproduzione in generale.

Perchè servono più di 16milioni di colori?

perchè in realtà quei colori sono la somma di tutti i colori possibili dei tre canali colorati, ma se devo fare una sfumatura di rosso puro, blu puro (il cielo) ho solo 256 possibili sfumature di blu, oltre intervengono leggeri squilibri degli altri colori, che portano il blu del cielo ad andare verso il verde, oppure verso il magenta, quindi non è più il colore puro.

Perchè non posso usare solo 8 bit se ho registrato una immagine nel modo corretto?

perchè non solo il limite è in registrazione, ma soprattutto nella post produzione, per comprendere meglio è possibile fare un esempio molto semplice, creare un colore sul limite e poi aumentare la sua luminosità.

esempio scostamento coloreDopo aver creato un colore rosso di un valore leggermente sbilanciato, ovvero col verde maggiore del blu ho semplicemente applicato una luminosità molto alta, e come potete vedere nelle informazioni finali, il colore non si scosta in modo lineare, perchè il rosso essendo già al massimo (255 come valore) non si può muovere, quindi salgono verde e blu, ma non in modo lineare e proporzionale, quindi man mano che rendo più luminosa l’immagine la quantità di verde del colore aumenta, quindi il rosso si inquina e cambia il colore originale.

Se invece avessimo avuto uno spazio colore a 16bit, dove le possibili combinazioni sono maggiori, il range di lavoro non è più 0-255 ma 0-32768, quindi le possibili sfumature realizzabili prima di ottenere uno scostamento colore evidente sono maggiori e più morbide.

Quando esporto un video a 8bit cosa posso esportare?

quando apriamo un pannello di compressione di un software, a seconda di quale codec esportiamo possiamo selezionare una profondità colore differente, ma attenzione che se si considera anche il canale alfa potremmo esportare più di quanto serve, anche quando non serve.

Se seleziono una esportazione a 8 bit, significa che esporto un file a 24 bit (8+8+8), ma se si attiva l’esportazione del canale alfa, in realtà noi esportiamo un file a 32bit perchè il file colore è a 24bit + 8 bit di canale alfa. Nella maggior parte dei casi il file sarà usato allo stesso modo, quindi nessun problema, ma in situazioni specifiche come con le macchine di messa in onda, un file a 32bit, anche se magari la parte del canale alfa è vuoto, viene rifiutato, e quindi è fondamentale sapere come esportare il materiale nel modo corretto.

Quando si lavora cosa può cambiare se lavoro in uno spazio colore più ampio?

Il discorso è molto semplice, se prendiamo una immagine e spostiamo le informazioni di luminosità, da uno spazio a 8 bit a 8 bit c’è il rischio di perdere delle informazioni intermedie perchè non c’è lo spazio corretto dove spostarli. basta confrontare l’istogramma del progetto a 8 bit con quello a 16bit.

confronto correzione colore 8 16bit

L’istogramma della correzione 8bit si vede come diventa frammentato, con diverse frequenze che spariscono e quindi rappresentano informazioni perse durante la correzione delle informazioni mentre nell’istogramma a 16bit queste informazioni vengono conservate perchè esistono più posizioni è possibile mantenere le informazioni anche di fronte ad una manipolazione più aggressiva dei valori.

Anche se poi il risultato finale sarà esportato in un file codificato a 8bit, la sorgente sarà di un file elaborato a 16bit e quindi preserverà meglio le informazioni originali.

Questo è il motivo per cui i software di correzione colore professionale lavorano solo in uno spazio colore a 32bit per canale, in modo che ogni operazione applicata ai colori delle immagini saranno a prova di errore e non ci sarà rischio di degrado causato da limitazioni dello spazio di lavoro.

Quando si lavora con AfterEffects e si manipola il colore, avere uno spazio colore di lavoro a 16bit serve a preservare il materiale durante la correzione colore, se si lavora con Premiere è importante abilitare le spunte “Rendering alla profondità massima” in modo che il calcolo interno delle elaborazioni del colore sia fatto a 32bit e quindi si corregga al meglio e nello spazio più ampio anche se poi andiamo a esportare in un codec usando solo gli 8bit di registrazione finale. DA RICORDARE come premiere, non essendo un programma di post, il calcolo nello spazio più ampio colore lo esegue in presenza di video manipolati da effetti a 32bit, nel caso la sequenza contenga anche un solo filtro a 8 bit, tutto il rendering sarà eseguito a 8 bit e non nello spazio colore a 32bit.

e quindi?

nella normalità si lavora a 8 bit, perchè le fonti medie di dslr, telecamere medie è a 8bit, e quindi solo per l’export di materiale fortemente manipolato lavorare negli a 16bit fa la differenza, mentre se non vi viene chiesto l’export di materiale con caratteristiche diverse, per fare dvd, bluray, file per tv, file per Online (youtube, vimeo, etc), file per messa in onda è a 8 bit, senza canale alfa.


Dal passato con furore…

Chiunque mi conosca sa che ho una certa passione per le lenti vintage.

Acquistare una lente vintage significa rinunciare nella maggior parte dei casi agli automatismi, il che non è un male, se per usarle non si ha fretta o non le si vuol usare per fotografia o ripresa sportiva. Per quanto mi riguarda le lenti vintage a me servono per fotografia e ripresa in condizioni più o meno controllate, e quindi non sono interessato agli automatismi, anzi spesso li disabilito per avere il controllo.

Perchè una lente vintage, vista la vasta gamma di lenti che le case fotografiche offrono oggi?

oggi vengono vendute lenti a 80-100 euro che non valgono neanche i fondi di bottiglia, ma poste su camere che le riconoscono, che correggono in camera i difetti, e contrastano, rendono nitide in post, per molte persone possono essere una buona base di partenza. In passato non esistevano prodotti di bassissimo livello, perchè la pellicola non perdonava certi difetti, e la camera non poteva rielaborare le immagini, quindi molte lenti partivano già da un buon punto di partenza a livello qualitativo.

Le lenti vintage a seconda di chi le vende e dove le si comprano possono essere un ottimo affare a livello di rapporto qualità prezzo delle lenti.
Il fatto che lavorando solo in manuale diventano inutili o poco comode per molte persone, il corpo in metallo pesante per altri, che preferiscono i “plasticotti” leggeri, spesso si trovano occasioni sui mercatini, nelle aste di usato e on line.

Naturalmente esistono anche nel vintage lenti poco attraenti come qualità, tutto sta nel sapere cosa si cerca e dove si mettono queste lenti. Se si punta su marchi noti come Leica e Zeiss si ha la certezza che qualunque lente sarà al minimo di ottima fattura, poi ci sono diversi marchi russi che usavano lo stesso schema e tipo di lenti di Zeiss, ma con prezzi più popolari, e li a seconda degli obiettivi si poteva avere dei piccoli gioiellini o dei prodotti di media fattura. Altri marchi come Nikon, a seconda della lente e del periodo, offrono interessanti prodotti.

Volendo posizionare queste lenti su sensori moderni, non dimentichiamo che devono essere lenti di qualità per essere in grado di risolvere abbastanza informazioni per fornire ai sensori moderne dettagli sufficienti per costruire delle belle immagini, quindi la scelta deve andare di conseguenza su lenti di un certo valore.

Cosa mi offre in più una lente vintage?

mi offre le sue imperfezioni, la sua unicità.
Una lente moderna è creata in totale automazione, per cui se prendo 10 50mm 1.2 di un certo marchio so che intercambiandoli avrò lo stesso identico risultato, mentre se prendo anche due lenti vintage, prodotte parzialmente da opera artigianale, avrò dei risultati differenti, anche di poco ma avrò un qualcosa di personalizzato. Si narra che lo stesso Kubrick, fanatico ed esperto di fotografia, avesse chiesto a Zeiss diverse lenti dello stesso tipo, per scegliere e comprare quella che preferiva per ogni focale, così che fosse la sua lente, la sua scelta visiva.

Quale scegliere?

quelle che ci piacciono di più… io mi sono innamorato del look delle Nippon Kogaku, una serie prodotta dalla Nikon, prima che prendesse il marchio Nikon tra gli anni 50 e 60, lenti particolari, prodotte tutte in metallo pesante, grandi lenti limpide che offrono una luce pulita e morbida, pur lasciando molto dettaglio al loro interno.

Totalmente meccaniche si possono adattare all’attacco canon in modo facile e rapido con un anello, oppure se si vuol fare un lavoro fatto bene, l’azienda di barcellona chiamata Leitax crea baionette da sostituire alle originali, così avremo un saldo e robusto attacco nativo per canon.
Una alternativa disponibile per le conversioni delle sole lenti Canon FD è l’americano EDMIKA, che ora ha aperto un centro di conversione anche in Europa.

Il particolare coating di queste lenti non protegge troppo dai flare se riprendo direttamente la luce o in controluce, creando aloni attorno agli oggetti in controluce e particolari riflessi che trovo più interessanti e meno asettici delle lenti moderne, che nel tentativo di rendere perfette le immagini si adoperano per togliere il più possibile di questi difetti, che però danno un certo sapore alle immagini.
Mi fa sorridere l’idea di come si scelgano lenti moderne per evitare flare e aloni, e poi ci si adoperi in vari modi per aggiungerli in postproduzione, sia perchè lo trovo uno spreco di tempo, sia perchè alla fine dato che tutti quelli che li aggiungono in post, essendo dei preset, saranno tutti più o meno uguali, mentre con le lenti vintage quel tipo di comportamento è reale e quindi sarà differente ogni volta che si farà una ripresa.

Le foto che vedete qui sopra sono fotogrammi raw catturati con un sensore s35 4k, praticamente come una fotocamera 8,9 megapixel 12bit raw, che alternano un semplice 35mm 2.0 ad un piccolo gioiello, l’85mm serie H 1.8 della Nippon Kogaku, una lente per la quale l’ingegnere ottico prese la massima onorificenza dall’imperatore del giappone per il lavoro svolto nella qualità ottica e costruttiva; quante lenti oggigiorno possono vantare un simile background?

Un altro marchio che mi ha offerto tante soddisfazioni sono le lenti della serie Minolta rokkor MD, ho un 50mm 1.4 che usato con mirrorless mi ha offerto tante soddisfazioni sia come luce che nitidezza, di fronte ad una lente comprata usata per meno di 90 euro.

Un altro marchio molto interessante è Voigtlander, che produceva e produce lenti di altissimo livello, in vari mount, tra cui un mount molto interessante che è il Rolley QBM, il fattore interessante di questo mount è che è molto semplice ed economico adattarlo all’attacco EF canon, basta acquistare una economica baionetta, svitare le tre viti posteriori della lente, togliere il vecchio mount e mettere il nuovo, riavvitare e a questo punto la lente è pronta per essere saldamente unita con moderne camere.

Posseggo uno splendido voigtlander Ultron 55mm 1.4 AR che offre una luce e una definizione spettacolare anche sui moderni sensori, sia al centro che lateralmente anche a tutta apertura. Questi sono fotogrammi estratti da test eseguiti con la lente modificata e montata su una Blackmagic Production Camera 4k, pur vedendo solo dei jpeg è possibile comprendere la qualità offerta da una lente che ha più di 40 anni.

Naturalmente so che ci sono molte lenti Leica e Zeiss di qualità più alta di queste, ma parliamo di costi ben più alti che non avrei potuto affrontare, perchè anche se vintage, invece di perdere valore nel tempo, quelle lenti si sono accresciute di valore.

L’uso delle vintage è una moda o una reale necessità?

personalmente posso dire che ho una doppia ragione, da un lato parlo di un lato economico, perchè posso acquistare lenti vintage di una qualità che non potrei affrontare nelle controparti Zeiss moderne; da un altro lato il mio gusto visivo trova più soddisfazione nell’usare questo tipo di lenti che le asettiche e ultra taglienti lenti moderne, che trovo spesso anche troppo contrastate (non parlo di dettaglio, ma di contrasto luce ombra) per i miei gusti.

Che poi sia di moda in vintage e si cerchi di riprodurre i difetti dei filmati amatoriali del passato, quello è un discorso diverso, ad esempio la moda lanciata dalla Lomo, e la moda della lomografia, macchine e lenti con difetti voluti per simulare le brutte foto o i brutti sviluppi del passato è un tipo di gusto visivo che nasce dalla noia della perfezione moderna, dove chi sa che può riprodurre mille volte lo stesso risultato cerca l’originalità nel finto difetto, o vero difetto. Il che, mi ripeto, lo trovo ironico e divertente in un mondo in cui ci sono persone che cercano la perfezione assoluta, il risultato perfetto e la definizione perfetta.

Leggendo una intervista al leggendario Roger Deakins, ho visto che anche lui, nel campo cinematografico ha una netta preferenza alle lenti prodotte più nel passato che in quelle moderne per un certo modo in cui catturano la luce, e decisamente lui non ha problemi nel scegliere di noleggiare una lente più moderna da una prodotta 20 o 30 anni fà per una cinepresa seria.


Pagina 21 di 25

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!