Tutto è possibile

Categoria: I miti da sfatare Pagina 10 di 12

In questa categoria raccolgo una serie di miti tecnici da sfatare, troppo spesso tra i passaparola, tra il copia e incolla on line, e colpevole il Web 2.0, sono nati e si sono radicati tanti miti “tecnici” per i quali non esistono rimedi, tranne che la logica e il pragmatismo nell’affrontare queste bufale…

Pellicola vs Digitale

pellicolaDa anni ci sono contenzioni tra gli amanti della pellicola e del digitale, di come uno o l’altro mezzo sia meglio per riprendere, che il cinema vero è solo quello girato in pellicola, etc etc.

Personalmente sono dell’idea che se il mezzo condiziona la narrazione a tal punto, forse chi usa il mezzo è talmente scarso da far notare la sua carenza registica, di struttura e narrazione da far notare allo spettatore che si usa uno strumento piuttosto che l’altro, e male, visto che lo spettatore lo nota….

edito l’articolo perchè qualcuno che in un modo o nell’altro ha influenzato il mondo della produzione pellicola e digitale ha fatto un discorso interessante…

Interview to George Lucas

Comunque, visto che di solito sono discussioni che dovrebbero essere di natura tecnica, e si portano avanti esempi dei registi che oggi vogliono fare gli elitari usando la pellicola invece che i loro colleghi più “rustici” che usano il digitale come James Cameron, Spielberg, Coppola, Scorsese, Lucas e direi che bastano questi nomi per definire questi strani personaggi che s’incaponiscono nell’ usare il freddo e limitato cinema digitale… che gentaglia… vediamo di capire realmente a livello tecnico quali sono i pro e i contro dei due media.

Quando si parla di pellicola vs digitale si devono portare termini di paragone coerenti, per cui se parlo di una vdlrs devo paragonarla ad 16mm granulosa, non certo ad una s35 80 asa… come quando parlo della Pellicola si deve vedere quale pellicola, quale emulsione e in quali condizioni la facciamo lavorare contro una cinepresa digitale di fascia paragonabile, altrimenti è facile vincere un confronto se metto una Ferrari a fianco ad una utilitaria base col freno a mano tirato.

Partiamo da una premessa tecnico pratica : il cinema è cinema perchè la luce, l’inquadratura, le lenti e tutto l’insieme del processo è curato dall’inizio alla fine, se poniamo una ottima pellicola in assenza di luce o in low light, la si espone male, la si tira come sensibilità, si pone una cattiva lente davanti, viene sviluppata male, la stampa finale viene curata alla buona e il proiettore pellicola non è nello stato di grazia, l’immagine sarà BRUTTA, Granulosa, chiusa, poco definita, insomma non cinematografica.

Se poniamo un sensore digitale di buon livello in condizioni di luce ottimali (come si fa al cinema) avremo immagini cinematografiche di ottima qualità, che mescolate a riprese fatte in pellicola non si distinguerà da essa (succede più spesso di quanto credano i detrattori del digitale, ma non lo sanno).

La pellicola, per come funziona l’emulsione, il suo costo, il metodo (unico) di lavorazione non permette sbagli, per tale ragione chi usa la pellicola la lavora al meglio, e quindi ottiene il meglio delle immagini. Per chi ha dubbi cerchi qualche filmino di famiglia  s8 o 16mm e vediamo se la qualità amatoriale delle immagini viene “salvata” miracolosamente dal fatto che è stata usata la pellicola al posto del digitale, se le immagini sono perfette, le esposizioni magicamente di bilanciano, la profondità delle immagini (non la sfuocatura) appare perchè è la pellicola a fare tutta la magia…

Sono abbastanza stanco di sentir dire che la pellicola è meglio, ha più gamma dinamica (da gente che non sa neanche cosa sia la gamma dinamica) del digitale, che è più naturale (in teoria sarebbe vero ma solo a determinate condizioni, leggere in coda la parte relativa alla visione delle immagini), contro il freddo sistema digitale. Sono due mezzi diversi, ma a seconda delle situazioni, uno ha vantaggi rispetto all’altro.

Vantaggi :

Ripresa in Pellicola :

  • Cambiando il rullo con la stessa macchina si può lavorare con sensibilità diverse reali (nel digitale sono simulate).
  • In caso di lavorazioni in situazioni estreme la pellicola in modalità completamente meccanica può lavorare dove il digitale può fermarsi (freddo caldo campi magnetici etc).
  • La capacità di catturare più o meno contrasto (gamma dinamica) la si può cambiare con il cambio pellicola (nel digitale si deve cambiare corpo macchina).
  • Non esistono problemi legati alla cattura delle immagini in movimento veloce nè distorsioni date dalla lettura delle immagini (alcuni sistemi di ripresa digitale li hanno vedi rolling shutter e simili)
  • E’ uno standard da 100 anni e le regole di lavoro sono consolidate e note, raggiungibili anche dai non addetti ai lavori in brevi ricerche.

Ripresa in Digitale :

  • Si può vedere in real time quello che sarà catturato e rivedere subito esattamente quello che si è catturato in camera.
  • ha un costo leggermente più basso della pellicola per ripresa (a livello professionale con un girato che  pesa 20 giga al minuto per ogni camera, quindi lo spazio su dischi e chi gestisce il flusso dati sono un costo da aggiungere e da considerare).
  • Si possono controllare al volo gli effetti per riprese multiple di vario tipo.
  • Una cinepresa digitale di basso livello, ma ad alta qualità è abbordabile anche da un filmaker, una cinepresa 35mm ma soprattutto la pellicola non lo sarebbe mai.
  • Alcune macchine simulano esposizioni a iso più alti che possono aiutare a comprendere meglio come gestire la scena in post o a riprendere ove non è possibile (Lubesky scelse la Alexa per poter avere un’ora in più di luce naturale per The Revenant).
  • Sul set si possono generare copie identiche del negativo digitale, per ovviare ai rischi di danneggiamento o perdita delle riprese, cosa non possibile con la pellicola

La gamma dinamica della pellicola

Quelli che vedete qui sotto sono range dinamici pubblicati o stimati di pellicola e dispositivi digitali. Naturalmente si parla della capacità migliore di cattura dell’immagine nella situazione migliore, ma se non ci sarà abbastanza luce, se non saranno riempite correttamente le ombre etc, la gamma dinamica si riduce notevolmente.

Tmax 400 film (0.58 CI)                           3.4d    19.5 stops      Pellicola fotografica bianco e nero
Tmax 100 film (0.58 CI)                            3.0d    17 stops         Pellicola fotografica bianco e nero
Tri-X 35mm film (0.58 CI)                       2.4d    13.5 stops      Pellicola fotografica bianco e nero
Tri-X 35mm film (0.75 CI)                       2.4d    10.5 stops      Pellicola fotografica bianco e nero
Kodachrome 25, 64, 200 (1.4 gamma)  3.7d    8 stops            Pellicola fotografica colori
Ektachrome 100 (1.4 gamma)                 3.4d    7.5 stops         Pellicola fotografica colori
KODAK VISION3 500T Color Negative Film 5219 / 7219     14-15 stops pellicola cinematografica
Human eye (no iris change)                    150:1    7 stops
Arriflex Alexa, Alexa 65, Amira                           14 stops
Red Scarlet, Raven, Epic, Weapon                     16,5 stops
BlackMagicDesign Cinema Camera                   14 stop
BlackMagicDesign Cinema Camera 4K             13 stop

Come si può vedere tra la pellicola cinematografica classica e le cineprese digitali di alto (red e arriflex) e basso (digital bolex, kineinfinity e Blackmagic) non ci sono delle differenze reali, ma al contrario siamo esattamente nello stesso range, addirittura diverse red hanno un range ancora più ampio. Questo non significa che il digitale sia meglio della pellicola, ma semplicemente possiamo ottenere gli stessi risultati.

Perchè la ripresa in pellicola sembra sempre migliore del digitale?

ghostbustersse si pongono i due media nella stessa condizione di catturare la stessa luce, queste macchine lavoreranno nello stesso modo e vi daranno la possibilità di catturare la stessa immagine, quello che di solito capita è che la pellicola costa, e nessun dilettante può permettersi di giocare con 16 o 35mm quindi quel tipo di cinepresa lavorerà in situazione professionale con persone che sanno usare, esporre, gestire la pellicola per farla rendere al meglio, mentre il digitale con i suoi teorici automatismi da l’illusione che chiunque noleggi una red per un giorno possa tirar fuori delle immagini cinematografiche, senza curare luce, contrasto, scenografia costumi, trucco etc…

Il digitale rispetto alla pellicola non è uno, ma tanti modi di catturare le informazioni e se non vengono catturate tutte (raw o almeno in log a 10bit) bisogna saperle trattare e gestire per evitare la nascita di difetti, artefatti o castrature varie alle informazioni originali, e questo causa poi cattive recensioni alle macchine e al digitale di per se. Chiunque ha dubbi suggerisco di fare una semplice prova, si compri un rullo di 16mm e affitti una buona arriflex, una coppia di lenti 35-50mm zeiss e faccia una prova di ripresa in basse luci, la faccia sviluppare e vediamo se è la pellicola a fare il miracolo o è la bravura del direttore di fotografia a far catturare tutte le informazioni necessarie.
Diciamo che la visione della ripresa in pellicola è migliore della visione digitale, che forse è la grande differenza in cui si percepisce molto meglio tutto il risultato.
Inoltre la grana della pellicola offre una particolare percezione dell’immagine, che essendo diversa da un fotogramma all’altro non è direttamente percepibile dal cervello, ma ha una struttura organica piacevole che “amalgama” l’immagine, che non è replicabile con la semplice applicazione della grana in post, che spesso è statica o non proporzionale alla luminosità dell’immagine come con la pellicola.

La visione delle immagini Pellicola vs digitale

occhio

è fondamentale fare un chiarimento per il quale pur preferendo girare in digitale preferisco la proiezione in PELLICOLA :
quello che cambia è la percezione delle immagini e non il mezzo con cui le catturiamo a fare la differenza.

parliamo di come il nostro occhio vede il mondo reale :
la luce viene catturata dal nostro occhio, il cervello in micromillesimi di secondo apre e chiude la pupilla dilatando o no l’iride per recepire un maggior numero di informazioni, in pratica quello che Paul Devebec ha inventato negli anni 90 con le fotografie stratificandole per creare una HDR, l’occhio umano lo fa da milioni di anni, perchè l’occhio umano di per se ha la capacità di percepire una gamma dinamica più limitata, ma dato che in microsecondi aggiusta “l’esposizione” passa da circa 7 a 100 stop di gamma dinamica.

Quando un occhio percepisce un’ immagine questa si imprime sulla retina per un periodo X che si chiama persistenza retinica, questo periodo è diverso a seconda delle persone, il valore medio è quello che permette a tutti di vedere 24 fotogrammi al secondo e percepire il movimento corretto e fluido.
Quando si vede una immagine da pellicola il proiettore compie una azione ben precisa :
1/48 mostra l’immagine proiettata sullo schermo, 1/48 chiude il fascio di luce per passare al fotogramma successivo.

Questa alternanza tra luce e buio veloce fa si che l’immagine persistente sulla retina si abbassi come luminosità prima dell’arrivo della successiva, e si fonda con la successiva creando una alternanza più piacevole e quindi il movimento, il cambio d’inquadratura e tutto il resto funzioni meglio. Non a caso il sistema di visione principale della televisione nasce come interlacciato per fondere i fotogrammi tra di loro e dar loro maggior fluidità.

La proiezione digitale comporta invece una alternanza dei fotogrammi senza lo spegnimento tra un frame e l’altro e questo fa si che l’immagine sia si più luminosa, ma mancando questo processo di alternanza della luce le immagini possano più facilmente presentare effetti stroboscopici o problemi negli stacchi. I nuovi proiettori digitali come le nuove cineprese (arriflex) ripresentano il principio dell’otturatore a farfalla che mima questo processo, anche se non necessario come per la pellicola, ma fondamentale per i risultati di visione e percezione corretta delle immagini.

Se si riprende in digitale e si proietta in pellicola si ha la certezza che per quanto possano rovinare la pellicola o sottoalimentare la lampada colori e tutto il resto saranno abbastanza fedeli al progetto originale, mentre oggi come oggi i proiettori digitali potrebbero essere manipolati e ulteriormente mal tarati come luminosità etc da fare più danni alla proiezione, senza contare che chi ha comprato un proiettore digitale con i vari incentivi statali nel 2009 (lancio di Avatar e il 3d) di sicuro oggi non spende soldi per cambiarlo con uno con otturatore a farfalla solo perchè si vede meglio, anzi facilmente sottoalimenterà la lampada, come si faceva con i vecchi proiettori a pellicola, per farla durare di più perchè ha un costo, e tanto la media degli spettatori non se ne accorgono … come non si accorgono di immagini tagliate sopra e sotto perchè proiettate con aspectratio sbagliato, colori sbagliati, audio sfasati e mille altri problemi.

Un tempo si aveva l’idea che creare un DCP (Digital Cinema Package) fosse un modo per creare una immagine del proprio film che tutti avrebbero visto allo stesso modo, purtroppo è vero fino ad un certo punto perchè si deve avere un proiettore tarato al meglio, correttamente tarato per schermo e distanza, lampada alimentata al 100% e schermo in scotchlite o equivalente moderno che restituisca in modo lineare la luce, altrimenti i risultati saranno x e quindi nuovamente avremo dei Delta di differenza sul contrasto, sulla luce, sul colore delle immagini.

Pellicola verso digitale o forse formato contro formato?

personalmente preferisco usare il mezzo che mi piace di più, che mi offre libertà creativa espressiva, quando ho iniziato a fotografare in pellicola più di 35 anni fà (ho iniziato da molto piccolo) ottenevo alcuni risultati, e all’epoca da dilettante credevo a chi mi diceva che per ottenere mezzi migliori si doveva cambiare la macchina fotografica, perchè ci voleva la macchina fotografica professionale, poi a 18 anni mi fu regalata una ottima reflex dai miei genitori, e ci fu un piccolo salto in avanti, ma non ottenevo quello che volevo, eppure avevo la macchina, avevo la pellicola…

con la pellicola, con i suoi costi, ho imparato ad inquadrare meglio, a gestire meglio l’attimo e catturare il momento, ma non ottenevo quello che volevo.
con il digitale, con la sua immediatezza ho imparato a illuminare meglio, a gestire in manuale la camera, e ottenere quello che volevo … scattando in pellicola, perchè all’epoca il digitale era più limitato come gamma dinamica, dettaglio e controllo delle immagini.

da qualche anno il digitale offre le stesse potenzialità della pellicola ma con tanti vantaggi, per cui chiunque voglia lavorare al meglio con il digitale o con la pellicola ha la possibilità di scegliere, sapendo quali sono i vantaggi di uno o dell’altro media.

Naturalmente come nella pellicola ci sono tanti formati a partire dal 8 e super 8 fino al 70mm e imax, anche nel digitale abbiamo formati low end e high end, quindi quando si vorrà fare un confronto, non si deve pensare di confrontare il 35mm cinematografico con la videocamera hd di scarso livello, ma si deve paragonare il materiale di pari livello, altrimenti è inutile.

Comunque per i fautori del digitale vs pellicola, vorrei ricordare che la pellicola per essere di alta qualità e definizione deve lavorare a bassi iso, infatti kodak basa la sua produzione principale su pellicola CINQUANTA iso, se proprio vogliamo spingere nel low light troviamo la splendida VISION3 500T Color Negative Film 5219/7219 della Kodak, una emulsione eccezionale che si può esporre a 500 senza timore di tirar su grana o altro, con una ottima risposta nelle alte luci, con un trattamento che riduce fortemente la presenza di grana visibile, ma che nelle condizioni dove il digitale di solito si spinge molto oltre, richiede luce, tanta luce… cosa che di solito i fautori della pellicola dimenticano, perchè tanta luce non è solo un problema logistico economico, ma anche di gestione a livello pratico, per nascondere le luci, per gestire i movimenti camera etc, quindi appannaggio solo di un certo tipo di film, di genere e budget.

La pellicola NON ESISTE a 12.800 iso… la pellicola cinematografica men che meno, questa è la più sensibile, ma in media si lavora tra i 250 e gli 80 iso, e la si deve trattare bene. Andrew Laszlo (famoso DoP), prese l’abitudine di tirare (forzare nello sviluppo) la pellicola per determinati film, per dare più l’idea di riprese documentaristiche per film come i Guerrieri della Notte, Rambo, I guerrieri della palude silenziosa; scelte fatte a priori, non come oggi che si fa tutto in post, perchè all’epoca non si poteva, o si partiva in un certo modo, o non si otteneva quel risultato.

Ma la pellicola non fa la magia?

kodak s8Di recente Kodak ha deciso di rilanciare la pellicola s8, con una cinepresa con ausilii digitali, per gli amanti del genere.

Sono curioso di vedere i risultati di questo esperimento, Kodak vi aiuta vendendo una cinepresa semi amatoriale con LCD FullHD per vedere le immagini che state per riprendere, farà una scansione della pellicola che farete sviluppare, che vi fornirà con lo sviluppo del prodotto.

Sono curioso di vedere quanti compreranno per 750 $ una cinepresa s8 come quelle che si possono comprare usate a 50$, che registra su una cartuccia di pellicola il video, e l’audio su una scheda SD.

Ogni 3 minuti di ripresa tra acquisto cartuccia, sviluppo e scansione digitale COMPRESSA costa solo 80$. Poi si deve mettere a sinch con audio, perchè la card SD non si manda al laboratorio.

Il tutto per un prodotto che sarà tra sd e hd, perchè anche la scansione non compressa di una pellicola s8 da 50 asa non ha abbastanza linee per superare un buon 1280×720, non esistono fisicamente i dettagli, e dubito che abbiano pensato ad un meccanismo preciso come quello delle cineprese 16 o 35, per cui le oscillazioni della pellicola in scorrimento muoveranno il piano focale rendendo meno nitida l’immagine…

Si, ammetto sarcasmo, ma è scontato… oggi come oggi ha senso prendere una buona cinepresa meccanica 16mm, per le quali ottiche e meccaniche hanno un senso rispetto alla qualità offerta, ma una cinepresa s8 da quasi 1000$ a 80$ ogni 3 minuti la trovo ridicola…
ho fatto una ricerca veloce, una 16mm seria si trova usata tra i 150 e i 300 euro, una giuntatrice pellicola per 30 euro, se si fa una ricerca lavorare in 16mm costa poco meno del doppio ma con una vera qualità…

Uno dei grandi turningpoint della pellicola sta nel fattore di “devo pensare prima di fare”, ovvero dato che costa e le scelte in camera influenzano tutta la catena, si devono prendere delle decisioni, stabilire stile e risultati, il che fornisce sempre una resa migliore che postprodurre all’infinito, ve lo dice uno che di post ne fa e tanta…

porto di santa margherita ligure di notte

Esempio di shooting a 400 iso

Detto questo la mia cinepresa preferita lavora a 400 iso e illumino, e/o uso le luci per ottenere l’atmosfera che mi interessa, e direi che si possono ottenere risultati interessanti e piacevoli, anzi ammetto di avere una certa repulsione per gli eccessi di capacità luminosa perchè si va oltre le immagini naturali.

Comunque a 400 iso si possono catturare comunque immagini interessanti, e se cliccate sulla foto e vedete il file a dimensione originale ci sono tutti i dettagli che servono, e una sottile grana piacevole da vedere in movimento.

chiudiamo con qualche dettaglio sgradevole della pellicola che nessuno vi dice, ma molto inquietante per chi investe energie e denaro sulla pellicola…

  • la pellicola che voi mandate a sviluppare non è garantita, se accade qualcosa durante un bagno, durante lo sviluppo un acido si degrada o altro, vi verrà restituita da contratto una quantità di rulli vergini pari al girato perso, nulla più… anche se vi chiamate Roger deakins e ci avete messo l’anima (motivo per cui è passato di recente al digitale dopo un incidente occorso durante lo shooting del suo ultimo film dei Fratelli Cohen).
  • se durante la ripresa un elemento anche minuscolo graffia o danneggia l’emulsione voi lo saprete solo a sviluppo fatto, se va bene due o tre giorni dopo, se siete Micheal Bay, quindi magari gli attori sono in un altro paese quando vi accorgete di aver perso il vostro unico ciak buono
  • Avete un unico negativo master, da tenere come sacro, da gestire con l’autoblindo, perchè da quello poi ricaverete il materiale per il film, e finchè non verrà digitalizzato (perchè tanto si passa sempre dal digitale, il taglio negativo si è abbandonato da anni e anni) ne avete uno solo, delicato e a rischio.
  • se la pellicola per una qualunque ragione ha preso caldo, freddo, umido, avete una partita andata a male o altro non vi accorgerete di nulla durante le riprese…
  • la pellicola è molto inquinante e smaltirla inquina l’ambiente non poco…

detto questo ho la mia bella scorta di negativi, pellicole, s8, 16mm in scatole a tenuta ermetica, con gel di silicone per proteggerli dall’umido, che ho digitalizzato per poterli rivedere. La mia Nikon 601 analogica è stata mandata in pensione diversi anni fa, anche se ogni tanto viene riesumata giusto per giocare col bianco e nero, ma trovando sempre più limiti nella pellicola, e interessandomi i risultati e non il mezzo con cui li ottengo, ormai è un oggetto da collezione.

 

 


Un pezzo della mia storia sulla qualità visiva.

Abbiamo abbastanza qualità per i nostri progetti?

Dopo aver cambiato tanti mezzi di ripresa sono approdato ad un prodotto che mi permetterà per qualche anno di lavorare tranquillo, anche ad alto livello. La cosa curiosa è proprio che mentre mi sono stabilizzato con questo mezzo, ho letto tutta una serie di articoli relativi ai vari camera’s peeper che nell’attesa della fantomatica nuova macchina, deprecano cosa possono avere per le mani, prodotti ottimi per raccontare una storia.

Esiste un termine in inglese coniato da Stu, Next camera disorder, che rappresenta bene il concetto : non posso lavorare con il mio attuale strumento, perchè quello che sta per uscire è meglio… non devo sprecare tempo ora con la mia camera/reflex/cinepresa, perchè otterrei risultati di qualità non sufficiente.

videoDifettiOggigiorno sembra che la prossima camera che si comprerà sarà sempre migliore, più risoluta [8k], più sensibile [Sony A7 series], Modulare quindi sarà la definitiva [Axiom], più professionale [cinepresa XXX scegliete voi], quindi si procrastina con la storia…

Ammetto che comprendo la perplessità di alcune persone, di fronte a mille offerte e ad un mercato in continua evoluzione, ma non comprendo la pigrizia… Si vogliono macchine sempre più automatiche e perfette, dove fanno tutto loro, e che costino poco poco, ma allora dove sta l’arte e l’abilità nell’usarle se fanno tutte le cineprese/telecamere/macchine fotografiche?
Non a caso si vedono un sacco di immagini patinate, tutte molto simili, con lo stesso movimento di slider, con gli stessi filtri di post, le stesse lut… le fanno le macchine, [mod provocazione On] quindi i creatori diventano intercambiabili e si possono pagare anche poco, tanto uno vale l’altro [mod provocazione Off].

Senza diventare noiosi, la prima camera che ho usato nel 1990 (si comincio ad essere un master) era una vhs spallare, e la risoluzione effettiva era di circa 200 linee, quindi se avessimo acquisito il materiale digitalmente al max della qualità l’effettiva risoluzione (interlacciata) è circa 320×200 pixel, poi l’acquisizione da vhs decente con tbc si può fare in pal, ma non vedreste nessuna differenza di qualità e nitidezza. Il montaggio si eseguiva facendo almeno un paio di copie [degrado analogico forte] durante il montaggio, e quello diventava il master, che poi veniva duplicato per mandarlo ai rari festival che accettavano vhs 25 anni fà… Eppure la gente con il vhs e 8mm (nastro digitale) girava comunque cortometraggi.

un esempio molto interessante è questo cortometraggio che ha lanciato Robert Rodriguez, e che gli ha permesso di essere conosciuto da molte persone, compreso Quentin Tarantino che vide la brutta copia della copia della copia di questo VHS.

Poi passai con un grande salto ad una MiniDv, dove la risoluzione era realmente 720×576 pixel, molto sporchi [sensibilità intorno ai 800 iso tirata max] e contrastati, e interlacciati. Ma comunque questo non ha impedito la realizzazione di storie, da li poi un salto all’HDV progressivo 1440×1080, e il full HD con le tre ccd e poi le mirrorless panasonic. Butto li qualche cifra di pixel pur sapendo che sono termini relativi, nel mio articolo relativo alle risoluzioni ho fatto una disamina più precisa su quale sia la differenza tra la risoluzione apparente e reale, e come il numero di pixel non sia il reale indicatore di qualità di un prodotto.

Con le mirrorless ho ritrovato il piacere di usare obiettivi a fuoco manuale, il controllo manuale e reale dei diaframmi della camera, lavorare con ottiche fisse, ho usato telecamere che avevano solo metà dei diaframmi dichiarati, mentre oltre una certa cifra i diaframmi erano emulati dall’uso di un filtro neutro che toglieva luce, non cambiando la profondità di campo (e spesso introduceva una dominante verde… mannaggia ai progettisti daltonici).

Oggi sono su una macchina che produce dal fullHD registrato con prores Proxy alla qualità più scarsa fino al 4k raw quando si ha bisogno del massimo della qualità e della flessibilità in post produzione, il tutto con qualche vincolo, perchè nascendo come cinema camera nasce è stata pensata per usi di un certo tipo, per persone che sanno come riprendere e postprodurre il materiale in un certo modo, ma è esattamente quello che cercavo, perchè mi offre il controllo che volevo e una qualità di gran lunga oltre quello che mi serve oggi (con la precedente camera ci hanno girato inquadrature di Madmax, diciamo che con questa si può anche fare di più).

Ognuno di noi ha una sua idea della qualità, poi però la pubblicità, le immagini luccicanti delle pubblicità ci possono far cambiare idea.. forse… o forse sono pensate per farci pensare che non abbiamo abbastanza.. una delle basi della cultura moderna del marketing, far credere di non aver abbastanza per far comprare il superfluo, sempre. Ho scritto una riflessione sul 4k oggi, proprio in funzione dell’inutilità di avere il 4k in tv, sui cellulari e sulle camerine amatoriali.

I miti della qualità

ora stacchiamoci dai sentimentalismi e cerchiamo di capire cos’è realmente la qualità, reale o percepita. quando si osserva una immagine noi percepiamo prima la luminosità e poi il colore, tramite la luminosità percepiamo il dettaglio, la profondità e le distanze tra gli elementi, poi il colore ci fornisce informazioni aggiuntive sugli elementi; questo principio non è digitale, ma analogico, perchè sono così che funzionano gli occhi dell’essere umano, coni per il colore e bastoncelli per catturare la luce, questi ultimi essendo più numerosi e attivi per catturare luce e movimento forniscono il vantaggio.

quindi analizzando una immagine in movimento cosa possiamo indicare come qualità?

  • la risoluzione dei dettagli fini, quindi poter vedere ogni elemento possibile.
  • la capacità di fornire dettagli e informazioni sia in ombra che in luce, come fa l’occhio umano che ha una gamma dinamica molto ampia
  • dei colori percebili NON troppo accesi, perchè se troppo accesi alterano la percezione delle sfumature, e comunque l’occhio umano percependo prima la luminosità e poi il colore, in una immagine troppo satura percepirebbe meno dettaglio, quindi la ritiene meno ricca.
  • riproduzione corretta del movimento veloce, quindi non troppo nitido altrimenti diventa stroboscopico, non troppo mosso, altrimenti diventa illeggibile.

beh in teoria questi sono elementi oggettivi per determinare la qualità, ma basta andare in un centro commerciale e vedere come le persone percepiscano come migliore quello che è l’esasperazione di questi elementi, colori accesi tanto da perdere tonalità perchè vanno in solarizzazione, contrasti e maschere di contrasto esasperati per mostrare una “incisione” di dettaglio che non esiste, ma creando una specie di finto basso rilievo danno l’illusione di tale elemento visto da lontano, funzioni infernali che tolgo e aggiungono la sfuocatura di movimento in funzione della follia dell’ingegnere che ha progettato quei circuiti, convinto che il “SUO” gusto visivo sia quello da imporre al resto del mondo, sicuramente nel 90% non disabilitabile, e così via… tanto da trasformare le immagini cinematografiche in specie di telenovelas brasiliane anni 90…

10 tacche di colorequalche dubbio? bene guardate bene questa PNG, dove ci sono tacche a stacchi di 10 toni tra un colore e l’altro e tra una luminosità e l’altra, a seconda del vostro monitor e della calibrazione applicata, appena voi andate a toccare la saturazione perdete i primi toni da sinistra, ovvero dal 30 al 40% delle sfumature colore della vostra immagine.

Stessa cosa vale per la luminosità dove le parti più scure vanno a perdersi.
Poi ci sono quelli che dicono, si va beh quando visualizzo una tabella di colori, di solito ho immagini ricche di colore…

osservate questa immagine, alzando la saturazione perdiamo due cose fondamentali, il dettaglio tra i pistilli, perchè tutte le sfumature minime diventano uguali e quindi si appiattiscono, e il colore vero, perchè in origine il fiore è tra il rosso e il lilla, ma alzando la saturazione, il blu è già al massimo, quindi alzandosi il rosso si perde l’equilibrio originale, trasformando un colore in un altro.
A dimostrazione che sbagliano quelli che dicono che alzando la saturazione, avendo colori più brillanti otteniamo colori più naturali, dato che accade esattamente il contrario.

saturazione

 


LUT cosa sono e a cosa servono.

lut-buddyCosa sono le LUT?

ci sono tanti modi di spiegare una LUT, più tecnico o più pratico, a me interessa spiegare il lato pratico, per il lato tecnico basta una ricerca su Google e trovate mille e più pagine tecniche che vi spiegano cosa sono fino alla formula matematica che le descrive.

Una LUT Look Up Table è praticamente una tabella, un preset che prende i colori di una immagine, di un filmato, e li corregge secondo i valori contenuti nello schema della LUT.
Internamente ci sono tabelle a 1, 2, 3 dimensioni che prendono il valore del colore originale e lo cambiano in un altro valore; le LUT 3D sono quelle più precise, perchè descrivono la trasformazione del colore in modo più dettagliato secondo lo spettro cromatico più esteso, se nella modalità 1D è una tabella valori in cui 1 diventerà 1.22, nella lut 3D cubica abbiamo uno scostamento sui tre assi del colore e quindi avendo una descrizione più dettagliata, sarà più precisa la correzione che la LUT andrà ad applicare.

A cosa servono le LUT?

Le LUT servono a tre scopi diversi, a seconda di quando si applicano tali correzioni.

LUT da set/Monitor : girando con camere che lavorano girando il log o in raw, il materiale se rivisto direttamente sarebbe strano, desaturato, piatto come contrasti, quindi spesso si usano monitor che al volo applicano una LUT per mostrare il materiale secondo una visione più “tradizionale” ad esempio il rec709 che è lo standard video.

LUT di sviluppo : sia sul set che magari dopo, si creano delle LUT per fissare un certo tipo di correzione dell’immagine originale per fissare l’estetica dello shot che viene fatto, in modo che il Direttore di fotografia possa al momento verificare l’effetto generale della ripresa fatta, che dare delle indicazioni in modo che chi si occuperà della fase color grading abbia una indicazione precisa di cosa il Direttore di Fotografia intendeva catturare sul set.

LUT di Postproduzione : si carica o si crea una tabella di correzione per dare un particolare look alle immagini partendo da LUT che simulano il tipo di risultato che si avrebbe in “determinate condizioni” ad esempio le Lut che simulano i diversi tipi di pellicola emulano come i colori e i contrasti si altererebbero in funzione della stampa su quel tipo di pellicola.

per far soldi … vendendo dei preset che forse potranno funzionare, su alcune immagini…

Perchè non funziona la LUT che sto applicando?

La spiegazione è molto semplice, la LUT funziona sempre, è l’immagine a cui la diamo in pasto che non è adatta.
Contrariamente a quello che pensano in molti, le LUT nascono come preset di correzione del colore, sviluppate su immagini di tipo X, quindi le LUT vi forniranno quel tipo di risultato SOLO se voi le applicherete ad immagini con lo stesso tipo di contrasto e densità di colore, altrimenti i risultati possono essere di ogni tipo. Le LUT sono SOLO delle tabelle di allocazione del colore, ma non possono essere senzienti, ovvero non sanno quale sarà il risultato finale, solo di quanto cambiare il tutto.

Come faccio a far funzionare una LUT?

domanda semplice, risposta molto semplice, olio di gomito, si deve alterare l’immagine sorgente PRIMA di applicare la lut in modo che sia il più simile possibile all’immagine originale usata per creare la lut, questo farà si che il risultato finale sarà il più vicino possibile a quello che ci si aspetta dall’immagine dimostrativa della LUT.

Perchè una immagine NON vale l’altra quando applico le LUT?

se una immagine ha un contrasto alto o basso, la LUT scosterà i colori in modo diverso.

qui potete vedere un esempio di come una immagine LOG o in modalità video rec 709 per la una LUT Kodachrome siano sbagliate, e quindi da una delle due ho dovuto creare una immagine ad hoc per poter ottenere un risultato più naturale da quella LUT.

completoIl file Log non è abbastanza flat, il file rec 709 è troppo contrastato e troppo saturo, mentre per far funzionare correttamente la lut ho dovuto decontrastare il log, ma saturarlo un po’ di più dell’originale. Quindi diventa evidente che quando si usa una LUT più “aggressiva” di un semplice sviluppo delicato, spesso è necessario mettere in mezzo un livello di correzione per far funzionare la lut nel modo corretto, lavorando sul contrasto e sul colore, perchè spesso la tabella è troppo forte o poco forte.

La Lut deve essere pensata più da un punto di partenza, che un punto di arrivo, per cui può essere interessante per la manipolazione delle immagini, ma non la si deve pensare come una bacchetta magica, non trasforma in pellicola le immagini che gli date in pasto alle Lut, ma aiutano lo sviluppo delle immagini per arrivare ad un determinato risultato.

La free Lut per simulare la cara e vecchia Kodachrome è un dono fatto dal cinematographer Frank Glencairn, la potete trovare sul suo blog in questo interessante Articolo sullo sviluppo del colore in stile kodachrome.

Come le lavoro le immagini prima delle LUT?

con qualunque strumento che vi permetta di vedere in realtime le applicazioni di Lut e correzione colore in contemporanea, ad esempio lo strumento LUMETRI di premiere dalla CC2015 in poi, che contiene la possibilità di caricare le LUT in due punti diversi, sia per lo sviluppo base e poi per lo sviluppo creativo, e la cosa interessante è che nello sviluppo creativo i programmatori di Adobe hanno introdotto controlli di regolazione colore come lo “sbiadito” e vividezza; sbiadito è la traduzione un po’ grossolana di bleach pass, il candeggiante, che aiuta l’applicazione delle LUT rendendo più “flat” piatta l’immagine riducendo contemporaneamente sia la saturazione che il contrasto; la vividezza è uno strumento che aumenta il colore inversamente al valore della saturazione degli elementi, oppure toglie colore in modo direttamente proporzionale alla quantità di saturazione degli elementi, molto utile per uniformare i valori di saturazione dell’immagine, riducendo gli eccessi e i contrasti di saturazione che complicano l’applicazione delle LUT e tutte le altre lavorazioni di correzione colore.

Su photoshop ad esempio le LUT si applicano come livello di regolazione, per cui possiamo inserire prima del livello di LUT due livelli di regolazione di valori tonali e vividezza e controlliamo agilmente l’immagine vedendo anche quanto la LUT la cambia e “dosiamo” l’intervento della lut stessa.

Posso applicare le LUT ad ogni tipo di immagine?

Le lut nascono per lavorare al meglio su immagini flat che nascono da file log o raw, per cui applicandole su immagini morbide e poco sature le LUT possono agire bene, e possono funzionare di più al secondo colpo.

Perchè dico al secondo colpo? Perchè log non è uno standard, se prendiamo un file log di una red, di una blackmagic, di una alexa, di una dbolex avremo tanti log diversi, diverse saturazioni e diversi contrasti. Log è un file in cui il colore e il contrasto invece di essere registrati in modo lineare sono registrati in modo logaritmico per gestire meglio e più latitudine di posa e informazioni, ma ogni azienda ha il suo modo di gestire e catturare le informazioni log.

Ad esempio logC Alexa e log blackmagic sono molto simili, Alexa tiene la saturazione più alta, Blackmagic più bassa, ma il contrasto di luminosità è invertito, quindi la LUT sviluppata sulle immagini di una non va bene su quelle dell’altra e viceversa.
Entrambe le camere registrano un log 10bit in .mov e un 12bit log raw, partendo da un sensore 16bit, ma la curva di gestione è differente.
Potete trovare qui alcune indicazioni della curva di log della Alexa.
Questo significa che anche salendo su camere più professionali non esiste un modo standard di creare le immagini e catturarle allo stesso modo. Se una Lut potesse magicamente equilibrare le immagini e dare l’aspetto X indipendentemente dalla sorgente, probabilmente sarebbe superfluo avere sia sul set che in post diversi ruoli e diverse professionalità, ma nonostante i tentativi di filtri, sistemi di allineamento colore in post, uso di tabelle come il target gretag e simili, i sistemi di correzione colore automatici al massimo posso aiutare a “normalizzare” ovvero uniformare le immagini tra di loro, ma di certo non a creare la magia, per quella servono sempre gli esseri umani.

Un altro esempio di come una camera non possa lavorare in modo lineare è dato dal fatto che a seconda della lente che poniamo davanti, dell’iso impostato, anche lavorando con le stesse condizioni cambierà il contrasto di luce, e quindi anche poi la saturazione. Quindi anche usando la stessa camera, e girando in raw, dove non avvengono elaborazioni, ma si cattura esattamente ciò che il sensore legge, basta aprire o chiudere i diaframmi della lente fissa, che cambiando il contrasto una lut usata a TA (tutta apertura) sarà inutilizzabile a 11 di diaframma perchè l’immagine andrà “massaggiata” prima di essere sottoposta alla lut.


4k la vecchia frontiera del nuovo, in attesa dei televisori 8k che non potremo vedere

Pur essendo un fautore del 4k per la ripresa, perchè offre molto materiale su cui lavorare, tanti vantaggi in ogni operazione di manipolazione del materiale, sono convinto che sia l’ennesima bufala del 21 secolo per vendere il nuovo televisore, i nuovi vecchi contenuti.

Perchè il 4k è inutile nei televisori, nei cellulari, nelle telecamere amatoriali?

senza parlare del fatto che se non viene usato per la postproduzione è uno spreco di risorse cpu del dispositivo di cattura, spazio di memoria occupato, surriscaldamento del dispositivo, il 4k su un dispositivo al di sotto di determinate dimensioni è uno spreco inutile. L’acutezza visiva di un essere umano medio è tale da percepire circa 1/10 mm a circa 50cm di distanza, considerato che un pannello 4k di dimensioni medio è una densità di 110 ppi, ovvero su un 40 pollici si parla di 4 punti per mm quadro, peccato che un 40 pollici si guarderà da almeno 150 cm dove la capacità risolutiva è scesa in media a 2-3mm, quindi ci sono ben dieci volte le informazioni percebili da un essere umano medio…

questo calcolo è valido esclusivamente se noi abbiamo una fonte 4k pura, perchè se su quel televisore vediamo un filmato 4k da streaming, youtube 4k, cellulare o altri elementi in realtà non avremo tutte quelle informazioni, perchè il pannello offre quella definizione, ma i dati trasmessi non li hanno, per cui il televisore sarà completamente inutile….

quindi perchè comprare un televisore 4k oggi?

Facciamo una analisi molte semplice e rapida dei pro e dei contro :

Pro:

  1. è una grande cornice digitale ad alta risoluzione per le vostre fotografie
  2. se ho una vera cinepresa digitale 4k posso vedere le immagini nel loro reale splendore, se sto molto vicino al 40 pollici che ho comprato.

Contro:

  1. non ci sono ancora contenuti veri in 4k con cui sfruttare una tv 4k
  2. lo standard bluray 4k è ancora teorico, ma non esistono bluray 4k in commercio
  3. non esistono ancora film girati completamente in 4k, quindi comunque si vedrebbero filmati “gonfiati” e non nativi 4k
  4. lo streming 4k in realtà offre meno di 2,7 k di risoluzione effettiva, il resto nasce per interpolazione quindi nuovamente inutile.
  5. la trasmissione 4k è teoria, in realtà ad oggi sono pochi i canali in FullHD (1920 x 1080), la maggior parte al max sono hd (1280×720).
  6. i televisori 4k non hanno decoder digitali per ricevere segnali 4k perchè non sono ancora stati definiti standard di trasmissione 4k, quindi al momento in cui esisteranno i canali 4k il nostro televisore sarà già obsoleto e non in grado di mostrare i filmati alla risoluzione 4k.
  7. la lettura di filmati FullHd offre una visione sfuocata dei contenuti (perchè gonfiata 4 volte) oppure troppo incisa perchè per mascherare l’immagine morbida viene processata mangiando in realtà diversi livelli di dettaglio durante le operazioni crude di sharpening. Quindi per vedere un bluray è un pessimo veicolo.
  8. costerà molto di più di un equivalente fullHD di qualità, non offrendo ad oggi la possibilità di vedere immagini realmente differenti.
  9. nel visualizzare immagini amatoriali 4k da cellulari, telecamere etc non è detto che esse abbiano sufficiente dettaglio per mostrare immagini di qualità per sfruttare la matrice 4k
  10. per percepire la reale differenza tra un tv 4k e un tv Fhd si deve andare dai 50 pollici in su, che però si dovranno vedere più da lontano e quindi si torna all’assurto iniziale, inutile per la maggior parte delle persone che non hanno la capacità visiva di apprezzarne il dettaglio a livello fisiologico.

perchè il 4k al cinema non serve?

la proiezione 4k è una piccola truffa, perchè in realtà la maggior parte dei film viene girata con cineprese digitali in 2k, come le alexa, per cui il fatto che venga poi proiettato in 4k non da nessun vantaggio di fatto, anzi, è un inutile flettere i muscoli di tutto il sistema, perchè richiederà 4 volte lo spazio originale del 2k, risorse maggiori per il play e la gestione dei contenuti senza dare un reale vantaggio.

Ma veramente non si vede la differenza?

Nolan si vantava di aver girato in Imax (formato in altissima definizione pellicola) l’ultimo cavaliere oscuro e Interstellar, e un sacco di gente ha detto di aver notato la differenza..
Sarei curioso di chiedere a quella stessa gente se mi sa indicare in quali inquadrature ha notato la differenza, perchè nessuno dei due è girato completamente in Imax, troppo costoso, troppo grandi e scomode le cineprese, etc etc… per cui sono state alternate le riprese di s35 tradizionali a quelle di imax (prettamente degli esterni dove era più semplice gestire macchine da presa più ingombranti)… soprattutto visto che queste pellicole nella maggior parte delle situazioni sono state viste in sale digitali su proiettori 2k, quindi dove tutto era appiattito e spostato verso il basso.

Altro punto a favore per l’impasto generale è dato dal fatto che molti film subendo digitalmente una postproduzione molto pesante, anche solo a livello di editing e color correction, non si è poi in grado di distinguere nelle riprese brevi fatte da dslr, go pro, telecamere, da cineprese professionali. Il tutto grazie al fatto che vengono utilizzate nella situazione migliore per estrapolare al meglio la qualità visiva dai diversi sensori facendole lavorare al meglio delle loro possibilità.

quindi per il 4k è presto?

beh si riprende in 4k per il futuro, perchè si estrae un 2k e un fullHD di altissima qualità, ma usare direttamente il 4k a livello domestico è uno spreco, perchè non è percepibile direttamente dall’occhio nella maggior parte delle situazioni domestiche.

perchè allora proliferano i televisori in 4k e tutte le periferiche 4k?

qualcosa vi devono vendere, o no?
Nel marketing si sono sempre usati i numeri per dare una percezione tangibile di un valore, anche se qui numeri non avevano reale connessione col valore del prodotto.

ad esempio, i masterizzatori sono partiti col 2x dei cd, fino ad arrivare a x52 dei dvd, ma nessuno vi dice che i supporti x52 non esistono, perchè la masterizzazione è un bilanciamento tra velocità di scrittura e numero di errori introdotti, a seconda della qualità del supporto la velocità viene dosata per introdurre un numero minimo di errori di scrittura, per permettere la lettura dei dati e grazie ad un sistema di correzione dell’errore poter risalire ai dati originali. Il concetto della correzione dell’errore di lettura era nato in origine per compensare i difetti di fabbricazione, e/o di graffi o i danni al supporto, nel tempo questo sistema è diventato un metodo per accelerare la scrittura sui supporti basandosi sul fatto che alla fine si riesce lo stesso a leggere i dati.

Il problema dove sta? nel fatto che se si porta un supporto al limite della leggibilità perchè lo vogliamo masterizzare a x52 invece che a x8, basta una leggera usura a rendere illeggibili i dati scritti. Non solo, la scrittura lenta applica in modo diverso il laser di scrittura e introducendo meno errori rende il supporto più resistente anche a usura più forte, esposizione a uv, deformazione del supporto scrivibile,  etc.
Il che fa pensare su come in modo superficiale si scrivano dati su un supporto, senza aver avuto nozioni di come farlo e come conservarlo.. auguri ai masterizzatori da formula 1, forse dopo 3-4 mesi potranno ancora rileggere qualcosa dai loro supporti.

un altro esempio, i megapixel delle fotocamere:

da sempre sembra che i megapixel siano indice di qualità, ma se si schiacciano su un sensore da 1/4 di pollice 40 megapixel, non si può pensare di avere la stessa pulizia e luce di 12 megapixel su un sensore fullframe, perchè la luce catturata da ogni recettore è maggiore. In realtà non sono solo i megapixel ma anche la capacità degli stessi di catturare informazioni, la superficie coperta che offrono la qualità effettiva dell’immagine catturata, ma il concetto è troppo complicato, quindi per la massa + megapixel = + qualità.

ricordo ancora quando regalai a mia sorella una compatta da tre megapixel, in un mondo in cui ne erano già uscite diverse da 5-6 megapixel, ma le fotografie e il dettaglio di quelle fotografie era inarrivabile dalle equivalenti come fascia di prezzo, perchè alcune interpolavano, altre avevano si più recettori ma meno sensibili etc etc.

oggi una gara nelle fotocamere e telecamere è la sensibilità (in realtà anche 25 anni fa, visto che si parla anche allora di riprendere con una candela).
Se non si riprende al buio, e non parlo di luce naturale, ma di buio, allora la camera non è degna di nota… quindi una red e una alexa, cineprese digitali con cui fanno i film che hanno una sensibilità nativa di soli 800 iso sono delle scamorze…

Perchè è già tardi comprare un televisore 4k?

diciamo che la mia è una affermazione provocatoria, ma non troppo…
perchè i giapponesi stanno già sperimentando le trasmissioni in 8k, per cui perchè comprare un prodotto superato, tanto vale passare direttamente all’8k 😀

battute a parte, i giapponesi sono sempre stati all’avanguardia con la sperimentazione, ricordo il primo sistema di fullHD ripresa e visione visto di persona al SIM audio Hifi a milano nel 1992, una sperimentazione congiunta tra RAI e un colosso giapponese Ikegami, ironicamente avevo ripreso tali immagini con la mia potentissima vhs a 200 linee e mi sembrava così lontana come qualità e potenza.

ben prima di questi pioneri già nel 1986 Francis Ford Coppola, prodotto da George Lucas, realizzava uno speciale video clip in 4D (3d più quello che oggi si chiama augmented reality) usando telecamere HD sperimentali con protagonista il grande Michael Jackson in Captain EO.
Questo per far presente come se l’HD era già presente come tecnologia nel 1986, oggi dopo quasi 30 anni, ancora non è lo standard televisivo, quindi valutiamo bene quanto il 4k possa penetrare dentro le nostre case in un paio di anni.
Soprattutto si deve riflettere sul fatto che 4k non vuol dire solo cambiare i sistemi di ricezione, poco costosi, ma cambiare tutti i sistemi di messa in onda e trasmissione, e per le televisioni sarebbe un investimento mostruoso, che dubito faranno così velocemente, visto che molte sono ancora alla Standard definition.


Miracoli digitali

Quando si riprende con una telecamera normale (amatoriale), una dslr o un altro mezzo low cost il filmato viene catturato con una qualità discreta, pensato per essere visto ed editato così com’è, quindi per ottimizzare la qualità e lo spazio occupato in memoria viene eseguito un subsampling del colore, per dover registrare meno informazioni colore.

850px-Chroma_subsampling_ratios.svg

 

 

 

 

 

quindi un classico video ha un colore registrato con un campionamento 4:2:0, questo vuol dire che una volta decodificato in RGB il canale del rosso avrà molte meno informazioni rispetto agli altri colori; in una situazione normale non causerà particolari problemi e la maggior parte delle persone non vedrà il problema, ma …

durante la postproduzione, saturando i colori, viene fuori il problema causando un aumento del problema del blocking, ovvero la visualizzazione dei blocchi di compressione del codec, come potete vedere nell’immagine sottostante.

why red is a bad color for filmakerCi sono colori basati sul canale del rosso che possono dare problemi evidenti, come vedete nell’immagine, rovinando una ripresa.
Alle volte, e sottolineo alle volte, è possibile salvare queste immagini convertendole nel modo più appropriato, usando utility che fanno un upsampling del canale del rosso, in modo da ridurre quegli effetti di blocking.

Esistono diversi strumenti che agiscono su questi canali per ridurre i difetti, a secondo degli strumenti che usate potete far affidamento su diverse soluzioni :

  • Dentro la RedGiant Shooter Suite lo strumento Deartifacter
  • L’utility stand alone di conversione 5D2RGB che converte in Prores 4:2:2 i file 4:2:0
  • Il vecchio programma HD LINK della suite Cineform Pro e Premium (non più disponibile grazie a GoPro che ha eliminato la suite).

personalmente consiglio la suite RedGiant perchè si hanno più elementi di controllo, oltre che tanti strumenti utili per ogni filmaker.


Pagina 10 di 12

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!