Tutto è possibile

Categoria: I miti da sfatare Pagina 8 di 12

In questa categoria raccolgo una serie di miti tecnici da sfatare, troppo spesso tra i passaparola, tra il copia e incolla on line, e colpevole il Web 2.0, sono nati e si sono radicati tanti miti “tecnici” per i quali non esistono rimedi, tranne che la logica e il pragmatismo nell’affrontare queste bufale…

BlackMagic VideoAssist 4k, un recorder, un monitor o cosa?

Blackmagic Design è una azienda molto strana, ha idee interessanti, ma impiega tempo a svilupparle correttamente, spesso passando attraverso prodotti che molti chiamano polemicamente beta, perchè non sono perfetti alla loro uscita, e purtroppo costano troppo poco per NON finire nelle mani di chi non apprezza ciò che può ottenere da certi prodotti.

Questa introduzione perchè ricordo bene la RedOne che surriscaldandosi durante le riprese si bloccava sul più bello, o la prima versione della Alexa che registrava solo in prores fullHD, senza audio perchè pur avendo gli ingressi audio il firmware non prevedeva nessuna opzione di registrazione audio interna, nè era pensabile di registrare in raw o in 2k, pur avendo un sensore che lo permetteva…

e mi fermo su nomi blasonati come questi, perchè altrimenti l’elenco sarebbe infinito, ma questo tipo di prodotti sono sempre stati abbastanza costosi da finire in mano a professionisti, che invece di fissarsi sui piccoli difetti di gioventù dell’hardware ne usavano tutti i pregi di questi splendidi prodotti.

Blackmagic Design ha prodotto hardware professionale a prezzo consumer, e come tale ha pagato il prezzo di finire in mano a gente che si lamenta di funzioni mancanti, quando non hanno neanche letto le 14 pagine del manuale base, dove sono indicate le funzioni che cercano… ma preferiscono scrivere e perdere giorni su forum facebook etc a lamentarsi della mancanza di funzioni presenti… Persone pronte a lamentarsi del mancato funzionamento di questa scheda o dell’altra, quando sia sul sito che sul manuale è specificato che per funzionare è necessario un determinato chipset o un determinato hardware a cui collegare tali prodotti…

La mia scelta di Blackmagic è fatta per la stessa ragione di tante altre persone, posso permettermi di acquistare questo tipo di prodotti e non la fascia superiore, conoscendo limiti e potenziale di tali prodotti. Spesso si scopre come un produttore intelligente come Blackmagic Design possa offrire dei prodotti a costi molto popolari, alle volte con qualche limite, ma sicuramente meglio di tanti altri.

Si deve fare una scelta, tra pro e contro di cosa si può comprare o no.

Di recente ho avuto modo di mettere mano su un prodotto molto chiaccherato, il VideoAssist 4k, parliamo di un recorder UltraHd in prores e dnxHD/HR con monitor FullHD da 7 pollici, con una ricca dotazione software per gestire le diverse situazioni in cui diventa molto importante avere un monitor di qualità e un recorder video.

Pur non essendo perfetto non esiste concorrenza a questo prodotto al di sotto dei 1000 euro che permetta :

  • registrazione in 4k prores e/o dnxhr o fullHD su doppia scheda
  • monitor fullHD di buona qualità per fuochi con focus assist
  • ingressi e uscite sia SDI che HDMI con conversioni attive

Avendolo usato per diversi giorni nelle riprese di un documentario posso dare un parere più che positivo per il prodotto che è, pur avendolo usato prettamente come monitor per il fuoco e controlli varii di esposizione e immagine, pur non avendo in quel momento le ultime features aggiunte con l’ultimo update firmware, ovvero le lut di preview e i falsi colori per il controllo dell’esposizione.

Usando spesso diversi tipi di monitor devo dire che mi sono trovato più che bene, ha fatto il suo lavoro e ho scoperto delle interessanti funzionalità che spesso non sono messe in risalto.

Con l’ingresso SDI da una camera è possibile comandare via remoto la registrazione, per cui usare la camera master come trigger di registrazione tramite l’sdi e quindi avere sia una copia del girato con sincrono del time code (se la camera lo manda via sdi), sia creare dei proxy o dei filmati da usare come giornalieri per la visione del materiale senza richiedere conversioni e/o sviluppi dal raw girato in camera. Ad esempio dalla Bmpc4k è possibile via sdi creare una copia proxy dei girati sincronizzati sul VA4K, e quindi avere un girato raw e immediatamente dei proxy su cui lavorare in prores o mxf per avid.

Anche da HDMI se si fornisce un timecode running, provato con la Lumix GH5, è possibile utilizzare il trigger per registrare il segnale 4:2:2 10bit non compresso della camera in uno dei formati prores o dnxhr del videoassist, il tutto in automatico per avere una maggior qualità generale oppure per avere un rapido backup della camera.

Il Videoassist 4k viene alimentato da due batterie LP-E6 (standard di molti monitor) ma anche da un ingresso 12v, e fin qui nulla di nuovo, ma molti non sanno che quando si collega l’alimentazione esterna il sistema ricarica le due batterie in contemporanea anche se il prodotto è in uso, il che significa che possiamo sia caricare le due batterie senza mai scollegarle dal monitor, sia usarle come batterie temporanee quando lavoriamo lontano da camera (nel caso sia montata su un jib), e poi ricollegare il tutto e muoversi solo con le batterie del monitor e della camera nel caso si abbia bisogno di essere più leggeri in situazioni di ripresa particolari. Con il prodotto spento con il suo alimentatore connesso è in grado di ricaricare entrambe le batterie in circa 70 minuti, per cui lavorando o con due coppie di batterie o collegandolo alla batteria della camera si può avere una autonomia continua senza problemi particolari.

Utilizzando le Lut possiamo previsualizzare diversi tipi di visualizzazione delle immagini, sia gestire una preview nel caso si voglia girare per una color particolare o in bianco e nero e avere una percezione migliore di ciò che potremo estrapolare nella finalizzazione del prodotto.

Miti e leggende

Ha un consumo esagerato delle batterie …

con 2 batterie da 1300 mhA  in registrazione, in semplice monitoriale, con o senza lut applicate ha una autonomia tra i 60 e i 70 minuti di attività continua.

Considerata la dimensione esigua delle batterie e la dimensione e la luminosità del monitor (7 pollici) è un piccolo miracolo, se volete maggiori autonomie ci sono anche LP-E6 da 2000 mha oppure batterie più serie a cui collegarlo andando avanti ore. Usandolo con la 12v della mia g-mount non mi accorgo del problema della durata delle batterie, e chi si fa il problema, sicuramente ha preso il prodotto sbagliato, perchè se si spendono 1000 euro di monitor / recorder non si può lesinare su batterie da 30 euro la coppia (Patona) per un ora di lavoro.

Ha una dominante verde nell’immagine

verissimo, però non giudico un professionista chiunque usi i colori di un monitor e non degli strumenti tecnici per analizzare esposizione e colore.

Comunque lo trovo un problema relativo, ho sviluppato in pochi minuti una lut che annulla in modo più che soddisfacente tale dominante, che vale sia per la versione da 5 che da 7 pollici, come si può vedere nell’immagine a lato.

Certamente se ci fossero i controlli di temperatura e tinta all’interno del monitor forse, e sottolineo forse il problema sarebbe facilmente annullato, ma è anche vero che ricalibrare un monitor su temperatura e tinta se non si usano strumenti e target adeguati è comunque un’operazione molto effimera, per cui probabilmente usare una lut comporta anche adeguarsi ad un certo livello di qualità e preparazione tecnica sulla gestione del colore.

Ha difficoltà con i flussi PsF

e chi non ne avrebbe… battute a parte, quando si manda un flusso progressivo in uno streaming interlacciato i problemi nascono a non finire in ogni tipo di apparecchiatura. Questo problema nasce sulle apparecchiature prosumer dove per poter vedere correttamente su ogni televisore il girato progressivo viene incapsulato in un flusso interlacciato per essere sempre compatibile, questo mette in crisi l’ingresso di molti dispositivi, VA compreso. Altri recorder equivalenti MOLTO più costosi come gli Atomos prevedono di gestire anche i flussi psf, ma oggi se uso una camera che mi butta fuori un flusso del genere dovrei esserne cosciente, quindi non compro il video assist.

Con le video reflex ha problemi a leggere il segnale

mah… diciamo che se un prodotto esce con un segnale standard, lui può registrare e visualizzare le immagini correttamente, per test è stato collegato a diverse dslr panasonic e sony con ottimi risultati, con canon 7dmkII (ufficialmente una delle poche con uscita video pulita fornita da canon), diverse canon dslr con magic lantern per abilitare una uscita hdmi pulita, non castrate dal firmware originale, e non ci sono stati problemi di registrazione, anzi…
mi sono divertito a collegare anche l’uscita di una HV30, vecchia HDV canon, che ha potuto esprimere tutto il suo sensore fullHD castrato all’epoca da registrazione HDV a basso bitrate. In generale se si offre un segnale non protetto da una sorgente compatibile agli standard indicati sul manuale pdf e sulle specifiche del prodotto, va tutto bene.

Non va bene con tutti i cavi SDI

mah… diciamo il contrario, forse parliamo di usare cavi non adeguati… per quanto riguarda i segnali FullHD ho gestito tranquillamente il VA con SDI di bassissimo costo e cavi coassiali da computer da 10m senza difetti o sganci, se si parla di segnale in 4k allora è il cavo a fare la differenza, perchè il cavo non di qualità è l’elemento castrante, non il video assist a non essere compatibile.
Il fatto che SDI utilizzi un tipo di connettore usato anche in altri ambiti, con una forma storica e forse ricorda prodotti antichi, non significa che i cavi, le impedenze etc non siano stati aggiornati per supportare flussi dati più importanti come quelli del 4k. Si torna al discorso iniziale, se si lavora con un prodotto di un certo livello anche batterie, cavi, cablaggi etc devono essere in linea altrimenti si rompe la catena della qualità.

Insomma per concludere prima di una breve carrellata tecnica, prodotto promosso oggi a pieni voti, per la fascia di prezzo offre features e qualità inarrivabili.

Specifiche tecniche :

  • Ingresso e uscite video SDI
  • Ingresso e uscite video HDMI
  • MiniXLR per ingressi audio bilanciati di alta qualità
  • Alimentazione sia tramite due batterie standard Canon LP-E6 oppure 12v da alimentazione esterna
  • Doppia SD ad alta velocità per la scrittura continua di file audio video
  • Registrazione ProRes e DnXhd/hr in vari container.
  • Touchscreen FullHD con zoom centrale per il fuoco
  • Porta Usb per upgrade firmware e caricamento lut.

 

Specifiche Software del VideoAssist

  • Strumenti di analisi video
    • istogramma del segnale entrante
    • zebra per esposizione
    • vettorscopio e waveform con zoom
    • focus assist a tre colori e più livelli
  • Guide di diverso tipo per gestire il framing e l’inquadratura
  • Supporto di Lut di preview (6 slot di 6 differenti lut)
  • Falsi colori per verificare l’esposizione

Pro e contro del prodotto

Contro

  • leggera dominante verde del monitor, che naturalmente non viene registrata, prontamente neutralizzabile con una semplice Lut
  • con una coppia di batterie EP-L6 (marca Patona 1300mha) abbiamo una autonomia di circa 64 minuti di registrazione continua, o monitoraggio continuo, quindi se si lavora a batteria è importante farsi una piccola scorta di batterie o usare una batteria esterna, personalmente lo alimento con la batteria della camera, una 170W quindi il problema di alimentazione non sussiste.
  • ha un certo peso (avendo un corpo in metallo per dissipare la temperatura)
  • non ha di serie un paraluce, per cui si deve ovviare con prodotti di terze parti

Pro

  • Ottimo Monitor SDI FullHD al prezzo di un monitor Hdmi
  • Recorder UltraHd in vari formari e codec a 10bit con codifica 4:2:2
  • Zoom centrale su segnale 4k, quindi zoom 1:1 ottimo per il fuoco su situazioni complesse
  • Focus Assist con peaking a diversi livelli e di diversi colori per coprire ogni tipo di situazione
  • 6 slot per Lut di preview
  • False Color per controllare l’esposizione delle immagini.
  • Capacità di ricarica delle batterie durante l’uso del prodotto o da spento

E per concludere… un piccolo regalo per tutti gli utenti del video assist e video assist 4K, un lut pack molto utile 😀

LutsPackv01

Qui dentro troverete diverse lut per :

– iso standard semplice lut di correzione colore eliminando la dominante verde
– 1600 emulazione di una immagine a 1600 iso dall’originale 400 iso per aiutare la messa a fuoco nelle riprese lowlight
– 3200 emulazione di una immagine a 3200 iso dall’originale 400 iso per aiutare la messa a fuoco nelle riprese lowlight
– 6400 emulazione di una immagine a 6400 iso dall’originale 400 iso per aiutare la messa a fuoco nelle riprese lowlight
– BN una simulazione dell’immagine in bianco e nero con una elaborazione ricca delle tonalità.

Le emulazioni sono state realizzate fotografando le stesse immagini e tabelle gretag con una BmPc4k e una Sony A7r, ed elaborando i raw tramite Resolve per ottenere lo stesso tipo di tonalità e luminosità delle immagine della Camera bmd come la Sony.


Zuppa di codec 2, facciamo un consommè

tape-soup-capone-3

Oggi posso non installare quasi nessun codec nel sistema

Fino a qualche anno fa i codec erano la dannazione di tutti coloro che lavoravano nel video e non solo, nel senso che anche chi vedeva film, scaricava dalla rete in modo più o meno lecito, era costretto a scaricare e installare codec di ogni tipo, il che spesso minava la stabilità del sistema e rendeva sempre complesso ogni passaggio, anche il più banale.

Il divx, xvid, mp4 nelle sue incarnazioni più esoteriche hanno fatto venire gli incubi a più di un encoder, senza contare spesso la caduta di qualità o lo spazio occupato inutilmente quando non si sapeva settare correttamente gli encoder.

Oggi per fortuna molti codec sono andati a morire, sostituiti dalla standardizzazione degli stessi, per cui la maggior parte dei file video che sono visti, ripresi e registrati con lo standard H264 (derivato dall’mp4) racchiusi in diversi contenitori a seconda delle scelte di chi fa l’encoding :

  • mp4 (il più standard)
  • mkv
  • m4v
  • avi
  • mov
  • mts

Tutte queste estensioni possono indicare lo stesso contenuto, ma con una scatola differente, che dentro i computer non fa grandi differenze, mentre nel momento in cui li inseriamo in lettori multimediali, televisori, lettori bluray, decoder satellitari.

Se abbiamo un computer nuovo, o abbiamo appena installato un nuovo sistema operativo pulito, spesso si tende a installare tutti i codec che pensiamo siano utili, oggi come oggi, anche e soprattutto se si fa montaggio video, è importante NON installare quasi nulla sul sistema, mantenere pulita la installazione e usare i programmi con le loro capacità di decodifica interna dei codec.

 

Devo montare dei File xxx come faccio senza installare i codec xxx ?

I moderni software di montaggio video posseggono al loro interno i codec indispensabili per la lettura dei codec h264, mpeg, etc quindi se nel sistema si inseriscono decoder differenti e magari non ottimizzati invece di semplificare il lavoro lo possono complicare o creare difetti visivi o di performance.

Adobe, Blackmagic, Apple, Avid, GrassValley hanno introdotto internamente i codec professionali per gestire filmati nei formati Prores, DnxHD/HR, CIneform, H264, H265, Mpeg2 classico e LongGop, Dv/DvCam, P2, quindi coprendo praticamente ogni tipo di camera professionale e non prodotta negli ultimi 15 anni. Non solo, spesso alcune camere con varianti di codec che per essere viste correttamente nel sistema richiedono installazioni di codec, sono già supportate dal software di editing nel modo corretto.

 

Ma per vedere i file nel sistema, finder o gestione risorse devo installare i codec, come faccio?

Utilizzando un semplice player interpiattaforma come VLC è possibile visualizzare un sacco di formati come xvid, divx, etc senza installare alcun codec aggiuntivo, ed è in grado anche di convertire in altri formati, ha diversi sistemi di playlist e proiezioni dei filmati diretta o su altri monitor, guidati da controlli da tastiera o da remoto.

Se parliamo di montaggio video è sbagliato vedere dal sistema i video, perchè ogni sistema di montaggio professionale ha il suo metodo di screening e selezione del materiale, il modo corretto per gestire l’inizio di un montaggio video è sfruttare questi strumenti di Ingest sia selezionando che organizzando per folder o tag e metadata i materiali che andiamo a selezionare.

 

Se devo importare materiale nel formato non letto dal mio programma di editing?

Esistono mille modi di convertire un file in un altro formato, usando diverse utility per convertire in formati DI, quindi formati senza perdita. Oggi come oggi accade sempre più raramente tranne quando si vuole convertire materiale di origine di vecchia data, perchè il resto dei formati sono già integrati nel sistema. Quindi utilizzare un programma che legga direttamente e converta in un formato più standard è la via più semplice per gestire questo tipo di problematiche.

Attenzione ai contenitori (vedi articolo su contenitori e codec), spesso ingannano, molti programmi di editing non leggono direttamente i file mkv, ma se facciamo un rewrap dei dati dentro un contenitore adatto potremo velocemente spostare gli stessi dati (nessuna perdita) in un contenitore più efficiente per gestirle in un NLE. Trovate la spiegazione su come farlo in questo articolo.


Ha senso usare una camera vecchia?

In un mondo veloce, dove ogni 6 mesi viene annunciata e poi rilasciata una camera nuova, l’obsolescenza tecnologica è sempre dietro l’angolo, siamo sempre con il dubbio di avere macchine vecchie, che non ci danno la qualità che ci serve, che stiamo perdendo colpi con il mondo…

Ne siamo proprio sicuri?

hateful eightNella storia del cinema e del documentario determinati modelli di cineprese sono durati decine di anni, e recentemente grazie alla passione smodata (uso il termine non a caso) del regista Quentin Tarantino, sono state riesumate leggende del cinema come le cineprese 70mm per la ripresa del suo Hateful Eight, il secondo western realizzato secondo una sua particolare visione dopo Django unchained, per tale occasione oltre che cineprese gigantesche sono state riesumate ottiche, perchè un frame così grande richiede ottiche speciali, e il cinema non ha le seghe mentali dei videomaker sul crop, perchè non si è fatto dettare le regole dalle aziende fotografiche, ha sempre usato lenti proporzionali al piano focale usato, quindi lenti corrette per il s35 che non hanno crop, contrariamente a quello che accade sulle cineprese digitali non attacco PL o passo C per montare le lenti originali per queste camere. Per la proiezione sono stati strappati alle ragnatele e alla polvere proiettori ottici che avevano visto le loro ultime pellicole con BenHur, i Dieci comandamenti e altri capolavori realizzati o presentati nello splendore del 70mm.

Nel frattempo Kodak, non si è fermata negli ultimi 50 anni e ha fatto pellicole più ultrasensibili per il cinema come le 500 asa, nelle quali la grana è solo percettibile in modo minimale, mentre prima era molto presente e grande come struttura dei grani, ma si resta nei 160-320 asa per ottenere il meglio dalla pellicola, in contrasto con la moda delle centinaia di migliaia di iso delle dslr per riprendere al buio scambiando la luna per il sole…

Ma il digitale è un’altra cosa, o no?

so che mi conosce si aspetta che parli del brand di camere che uso, e invece no… parlerò delle altre camere…
se facciamo una rapida ricerca riguardo agli ultimi 6-8 anni potreste scoprire come il primo modello della Red e il primo modello di Arriflex Alexa sono le principali cineprese utilizzate per girare il maggior numero di blockbuster e film d’autore di questi anni.

Queste camere, pur essendo poco luminose, 3200 asa al massimo, ma vanno usate al meglio restando intorno agli 800 asa, essendo un hardware vecchio anche se progettato e mantenuto bene da continui aggiornamenti firmware.

Terry Gillian di fronte alle Jumbo Light

Terry Gillian di fronte alle Jumbo Light

Eppure se si diciamo ad un Direttore di fotografia che avrà a disposizione una Red o una Alexa, ben impostate dal dit di turno, nessuno andrà a lamentarsi con la produzione del fatto che gli forniscono una camera antiquata…
men che meno poco luminosa… visto che il cinema serio si faceva con la pellicola 50 asa, quindi una macchina che si usa a 800asa comporta i problemi contrari, ovvero avere troppa luce per la gestione della camera.

Il nostro vanto italiano, Vittorio Storaro, conoscendo le necessità della pellicola, fece creare dal tecnico Filippo Cafolla quelle che oggi tutti conoscono come le Jumbo Light, un adattamento delle luci di un Jumbo per la corrente da studio, per avere una gamma dinamica di colore per la fotografia, la possibilità di regolarne l’intensità, e la trasportabilità.

Il cinema si fa con la luce, aggiunta, sottratta, addomesticata con filtri, non certo lavorando solo con la luce naturale. Ci sono delle eccezioni come alcuni direttori di fotografia cerchino di usare sempre e solo la luce naturale, ma questo spesso costringe a girare poche ore al giorno, in condizioni particolari, e poi andranno amplificate ed evidenziate nella fase di grading delle immagini.

Esempi anche low cost si possono trovare sui set di film come MadMax Fury Road dove oltre alle Alexa sono state usate maree di camere comprese camere low cost di diversi anni prima, eppure nessuno sullo schermo ha notato la differenza…

Quando Danny Boyle decise di girare 28 giorni dopo con una telecamera e solo la scena finale in pellicola nessuno spettatore in particolare notò la cosa o se ne lamentò, solo gli appassionati cinefili o gli addetti ai lavori sapevano che lui aveva girato il film nel 2002 con una telecamera Dv Canon XL-1S, con lenti cinematografiche con un adattatore per le lenti, e poi postprodotto dalla MPC con un loro software proprietario per ricampionare il materiale in 2k (quadruplicare la risoluzione originale) e stampato su pellicola 35mm dopo aver corretto e ottimizzato il materiale al meglio.

Naturalmente erano stati fatti diversi esperimenti sia dal direttore di fotografia che dai tecnici responsabili della successiva interpolazione, istruendo correttamente il direttore di fotografia per cosa avrebbe dovuto fare e soprattutto cosa non avrebbe dovuto fare, per evitare di evidenziare troppo i limiti della interpolazione del materiale da 720×576 al 2k (quadriplicare le informazioni), ad esempio evitare linee nette oblicue, dettagli che avrebbero scatenato moire e altre problematiche legate alla bassa risoluzione della camera.

Il fatto che lo stesso Danny Boyle per il Slumdog Millionaire avesse usato anche delle camere 16mm digitali (i prototipi delle tedesche SI2K) influenzò l’assegnazione dell’Oscar per la miglior fotografia al film, raccogliendo il primato di essere il primo film a vincerlo non girato con pellicola Kodak (la parte in negativo fu girata con pellicola Fuji) e a contenere molte parti girate in Raw digitale con codec CineformRaw.

Ora tutto questo discorso per andare dove?
beh molto semplice, diritti al concetto fondamentale che tutti vogliono tenervi nascosto :
è la storia, non la camera che usate per filmarla che conta…

chi vi dice il contrario o vi vuol vendere qualcosa, o non ha storie da raccontare…


Youtube e la compressione digitale

YouTube-logo-full_color

In questo periodo mi capita di parlare spesso della compressione digiltale in funzione della distribuzione on line, e in particolare di Youtube, spesso trovo molta ignoranza sul come trattare il materiale, un po’ perchè ormai la maggior parte dei software hanno un profilo chiuso che non ci permette di editare i parametri di compressione, un po’ perchè molti non sanno neanche di cosa si parli quando si esporta un video, sembra che sia solo una operazione per finalizzare e basta.

quando va tutto bene, non è importante conoscere cosa sta dietro a tutto questo, ma quando abbiamo necessità di ottimizzare dei file per un particolare prodotto o dispositivo, o in questo caso per un Social come Youtube, dobbiamo impare di più di ciò che sta dietro le quinte, e quindi è necessario introdurre diversi argomenti.

Le basi della compressione

Quando si prende un video e lo si esporta da un qualunque programma di editing o di postproduzione ogni immagine viene nuovamente elaborata e successivamente compressa in modo più o meno distruttivo a seconda del tipo di compressione, di tipo di target che ci serve e da un grande numero di impostazioni del programma, dal contenuto dei video, da come il software gestisce il contenuto originale del video

Quando si carica on line un video sulle diverse piattaforme di sharing come Youtube, Vimeo, Facebook etc viene nuovamente compresso con regole e principi dettati dai creatori della piattaforma.

Quindi banalmente il video subisce al minimo tre compressioni, quando viene catturato, quando viene esportato, quando viene ricompresso dai server delle varie piattaforme. Il che vi può dare un’idea di come la qualità possa decadere molto e rapidamente.

Molti si chiedono il perchè, ci sono diverse ragioni :

  • il primo motivo è la compatibilità, se i server dovessero fare il play di mille formati, codec e frame rate il risultato sarebbe uno sforzo immenso, e le richieste dei player per la compatibilità influenzerebbero negativamente l’esperienza visiva, quindi per semplificare youtube converte sempre i filmati nel miglior rapporto di qualità visione on line.
  • il secondo motivo è altrettanto banale, se i server di Youtube lavorassero con la qualità massima sempre, sarebbero intasati dai milioni di video fatti coi cellulari a bassa definizione (dimentichiamo il fatto che salvano in fullhd o 4k, perchè conta soprattutto il sensore), quindi esistono dei formati predefiniti con cui gestire il materiale fornito
  • il terzo motivo è pratico dovendo inglobare e gestire diversi formati e bitrate, chiedere alle persone comuni di fare i diversi formati è troppo complesso, per cui loro acquisiscono il nostro materiale e in automatico viene convertito per il formato ottimale di play per il 1080p e tutte le sue declinazioni inferiori (720p, 480p ,360p ,240p).

Se guardiamo le specifiche di youtube scopriremo che youtube preferisce filmati con un certo formato, un certo datarate e determinati settaggi. Se usiamo formati e caratteristiche diverse il filmato potrà essere caricato, ma la compressione sarà più aggressiva e distruttiva rovinando la qualità del filmato. Se usiamo formati di qualità più alti rispetto alle specifiche, comunque la gestione del server lo ridurrà al formato di default quindi si sarà sprecato più tempo e in alcuni casi andremo a perdere anche in definizione.

Perchè esistono ancora formati ridicolmente bassi come 360p e 240p?

perchè esiste un sistema automatico che per mantenere la fluidità di visione, se la rete internet attraverso il quale noi vediamo il filmato è lenta, si guarda una versione più leggera come peso e risoluzione per mantenere la fluidità. Inoltre esistono una marea di dispositivi che nonostante sia prodotti nuovi, hanno risoluzioni schermo molto basse, e quindi scaricare un filmato 1080p su un dispositivo (uno smartphone) che ha uno schermo che al max arriva a 576 o meno, sarebbe uno spreco di risorse e dati scaricati.

Ricordiamo che oggi l’uso principale dei social è via strumenti mobile, e per quanto si parli di fibra e gb come niente, esiste un mondo limitato al 3g in molte zone, o anche meno, e dato che la richiesta di banda cresce molto più velocemente della creazione di nuovi ponti e nuove celle telefoniche (i blackout di rete che avvengono durante i periodi di vacanza lo dimostrano) è importante poter fornire il servizio anche quando le risorse sono scarse.

La compressione altera più del necessario

Durante l’esportazione un programma di montaggio esegue un rendering, operazione che esegue più operazioni contemporaneamente, a seconda del programma lavora in spazi colore più ristretti o più estesi; nella compressione dei dati gli algoritmi devono tener conto di tanti fattori.

Spesso non ci si rende conto che ci sono operazioni che possono rendere più “morbido” il filmato in esportazione, che solo chi ha esperienze di compressione conosce e sa dove agire.

Scalatura : quando il programma scala una fotografia o un filmato, sia a ingrandire che a rimpicciolire, se non ottimizzato bene può far perdere qualità/nitidezza (sull’encoder adobe ci sono in più parti ottimizzazioni relative proprio a questo fattore).

Cambio di frame rate : quando il programma esporta da un frame rate all’altro deve creare in più modi i fotogrammi intermedi, o togliere dei fotogrammi, e questo può influenzare la fluidità del filmato o la nitidezza nel momento in cui vengono creati nuovi fotogrammi con le tecniche di interpolazione.

Cambi sulla luminanza e sulla crominanza : ogni tipo di manipolazione del croma e della luminanza possono evidenziare artefatti digitali presenti nel filmato originale, possono ridurre le sfumature di colore per limiti dello spazio colore, possono amplificare il rumore video perchè ne spostano la collocazione originale pensata dal codec di ripresa.

 

La compressione diretta

Immaginando di avere il filmato finito e perfetto a misura, al frame rate corretto, senza interventi, la compressione prende i dati e li ottimizza e riduce dentro gli schemi di compressione dell’h264.
H264 è un codec con degli standard ma diversi parametri e modi di comprimere i dati, per cui a seconda di come si setta un video il risultato può essere più o meno definito, più o meno dettagliato.
gopPer ridurre lo spazio occupato il formato H264 utilizza la tecnica del GoP, Group of Picture, in pratica se giriamo a 30 fotogrammi al secondo e abbiamo un GoP 15,  il codec registra il primo fotogramma intero, poi ne registra uno intero dopo 14 fotogrammi, e dei fotogrammi intermedi ne registra solo le differenze tra uno e l’altro. Questo significa che se nel filmato non ci sono movimenti camera o tanti oggetti in movimento, la compressione, pur mantenendo la qualità ci permette di ridurre molto il peso del file.

Su youtube viene suggerito un valore pari a metà del frame rate, il che significa che se il filmato ha molti movimenti all’interno del frame, oltre a non sfruttare bene il bitrate si rischiano degli errori o difetti di movimento, ad esempio se c’è una esplosione in un filmato oppure, cosa più facile si inquadra dell’acqua in movimento, oppure dei coriandoli gettati in aria, diventa più difficile per il codec distribuire il datarate, e quindi ogni tanto si potrebbe sentire un saltino.

Una possibile soluzione è dimezzare il gop, quindi invece della metà dei frame, ogni quarto dei frame al secondo, in modo che ci siano più frame interi per gestire meglio gli oggetti in movimento veloce.
Ad esempio 6 per il 24p (6×4=24), 5 per il 25p (5×5=25), 5 per il 30p (5×6=30).

L’altro parametro che ci permette di controllare la qualità è il data rate, ovvero la quantità di dati al secondo che può gestire per ogni fotogramma, più alto è il data rate, più alta è la qualità di ogni fotogramma, mentre abbassando il datarate il risultato è che le immagini perderanno nitidezza, e spesso appaiono zone di solarizzazione perchè non ci sono abbastanza informazioni per registrare i dettagli più fini.

Il datarate appare come un valore in Mega per secondo, ma la sua distribuzione nei fotogrammi che contengono un secondo è legato al metodo sottostante.

Variable o Costant bit rate definiscono come il data rate verrà distribuito lungo una sequenza

L’opzione Costant bitrate, la distribuzione è fissa, per cui ogni fotogramma riceve la stessa quantità di dati, il che offre una maggior fluidità di decompressione del filmato, perchè richiede buffer più semplici da gestire, ma in caso di filmati dove si alternano rapidamente scene con grande movimento con scene statiche, è possibile trovare molti sprechi di datarate, e quindi un file di minor qualità. Ad esempio se abbiamo una inquadratura di un’auto ferma che esplode, durante l’attesa viene sprecato datarate sui frame statici e magari per l’esplosione non ci sono sufficienti dati per gestire la qualità e il dettaglio delle fiamme in movimento veloce.

L’opzione Variable bitrate invece è un metodo che utilizza un valore variabile di dati, da un minimo ad un massimo e con un algoritmo che analizza la quantità di dati in movimento e distribuisce meno datarate dove ci sono frame statici, mentre un numero più alto dove ci sono movimenti ampi, movimento veloce o grande dettaglio di movimento.

quindi riassumendo :

  • GoP : valori più alti riducono il peso del file ma contribuiscono ad introdurre possibili artefatti nel movimento
  • Data rate : valori alti danno maggior qualità e maggior peso al file, bassi valori riducono il peso ma a seconda del contenuto (dettaglio immagini e quantità di elementi in movimento) si riduce la qualità del file finale.
  • CBR o VBR per gestire la qualità costante o distribuire meglio la qualità esistono due metodi di calcolo dei dati per ogni fotogramma, il primo offre una compressione più veloce e costante nella distribuzione dei dati, il secondo è più lento, ma sui filmati con molti dettagli e/o movimento può offrire una maggior qualità finale.

L’ottimizzazione per la compressione

Original with noiseIl contenuto di un video influenza molto il risultato perchè gli algoritmi di compressione analizzano il contenuto del fotogramma, dei fotogrammi circostanti per decidere in che modo ridurre le informazioni in modo ottimale dentro il codec. Ironicamente i video con pochissimi dettagli rischiano maggiori danni di quelli molto dettagliati.
Prendiamo un video di un oggetto in movimento su un limbo chiaro, lo stesso filmato ma al posto del limbo mettiamo una distesa di sabbia, il secondo video avrà più nitidezza e dettaglio a parità di parametri di compressione, perchè tutti quei dettagli forzano il profilo di codifica a dare il massimo e spremere ogni dettaglio dalle immagini.

La prima immagine (cliccando si può vedere in fullhd) mostra come la compressione di una immagine con un leggero rumore venga compressa correttamente e non presenti una particolare perdita anche se si comprime molto.

Nella seconda immagine (cliccando si può vedere in fullhd) ho amplificato un poco la struttura dei colori per mostrare come avendo tolto tutto il rumore si formano appena si adenoise to compressionpplica un poco il contrasto o la saturazione una serie di bandeggi / solarizzazioni che evidenziano i limiti del numero di colori disponibili per gestire quella sfumatura.

Oggi spesso si tende a volere video troppo pulito, si applicano forti denoise per togliere ogni tipo di grana o rumore video, ma eccedendo in questa pratica spesso si vedono immagini che tendono a creare il fenomeno del banding, ovvero si vedono le strisce di colore, perchè senza il rumore che “mescola” e inganna la visione si vedono tutti i difetti.

Ricordiamo che indipendentemente dal vostro video di partenza, che abbia anche una sorgente a 12 bit (ovvero miliardi di colori e sfumature) quando usciamo per youtube abbiamo un Output a 8 bit, ovvero 2 alla ottava per canale, che apparentemente sono ben 16 milioni di sfumature, ma se noi riprendiamo un cielo, al massimo dal blu più chiaro che è bianco, al blu più scuro che è nero abbiamo solo 256 sfumature pure, quindi senza un po’ di rumore che mescola le diverse strisce di colore con la tecnica che una volta veniva chiamata “dithering” si rischia di vedere i singoli bandeggi del colore.

Anche dalla sola thumbnail è possibile vedere come la versione senza rumore rischi molto di più nella compressione.

NATURALMENTE questo è un caso limite in cui ho forzato i difetti per renderli evidenti, spesso i risultati essendo più contenuti non sono altrettanto visibili.

Perchè il mio video si vede peggio di un altro fatto con la stessa camera

 

di sicuro non è colpa di youtube 😀

Ora dopo essermi preoccupato di avere le simpatie degli avvocati di Google, posso darvi delle buone ragioni tecniche per cui ogni video sarà diverso anche se fatto con la stessa camera.

Ogni volta che si realizza una ripresa, la qualità del video ha una serie di parametri che determinano la nitidezza, la qualità delle immagini, presenza o assenza di rumore, etc. Pretendere che due persone anche usando la stessa macchina, stesse lenti, nello stesso luogo contemporaneamente ottengano lo stesso risultato di qualità è molto complesso, e necessita di un allineamento di tanti parametri, non a caso quando si fanno riprese multicamera, che sia per cinema, televisione, etc si utilizzano sempre dei target (tabelle di riferimento univoche) per allineare in post tutto il materiale, perchè comunque basta che una persona cambi il diaframma per avere meno luce in ingresso e l’altro cambi invece gli iso, e le immagini saranno diverse in nitidezza e contrasto, immaginate se magari si hanno lenti diverse, e molto altro ancora…

Inoltre basta solo cambiare angolo di ripresa, e avendo luce diretta, riflessa, laterale, controluce, le immagini non saranno solo diverse come luce, ma avranno comunque dominanti e strutture diverse.

Cosa funziona meno bene su youtube?

Quando carichiamo un video, ci sono dei fattori che influiscono su come verrà ricompresso il file, quindi è importante tenerne conto per non rimanere delusi.

  1. la quantità di dettagli delle immagini
  2. i contrasti all’interno del quadro
  3. i cambi scena con differenze notevoli di luminosità
  4. il rumore / noise del filmato originale
  5. la risoluzione originale di caricamento del filmato

per fare un esempio, lo stesso video in 4k caricato sia su youtube che su vimeo ha dato origine a risultati differenti, su youtube, che tengono poi un bitrate di uscita più basso, la versione in FHD ha un maggiore effetto di banding rispetto a vimeo, se carico direttamente il video in formato FHD la qualità su youtube e su vimeo sarà superiore perchè sarà solo ricompresso ma non scalato.

youtube_fhdvimeo-hdA Oggi 1 ottobre (specifico perchè gli algoritmi sono in continuo sviluppo) il sistema di youtube/vimeo offre un buon rapporto qualità fluidità di streaming a prezzo di una compressione sia nei dati che nella risoluzione, per cui va considerato che possiamo valutare solo la qualità della resa nel formato che abbiamo caricato noi, le altre non avendo controllo sulle varianti create da youtube non dobbiamo farci troppi problemi altrimenti ci rovineremmo la salute mentale e basta.

  1. quando carichiamo un filmato di animazione, con toni piatti, l’encoder sa cosa deve fare, ovvero dettagli intorno ai bordi, pulito nei toni piatti. Quando carichiamo un filmato ripreso in pieno giorno pieno o meno di dettagli l’encoder sa di dover preservare a meglio tutti i dettagli possibili.
  2. la differenza di contrasto comporta il fatto che l’encoder darà spazio alle parti più luminose, ma meno alle parti più scure causando facilmente del banding e la presenza di elementi di blocking in movimento nelle parti più scure.
    in generale tutti gli encoder non tengono grande considerazione degli elementi nelle ombre perchè sono considerati meno importanti, dato che il cervello guarda principalmente le parti illuminate.
  3. nei cambi scene, a seconda di come viene fatta l’analisi del filmato per la compressione in CBR o VBR possono esserci più o meno bit a disposizione delle immagini al cambio scena, per cui ci possono essere dei salti e artefatti più presenti nel cambio scena. In quei casi è importante come si impostano i keyframe, se i cambi scena sono frequenti è meglio impostare dei keyframe più bassi come valore in modo che l’analisi sia fatta più di frequente, e quindi il filmato fornito a youtube abbia più informazioni in quelle parti.
  4. come già detto in precedenza, un leggero noise permette di nascondere gli eventuali bandeggi nelle sfumature, e soprattutto forza gli encoder ad analizzare meglio e più attentamente i dettagli dei filmati, quindi anche un noise molto leggero è utile per avere immagini più pulite nel risultato finale.
  5. Più alta è la risoluzione di partenza, migliori saranno le scalature, ma dipende anche dalle strutture.
    Ad esempio come si può vedere nelle immagini sopra, su vimeo sia vedere il file 4k scalato a Fhd, che il fhd direttamente, la qualità è lineare, mentre su youtube la scalatura compromette molto di più la qualità, creando banding e altri difetti, ma si sa che vimeo ha un bitrate molto più alto, quindi la qualità è senza compromessi.


Flickera, strappa, la panoramica che non va?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

E’ divertente vedere come sulla rete siano presenti risorse infinite, ma allo stesso tempo si diffondano tanti pareri e concetti errati per il semplice copia e incolla, condividi, o voglia di essere … l’esperto del Bar Sport come nel libri di Stefano Benny

Contrariamente a quello che la maggior parte dei sedicenti esperti i concetti di ripresa base sono pochi e semplici, legati a principi di percezione visiva basilare, che non possono cambiare perchè non dipendono dalle camere e dalle loro tecnologie, ma dalla capacità dei nostri occhi di percepire le immagini in movimento e come vengono elaborate dal cervello..

I nostri occhi catturano la luce, che rimane impressionata sulla retina per un tempo X definito persistenza retinica; quando l’occhio percepisce una serie d’immagini in sequenza :

  • se la differenza è corretta le immagini si fondono e vengono percepiti come movimento fluido
  • se la differenza è troppo grande il cervello percepisce le singole immagini, quindi un movimento scattoso, stroboscopico.

All’inizio della storia del cinema si lavorava a camera fissa, e il frame rate era variabile, perchè definito da una manovella girata dall’operatore, quando si iniziò ad automatizzare il tutto utilizzando dei sistemi  a molla prima e poi motorizzati, si è trovato il giusto bilanciamento tra fluidità e uso della pellicola nei 24 fotogrammi al secondo.

Con 24 fotogrammi al secondo, girati in modo corretto, si ha la percezione del movimento fluido, al di sotto si percepisce uno scattino più o meno pronunciato tra un fotogramma e l’altro. Il numero di fotogrammi al secondo, per anni il Santo Graal dei filmaker convinti che fosse il segreto dell’effetto cinema, è solo uno degli elementi che servono per ottenere un corretto risultato di percezioni fluida del movimento lineare, circolare, o della camera in movimento.

Mito 1 : è la pellicola a creare l’effetto cinema fluido, il digitale non lo può fare

hateful eightil segreto della fluidità è data da più fattori, che vanno correttamente impostati.
L’uso di un sistema di ripresa a pellicola rispetto al digitale non è fondamentale, quanto la cura con cui vengono girate le immagini. Se una qualunque persona con una macchina digitale semi automatica può provare a fare delle riprese e ottenere dei risultati decenti, con la pellicola si deve avere più cura e conoscenza in ciò che si fà, il che include le regole che troverete in fondo all’articolo per ottenere la corretta ripresa e riproduzione del movimento.
Sicuramente la proiezione in pellicola (anche di un materiale girato in digitale) offre una maggior fluidità della proiezione digitale della maggior parte dei proiettori (troverete la spiegazione più avanti).

Mito 2 : sono i fotogrammi al secondo che fanno più o meno fluido il filmato

Fattore relativamente corretto, più fotogrammi uguale più frammentazione di un movimento veloce, quindi la differenza tra i frame si riduce e si hanno meno probabilità di vedere i difetti, ma non si può pensare di girare a 120 fotogrammi al secondo per fare un play a 120 fotogrammi al secondo, la maggior parte dei televisori, proiettori e monitor non sono in grado di riprodurli. E fino ad ora tutti gli esperimenti di cinema in HFR (High frame rate) che sono banalmente 48 fotogrami al secondo invece che 24, hanno dato una percezione troppo … “reale” da come mi è stata descritta da tanti spettatori, amici, ma non tecnici, che non solo non apprezzavano l’effetto, ma al contrario lo hanno definito “come guardare il telegiornale”, decisamente meno cinema.

Mito 3 : è la camera a fare la differenza

b_unbroken_2_01Diciamo di si, è vero che alcune cineprese sono migliori di altre, i sensori leggono in modo diverso le immagini e quindi il risultato cambia, diventando più o meno piacevole.
Addirittura alcune camere possono riprendere il movimento in differenti modi e quindi forniscono una cattura diversa dell’immagine.

Ad esempio le macchine fotografiche catturano le fotografie con la tecnica del global shutter, ovvero in uno stesso istante cattura tutte le informazioni del sensore, ma quando lavorano per il video lavorano con la tecnica del rolling shutter, ovvero catturano sequenzialmente le linee, dall’alto verso il basso, il che significa che la stessa immagine se scattate una fotografia o catturate un fotogramma da un video offrirà una cattura del movimento differente, con distorsioni, effetti jello, e altre problematiche, questo riduce la percezione dell’effetto cinema.

Il rolling shutter non va demonizzato, dipende dalla sua velocità di lettura, molte cineprese digitali utilizzano la tecnica del rolling shutter per aumentare la gamma dinamica, ma la velocità di lettura del sensore è abbastanza alta da non doversi preoccupare dei difetti del rolling shutter.

Un altro elemento importante, che è il motivo per cui le vdslr sono entrate prepotentemente nel campo video è il contrasto dell’immagine, dove la classica telecamera offre una immagine molto dettagliata e contrastata, generata da un sensore a 8bit con caratteristiche ben precise, la dlsr nasce con un sensore da 12 a 14 bit che cattura molte più informazioni di luminosità e colore, offrendo immagini più morbide nel contrasto e ricche di sfumature, come si comporta la pellicola; addirittura le cineprese digitali partono da sensori a 16bit, per simulare più accuratamente la sensibilità e la curva dinamica della pellicola.

Mito 4 : c’è qualche filtro di post nascosto per fare il cinema

Anche se in postproduzione è possibile aggiustare qualcosa, per rendere più fluide le immagini, spesso il risultato è meno piacevole e corretto della ripresa fatta con le corrette impostazioni. Non esiste l’effetto cinema in post, se una immagine è ripresa male, si può limare, ma non si può trasformare il video in cinema, l’immagine stroboscopica in immagine fluida (con le eccezioni di post particolari e in particolari situazioni). In alcuni casi è possibile aggiungere la Motion Blur che si avrebbe catturato nella ripresa con Shutter corretto nella fase di post, ma da inquadratura a inquadratura il risultato e la qualità del risultato può variare quindi non si deve dare per scontata la cosa.

Mito 5 : ci sono dei segreti che i DoP famosi non vogliono condividere

Mai mito fu più sbagliato, dal 1935 la ASC americana quando pubblicò la Bibbia dei Direttori di fotografia, dove ci sono tutte le specifiche di ripresa corrette, giunto alla decima edizione, oggi si può acquistare in versione cartacea e digitale su Amazon Manuale vol 1, Manuale vol 02.

Chiunque voglia seriamente lavorare nel campo della ripresa deve conoscerlo a memoria, ci sono ogni tipo di tecnica e spiegazione pratica di come ottenere il giusto risultato di ripresa, che sia pellicola o digitale non cambia nulla, perchè i principi sono indipendenti dal mezzo di ripresa.

Mito 6 : la ripresa interlacciata è più fluida
meglio fare interlacciato e poi deinterlacciare

Mai mito fu più sbagliato, la ripresa interlacciata ha una maggior percezione di fluidità perchè i due semiquadri che compongono l’immagine vengono catturati in due istanti separati, quindi combinati insieme offrono una percezione di maggior mosso rispetto alla ripresa progressiva con gli stessi valori, nel momenti in cui si deinterlaccia con una qualunque tecnica si andrà a buttar via buona parte delle informazioni di movimento di uno dei due semiquadri, e si tornerà ad avere un fotogramma progressivo con le stesse caratteristiche di cattura di movimento della ripresa progressiva, ma con quasi la metà delle righe orizzontali, quindi avremo perso dal 30 al 40% della definizione.

Come ottenere un movimento fluido corretto?

Il segreto della fluidità è data da più fattori, che vanno correttamente combinati, se sbagliate uno di questi fattori, le immagini saranno scattose, che siano immagini digitali, che siano create da un programma di grafica 3d, che siano realizzate da una telecamera.

Quando catturiamo una immagine in digitale i fattori principali che influenzano la fluidità di movimento sono :

  1. Diaframma.
    Una delle ragioni per cui si sono diffuse molte le vdslr è la loro capacità di sfuocare molto anche a diaframmi più chiusi grazie al sensore di grandi dimensioni, questo oltre ad aiutare a concentrarsi sui soggetti senza saper lavorare di luce e scenografia, aiuta anche a ridurre l’effetto strobo, perchè sfuocando davanti e dietro il cervello uniforma e “impasta” maggiormente le informazioni correggendo anche eventuali leggeri strobo.
    Il diaframma regola aprendo e chiudendo le lamelle la quantità di luce entrante, il che ha due risultati diretti sull’immagine :
    Diaframma aperto, profondità di campo ristretta, zona a fuoco molto corta e contrasto tra luce e ombra più morbido
    Diaframma chiuso, profondità di campo più estesa, maggior contrasto globale dell’immagine.
    a diaframma aperto abbiamo un minor contrasto delle immagini che aiuta il cervello a fondere i diversi fotogrammi in unico movimento fluido.
  2. Otturazione o Shutter.
    Il tempo in cui catturiamo il singolo fotogramma definisce la nitidezza degli oggetti in movimento. Esiste una regola per cui la otturazione dovrebbe essere sempre il doppio dei fotogrammi al secondo, per cui se giriamo a 24 fotogrammi al secondo l’otturazione dovrebbe essere di 1/48 di secondo. Tutto questo nasce dal cinema e dall’otturatore a farfalla. Questo rapporto 2:1 fa si che le immagini siano abbastanza nitide quando sono ferme per percepire correttamente il dettaglio, ma abbastanza sfuocate quando si muovono velocemente per rendere più fluido il movimento percepito.
    Più è veloce il movimento, maggiore sarà la scia lasciata dall’oggetto e fotogramma dopo fotogramma offrirà una maggior fusione tra uno e l’altro dando origine ad un movimento fluido e continuo.
    Spesso si vedono riprese stroboscopiche perchè si alza troppo lo shutter per compensare la luce, cosa che si fa ogni tanto in fotografia, ma nelle riprese video è un grave errore che può portare notevoli problemi.
    Meglio mettere un filtro Neutro e ridurre la luce piuttosto che alterare come viene catturata la stessa.
    La regola generale è 1 / Numero dei Fotogrammi al secondo x 2 = tempo di otturazione.
  3. Iso.
    La sensibilità iso reale normalmente è una, in certi casi al max sono due con sensori sovrapposti, il resto sono elaborazioni analogiche o digitali del segnale catturato, ma come nel caso della pellicola, a bassi iso abbiamo più dettaglio e morbidezza, ad alti iso abbiamo meno dettaglio e più contrasto, quindi andiamo contro la regola n5 della fluidità.
  4. Lunghezza focale.
    Questo parametro è fondamentale perchè se noi lavoriamo con un grandangolo e giriamo di 5 gradi la camera, la differenza nell’immagine è piccola, mentre se applichiamo lo stesso movimento su un teleobiettivo spinto, la differenza tra una immagine e l’altra potrebbe essere di metri…
    La regola è semplice : la velocità di movimento della camera sarà inversamente proporzionale alla lunghezza focale della lente.
  5. Contrasto immagine.
    Il contrasto dell’immagine è un parametro fondamentale per gestire l’effetto strobo all’interno di un movimento, perchè maggiore è il contrasto dell’immagine e maggiore sarà il tempo che rimarrà impressa la parte luminosa dell’immagine sulla retina contro le parti scure, quindi se abbiamo un movimento su una campitura chiara di elementi molto scuri, o viceversa, sarà più facile percepire un movimento stroboscopico contro un’immagine che abbia un contrasto minore.
    Non a caso quando si riprende in pellicola (per tornare al mito 1) la capacità di compensare meglio la differenza di luminosità,  e in particolare le alte luci della pellicola offre immagini più morbide e piacevoli della ripresa digitale classica.
    Inoltre oggi si tende con la correzione colore ad aumentare i contrasti e rendere molto più forti i due estremi amplificando questo difetto.
  6. Movimento di camera
    La velocità di movimento della camera in senso orizzontale o verticale comporta un cambiamento più o meno ampio dell’immagine in funzione della focale (vedi regola n. 4), quindi la velocità va regolata in funzione di come cambierà l’immagine altrimenti risulterà stroboscopica.
    Non a caso dentro il mitico Manuale di American Cinematographer che ho indicato all’inizio dell’articolo contiene una serie di tabelle con le velocità di spostamento in funzione del framerate e della focale montata.
    La regola generale qui non esiste, perchè ci sono troppe variabili in gioco, inoltre a seconda dell’immagine più o meno contrastata si può variare la velocità e la percezione risulterà più o meno corretta, immagine più contrastata (vedi regola 5) più lento, immagine più mrobida di contrasti, più veloce.
    Esiste un trucco per superare alcuni limiti, in alcune occasioni : se dobbiamo fare una panoramica o una ripresa a schiaffo, si abbassa l’otturazione, in modo che ogni fotogramma in movimento diventerà molto più sfuocato durante il movimento veloce, amplificando la percezione di velocità e si evita l’effetto stroboscopico.
  7. La dimensione dell’immagine percepita.
    Banale, ma molti non ci pensano, chi nasce nel cinema, pensa in grande, quindi ogni tipo di movimento viene pensato per essere visto su uno schermo di grandi dimensioni, e quindi i fattori elencati fino ad ora sono tenuti in grande considerazione. Ogni differenza tra un fotogramma e l’altro viene amplificata, quindi tutta l’esperienza percettiva viene amplificata. Lo stesso movimento su un 40 pollici comporta una differenza di un cm tra un fotogramma e l’altro, visto su 15 metri di schermo diventa 60-70 cm e a seconda della distanza dallo schermo diventa quasi fastidioso quel salto perchè superiore alla capacità di fusione del cervello.
    Regola di base, non usare solo la visione sui monitor di controllo camera o un monitor piccolo per verificare i movimenti veloci, ma testare anche sulle grandi dimensioni, dato che non tutti hanno la possibilità di testare al cinema le immagini, basta un semplice videoproiettore, se si può investire su una camera di medio livello e attrezzatura varia, si può investire 5-600 euro per un buon proiettore HD o superiore per testare l’immagine su 2-3 metri di larghezza e avere la percezione corretta del movimento senza elaborazioni o postprocessing di vario tipo (per fortuna nessun videoproiettore ha i vari chip pixelworks e simili che tritano le immagini).

A questo punto conoscete le ragioni tecniche per cui una panoramica scatta o salta mentre fate una ripresa, quindi dovete ragionare di conseguenza per correggere la o le cause di tale problema IN RIPRESA perchè l’aggiunta di sfuocatura di movimento in post è fattibile entro certi limiti e comunque nella maggior parte dei casi sarà meno naturale di quella reale.

In sintesi i movimenti strappano perchè la differenza tra un fotogramma e il successivo è troppo grande per essere percepita dal cervello come movimento fluido, e quindi vengono percepiti i singoli fotogrammi.

Queste ragioni tecnico pratiche globali che valgono per ogni mezzo di ripresa analogico (pellicola) o digitale (cineprese), si devono tenere in mente ogni volta che si fa una ripresa, altrimenti successivamente si possono avere problemi non risolvibili in postproduzione.

Perchè al cinema il film lo vedo meglio che a casa?

Esistono diversi motivi, sia che si veda in pellicola che in digitale di solito se un film è pensato per il cinema è ripreso e gestito nel modo corretto (batman dark night return presenta alcuni punti con strobing, Civil war durante i combattimenti è inguardabile, shutter altissimo e molto fastidioso, ho avuto modo, grazie ad un amico gestore di cinema di guardare frame by frame le sequenze e tecnicamente sono aberranti, fastidiose, vedevo mezzo cinema che strizzava gli occhi…

movie-theaterQuando si proietta in pellicola si può apprezzare una maggior fluidità per un fattore tecnico molto semplice, l’otturatore a farfalla. Quando si proietta una pellicola esiste una operazione che viene ripetuta 24 volte al secondo : otturatore aperto viene visto il fotogramma, otturatore chiuso il fotogramma viene sollevato per passare al successivo.

Questa operazione fa si che ci sia la classica luce intermittente che proviene dalla cabina di proiezione (che si può vedere in tanti vecchi film), e soprattutto fa si che colpendo lo schermo e rimbalzando sulla retina i diversi fotogrammi si fondano insieme, perchè mentre sta scendendo l’immagine impressa sulla retina del primo fotogramma, arriva la luce del secondo fotogramma che si fonde su una parte del primo, rimasta per persistenza retinica, in questo modo viene creata una forma di blending dell’immagine residua rendendo più fluido il passaggio da un fotogramma all’altro.

La proiezioni digitale invece manda luce continua sostituendo istantaneamente un fotogramma con il successivo, quindi essendo sempre i fotogrammi al massimo della luminosità sono più forti e non si mescolano tra di loro nello stesso modo, causando una maggior incidenza di possibile strobo rispetto alle stesse immagini proiettate dalla pellicola. Infatti nei moderni proiettori digitali stanno ripristinando l’otturatore a farfalla per migliorare la fase di visione dei film.

Purtroppo ci sono alcuni produttori di televisori che stanno sperimentando la malsana idea di fare pannelli giganti per sostituire i cinema con dei supertelevisori delle dimensioni del telo del cinema, spero vivamente che tale trend non prenda mai piede, considerati i possibili problemi di fruizione dell’imagine che possono introdurre, oltre al fattore tv nel riprodurre una immagine nel modo corretto, già è difficile trovare un televisore fedele a ciò che viene introdotto in esso, figuriamoci se fanno un discorso del genere al cinema…

Quando vediamo lo stesso film a casa, sa Dio cosa andiamo a vedere, perchè difficilmente un televisore ha la capacità di lasciare intatte le immagini, gli ingegneri video che lavorano per le varie case produttrici di televisori hanno l’arroganza di pensare cosa sia meglio per noi durante la visione di una immagine, masticandola con processori d’immagine che saturano all’inverosimile i colori, contrastano fino a trasformare ombre delicate in macchie nere, aumentando la nitidezza fittizzia con maschere di contrasto che creano dei bordi attorno ad ogni dettaglio ad alta frequenza, che eliminano ogni sorta di rumore video trasformando una spiaggia in una distesa di colore sfumato, perchè il dettaglio della sabbia per loro era rumore, e per ultimo, a seconda dei tifosi di fluidità o nitidezza c’è il partito di “flash” che aggiunge sfuocatura di movimento a ogni pixel in movimento più veloce di X facendogli lasciare la scia come il noto supereroe della DC nella serie anni 90, oppure quelli che la devono eliminare completamente perchè loro vogliono vedere nitida ogni cosa, trasformando il più delicato film in una brutta telenovelas anni 80….

Ora io ironizzo, ma vi posso garantire che trovare un televisore in cui si possa disabilitare ogni singolo parametro di manipolazione e vedere le immagini originali, quelle su cui centinaia di persone hanno sudato settimane se non anni per realizzarle è un’impresa titanica…


Pagina 8 di 12

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!