Tutto è possibile

Tag: tecnica

Cable does Matter

E’ solo un cavo, che vuoi che cambi?

Quante volte ho sentito dire questa frase, e sapevo che non avrebbero capito la risposta… Quindi..
Risposta breve, sintetica, pragmatica…

Qui sotto vedete la differenza della stessa Cfast2, stesso lettore, stessa porta USB, due cavi Usb C diversi: uno costoso di qualità, uno economico ma spesso il doppio e con tanti paroloni e specifiche altisonanti nella descrizione…

Indovinate quale dei due cavi usb-C 3.1 offre risultati da usb 2.0velocità confrontateOggi purtroppo dato che i cavi usb-C sono diventati standard per la ricarica dei ccellulari e altri apparecchi, ci hanno riempito di cablaggi magari decenti per la ricarica, o la ricarica veloce, ma come cablaggi dati sono alquanto scarsi, per cui lo spessore che vediamo probabilmente è dato da un cavo per la ricarica più importante, per non fare resistenza, perchè non c’è tempo per aspettare di ricaricare il proprio smartphone, ma quando lo usiamo per copiare dei dati… è sicuramente colpa del dispositivo, non del cavo… tanto ricarica veloce, lo sappiamo che è veloce di tutto…

 

Un pezzo della mia storia sulla qualità visiva.

Abbiamo abbastanza qualità per i nostri progetti?

Dopo aver cambiato tanti mezzi di ripresa sono approdato ad un prodotto che mi permetterà per qualche anno di lavorare tranquillo, anche ad alto livello. La cosa curiosa è proprio che mentre mi sono stabilizzato con questo mezzo, ho letto tutta una serie di articoli relativi ai vari camera’s peeper che nell’attesa della fantomatica nuova macchina, deprecano cosa possono avere per le mani, prodotti ottimi per raccontare una storia.

Esiste un termine in inglese coniato da Stu, Next camera disorder, che rappresenta bene il concetto : non posso lavorare con il mio attuale strumento, perchè quello che sta per uscire è meglio… non devo sprecare tempo ora con la mia camera/reflex/cinepresa, perchè otterrei risultati di qualità non sufficiente.

videoDifettiOggigiorno sembra che la prossima camera che si comprerà sarà sempre migliore, più risoluta [8k], più sensibile [Sony A7 series], Modulare quindi sarà la definitiva [Axiom], più professionale [cinepresa XXX scegliete voi], quindi si procrastina con la storia…

Ammetto che comprendo la perplessità di alcune persone, di fronte a mille offerte e ad un mercato in continua evoluzione, ma non comprendo la pigrizia… Si vogliono macchine sempre più automatiche e perfette, dove fanno tutto loro, e che costino poco poco, ma allora dove sta l’arte e l’abilità nell’usarle se fanno tutte le cineprese/telecamere/macchine fotografiche?
Non a caso si vedono un sacco di immagini patinate, tutte molto simili, con lo stesso movimento di slider, con gli stessi filtri di post, le stesse lut… le fanno le macchine, [mod provocazione On] quindi i creatori diventano intercambiabili e si possono pagare anche poco, tanto uno vale l’altro [mod provocazione Off].

Senza diventare noiosi, la prima camera che ho usato nel 1990 (si comincio ad essere un master) era una vhs spallare, e la risoluzione effettiva era di circa 200 linee, quindi se avessimo acquisito il materiale digitalmente al max della qualità l’effettiva risoluzione (interlacciata) è circa 320×200 pixel, poi l’acquisizione da vhs decente con tbc si può fare in pal, ma non vedreste nessuna differenza di qualità e nitidezza. Il montaggio si eseguiva facendo almeno un paio di copie [degrado analogico forte] durante il montaggio, e quello diventava il master, che poi veniva duplicato per mandarlo ai rari festival che accettavano vhs 25 anni fà… Eppure la gente con il vhs e 8mm (nastro digitale) girava comunque cortometraggi.

un esempio molto interessante è questo cortometraggio che ha lanciato Robert Rodriguez, e che gli ha permesso di essere conosciuto da molte persone, compreso Quentin Tarantino che vide la brutta copia della copia della copia di questo VHS.

Poi passai con un grande salto ad una MiniDv, dove la risoluzione era realmente 720×576 pixel, molto sporchi [sensibilità intorno ai 800 iso tirata max] e contrastati, e interlacciati. Ma comunque questo non ha impedito la realizzazione di storie, da li poi un salto all’HDV progressivo 1440×1080, e il full HD con le tre ccd e poi le mirrorless panasonic. Butto li qualche cifra di pixel pur sapendo che sono termini relativi, nel mio articolo relativo alle risoluzioni ho fatto una disamina più precisa su quale sia la differenza tra la risoluzione apparente e reale, e come il numero di pixel non sia il reale indicatore di qualità di un prodotto.

Con le mirrorless ho ritrovato il piacere di usare obiettivi a fuoco manuale, il controllo manuale e reale dei diaframmi della camera, lavorare con ottiche fisse, ho usato telecamere che avevano solo metà dei diaframmi dichiarati, mentre oltre una certa cifra i diaframmi erano emulati dall’uso di un filtro neutro che toglieva luce, non cambiando la profondità di campo (e spesso introduceva una dominante verde… mannaggia ai progettisti daltonici).

Oggi sono su una macchina che produce dal fullHD registrato con prores Proxy alla qualità più scarsa fino al 4k raw quando si ha bisogno del massimo della qualità e della flessibilità in post produzione, il tutto con qualche vincolo, perchè nascendo come cinema camera nasce è stata pensata per usi di un certo tipo, per persone che sanno come riprendere e postprodurre il materiale in un certo modo, ma è esattamente quello che cercavo, perchè mi offre il controllo che volevo e una qualità di gran lunga oltre quello che mi serve oggi (con la precedente camera ci hanno girato inquadrature di Madmax, diciamo che con questa si può anche fare di più).

Ognuno di noi ha una sua idea della qualità, poi però la pubblicità, le immagini luccicanti delle pubblicità ci possono far cambiare idea.. forse… o forse sono pensate per farci pensare che non abbiamo abbastanza.. una delle basi della cultura moderna del marketing, far credere di non aver abbastanza per far comprare il superfluo, sempre. Ho scritto una riflessione sul 4k oggi, proprio in funzione dell’inutilità di avere il 4k in tv, sui cellulari e sulle camerine amatoriali.

I miti della qualità

ora stacchiamoci dai sentimentalismi e cerchiamo di capire cos’è realmente la qualità, reale o percepita. quando si osserva una immagine noi percepiamo prima la luminosità e poi il colore, tramite la luminosità percepiamo il dettaglio, la profondità e le distanze tra gli elementi, poi il colore ci fornisce informazioni aggiuntive sugli elementi; questo principio non è digitale, ma analogico, perchè sono così che funzionano gli occhi dell’essere umano, coni per il colore e bastoncelli per catturare la luce, questi ultimi essendo più numerosi e attivi per catturare luce e movimento forniscono il vantaggio.

quindi analizzando una immagine in movimento cosa possiamo indicare come qualità?

  • la risoluzione dei dettagli fini, quindi poter vedere ogni elemento possibile.
  • la capacità di fornire dettagli e informazioni sia in ombra che in luce, come fa l’occhio umano che ha una gamma dinamica molto ampia
  • dei colori percebili NON troppo accesi, perchè se troppo accesi alterano la percezione delle sfumature, e comunque l’occhio umano percependo prima la luminosità e poi il colore, in una immagine troppo satura percepirebbe meno dettaglio, quindi la ritiene meno ricca.
  • riproduzione corretta del movimento veloce, quindi non troppo nitido altrimenti diventa stroboscopico, non troppo mosso, altrimenti diventa illeggibile.

beh in teoria questi sono elementi oggettivi per determinare la qualità, ma basta andare in un centro commerciale e vedere come le persone percepiscano come migliore quello che è l’esasperazione di questi elementi, colori accesi tanto da perdere tonalità perchè vanno in solarizzazione, contrasti e maschere di contrasto esasperati per mostrare una “incisione” di dettaglio che non esiste, ma creando una specie di finto basso rilievo danno l’illusione di tale elemento visto da lontano, funzioni infernali che tolgo e aggiungono la sfuocatura di movimento in funzione della follia dell’ingegnere che ha progettato quei circuiti, convinto che il “SUO” gusto visivo sia quello da imporre al resto del mondo, sicuramente nel 90% non disabilitabile, e così via… tanto da trasformare le immagini cinematografiche in specie di telenovelas brasiliane anni 90…

10 tacche di colorequalche dubbio? bene guardate bene questa PNG, dove ci sono tacche a stacchi di 10 toni tra un colore e l’altro e tra una luminosità e l’altra, a seconda del vostro monitor e della calibrazione applicata, appena voi andate a toccare la saturazione perdete i primi toni da sinistra, ovvero dal 30 al 40% delle sfumature colore della vostra immagine.

Stessa cosa vale per la luminosità dove le parti più scure vanno a perdersi.
Poi ci sono quelli che dicono, si va beh quando visualizzo una tabella di colori, di solito ho immagini ricche di colore…

osservate questa immagine, alzando la saturazione perdiamo due cose fondamentali, il dettaglio tra i pistilli, perchè tutte le sfumature minime diventano uguali e quindi si appiattiscono, e il colore vero, perchè in origine il fiore è tra il rosso e il lilla, ma alzando la saturazione, il blu è già al massimo, quindi alzandosi il rosso si perde l’equilibrio originale, trasformando un colore in un altro.
A dimostrazione che sbagliano quelli che dicono che alzando la saturazione, avendo colori più brillanti otteniamo colori più naturali, dato che accade esattamente il contrario.

saturazione

 


Il FullHD non è proprio Full, anzi… spesso molto meno.

fig_01Dopo aver letto il mio precedente articolo, sull’aspect ratio e le misure dei filmati in pixel per home e cinema immagino un grande entusiasmo per tutti, pensando che basti niente per poter portare i propri filmati sul grande schermo. Diciamo che quella era solo una mezza verità, perchè abbiamo parlato di pixel, e delle informazioni con cui sono fatti i filmati per il grande schermo e per il (relativamente) piccolo schermo. Tutto vero, per quanto riguarda il prodotto finale, ma spesso i numeri non corrispondono alle informazioni catturate dai sensori o massaggiate nei vari passaggi tra DI editing e postproduzione.

Definiamo cos’è a livello teorico il FullHD

Il fullHD è una combinazione di pixel che forma un video di 1920 pixel in larghezza x 1080 pixel in lunghezza.

Il problema nasce dal fatto che non si deve considerare solo il file registrato, ma è fondamentale verificare come si creano e si campionano queste informazioni, perchè la maggioranza dei sensori delle camere (sopratto nel consumer e prosumer, ma anche in molte pro) non hanno neanche un numero sufficiente di pixel per coprire quel numero di pixel e vengono raggiunti con “trucchi tecnici” come il pixel shifting, il sovracampionamento etc etc

Per cui spesso le camere hanno un numero diverso (spesso minore) di pixel e quei numeri li raggiungono artificialmente.
Quindi si parla di immagini meno definite di quello che realmente dovrebbero descrivere quel numero di punti.

Una camera ideale ha uno o tre sensori in formato FULLHD, ovvero a misura 1920 x 1080, mentre quando si usano sensori più grandi (HDSLR) la tecnica di scalatura da un numero maggiore di pixel è fondamentale per non introdurre difetti e/o perdita di definizione.

Il discorso è molto semplice, se abbiamo troppe informazioni, una parte va scartata, se però la tecnica è sbagliata, la caduta di qualità è grande e quindi si creano dei difetti.

Per ottimizzare la registrazione video delle informazioni raccolte dai sensori le diverse case produttrici utilizzano tecniche diverse, con diversi svantaggi:
– si catturano solo parti della colorimetria (campionamento 4:2:2 o 4:2:0)
– si comprimono le informazioni (introducendo artefatti)
– si perde parte della nitidezza nel tentativo di ridurre le dimensioni del file

di contro come vantaggi :
– il peso cambia, i file passano da 11.2 giga al minuto (file non compresso) a 350 mb al minuto.
– i buffer e i supporti su cui salvare i girati sono più parchi di richieste e quindi più economici da realizzare
– le macchine sono più agili e compatte, quindi permettono l’uso di camere anche in situazioni molto costrette e rischiose.
– si è teoricamente “democratizzato” la produzione di filmati di qualità più “cinematografica”, per chi il knowhow su come usarle.

La camera lavora in FULLHD, ma come?

MINOLTA DIGITAL CAMERAOra vanno tanto di moda le HDSLR, perchè si dice che abbiano “l’effetto cinema” inside (ne parleremo in futuro di questa illusione), si riprende in FULLHD, teorico, ovvero il file che salviamo ha quel formato, ma a seconda delle macchine il sensore cattura in modo diverso le immagini, più o meno bene, più meno dettagliate e/o nitide.

Essendo una persona pratica non citerò una o l’altra marca, ma le tecnologie usate, come funzionano e quali sono i risultati in funzione del nostro scopo: avere immagini migliori.

Le HDSLR sono usate perchè sono dotate sensori più grandi delle classiche telecamere, quindi offrono immagini più luminose a parità di lente, DOF più comprimibile per staccare i soggetti dallo sfondo, un contrasto minore che aiuta la postproduzione.

Il vantaggio del sensore grande è un difetto per altri motivi, perchè il sensore CMOS soffre di un difetto chiamato rolling shutter, quindi più è grande il sensore e più si accentua il difetto nelle riprese in movimento, soprattutto sui movimenti circolari.


In questo video è possibile vedere come il rolling shutter alteri gli elementi in rotazione.


in questo video è possibile vedere il confronto tra il rolling shutter lineare tra due sensori diversi (aps-c e FullFrame).
Da notare come a parità di movimento più è grande il sensore (full frame) più i palazzi si inclinano e sembrano fatti di gelatina in movimento.

Il rolling shutter è parzialmente corregibile in post (quello lineare) mentre per quello circolare si può sperare nei miracoli…

Quando è troppo…

Altro problema non banale di usare sensori fotografici è la scalatura… perchè non abbiamo i pixel del fullHD, ne abbiamo un sacco in più… il fullHD è circa 2 mpixel, sulle HDSLR quando va male sono 16, il che non è sempre un vantaggio…

Le HDSLR utilizzano principalmente due tecniche di scalatura dell’immagine : line skipping e pixel binning.

Line Skipping

Il line skipping è la tecnica più vecchia, che oggi dovrebbe essere considerata obsoleta, ma quando naque 6 anni fà era gestibile.
Come funziona?

line_skipping

Semplice, abbiamo 4000 linee? ce ne bastano solo 1080? va bene allora prendiamo una linea, ne scartiamo un certo numero, poi ne prendiamo un’altra e via così fino alla fine del sensore. Naturalmente tenendo conto della struttura del sensore di Bayer, quindi come potete vedere nell’immagine laterale le informazioni catturate rispetto al sensore originale sono decisamente poche e ben distanziate.. che porta diversi problemi.


Vantaggi
:
– veloce
– semplice da effettuare
– non richiede potenza processore e rapido da gestire nel salvataggio

Svantaggi
:
– prendendo solo una parte delle informazioni si perde definizione
– si hanno artefatti come aliasing (seghettature sulle immagini)
– moires (causato dal campionamento causale delle linee)
– flickering delle linee sottili (perchè sono viste nelle linee catturate in alcuni fotogrammi e in altri no)

 

 

Pixel Binning

bloom

La seconda tecnica è il Pixel binning, è più efficace perchè usa tutti i pixel del sensore, non scarta nulla, e per creare i filmati fa un downsampling di tutte le informazioni.

In questo modo evita TUTTI i problemi del line skipping, senza introdurre altri problemi.

Questa tecnica è una introduzione recente nelle HDSLR e applicata solo da alcune case produttrici perchè richiede un processore interno alla camera molto più potente, buffer più grandi per gestire tutto il flusso informazioni e la successiva campionatura per il formato FullHD.

 

 

 

Il campionamento colore, cos’è e perchè ci preoccupa?

Le macchine professionali campionano le informazioni colore con il campionamento definito 4:4:4, ovvero per ogni gruppo di pixel si catturano e registrano tutte le informazioni colore e luminosità. Le macchine prosumer lavorano con un campionamento colore inferiore, dal 4:2:2 al 4:2:0. Il campionamento colore inferiore, spesso non è percepibile sul filmato originale, ma se girato nei limiti della qualità registrabile, o se viene pesantemente postprodotto può mostrare i suoi limiti e/o una maggior limitazione nella sua lavorabilità.

Senza annoiare con troppi concetti tecnici, le tre cifre fanno riferimento la prima alla luminanza del filmato, quindi ogni informazione di luminosità dei pixel viene campionata e catturata, le seconde due cifre fanno riferimento al campionamento del blu e del rosso. Nell’immagine sottostante vedete una rappresentazione grafica di tale campionamento.850px-Chroma_subsampling_ratios.svgquindi abbiamo una portante più stabile e dettagliata nella luminanza, mentre se dobbiamo manipolare il colore sul blu e sul rosso abbiamo meno informazioni, il che si può trasformare in artefatti o difetti sul filmato finale.
Attenzione al verbo usato, il condizionale, perchè non è detto che il filmato, se trattato con cautela, e correttamente, generi difetti o problemi. Sicuramente un filmato campionato in origine a 4:2:0 fornirà un livello di manipolabilità inferiore ad un filmato 4:4:4. Ma questo non è un limite, perchè nei film sul grande schermo si usano contributi e materiali da diverse fonti, spesso le pubblicità prima dei film sono girate in fullhd, in tanti formati diversi, e non sempre si notano le differenze.

Concludendo

Quindi noi abbiamo degli strumenti che registrano dei filmati 1920 x 1080, ma non abbiamo la conferma che abbiano catturato realmente quella griglia di informazioni, anzi nella maggior parte dei casi abbiamo la certezza che ne hanno catturato solo una minima parte di quelli che ci servono, sia a livello di definizione che di colore.
Per questo motivo ho scritto che il formato FullHD è si molto vicino a livello matematico a quello del formato cinematografico, ma non è detto che siano caratteristiche sufficienti per avere una immagine pronta per il grande schermo.
Senza fasciarsi la testa e scartare tutti gli strumenti a priori, ricordiamo come ci siano molti film girati con mezzi più umili come la pellicola 16 mm, oppure film più recenti girati in dvcam (28 giorni dopo, di danny boyle). E in tanti blockbusters ci sono molte sequenze girate con HDSLR, ma vi sfido ad inviduarle in mezzo agli altri stacchi. Quindi si può riprendere e lavorando con cura i propri filmati portarli sul grande schermo, ma da qui a dire che siano la stessa cosa che usare macchine da presa professionali …
Buona luce a tutti!

 


Powered by WordPress & Theme by Anders Norén

error: Content is protected !!