Tutto è possibile

Autore: carlomacchiavello Pagina 23 di 39

Di Digital intermediate un must per i corretti workflow di editing e post

Storia dei software di editing

Fin dalla preistoria dei programmi di montaggio c’è sempre stato il problema di gestire il flusso video, in primis per questioni di performance, perché i dati di una pellicola non erano gestibili in tempo reale dai computer degli anni 80, e quindi si lavorava con il concetto dell’Offline, ovvero si creava una copia in bassa qualità del girato, si montava la bassa qualità, poi veniva generata una lista di tagli, e una persona dedicata tagliava e rimontava la pellicola alla vecchia maniera, in moviola con scotch e taglierina. Nel caso del video lo stesso discorso avveniva esportando una EDL (edit decision List) compatibile con le centraline dell’epoca e il video veniva nuovamente montato da zero ripartendo dai nastri.

I primi sistemi di montaggio software utilizzavano il nastro come sistema di archiviazione dati, poi negli anni 80 apparve una evoluzione chiamata EditDroid, fatta creare da un tizio barbuto per montare le sue produzioncine, dato che non era soddisfatto della bassa qualità dell’offline su nastro, Edit Droid era un sistema che utilizzava il Laserdisk come supporto, per cui il computer in realtime leggeva e saltava da un laserdisk all’altro (c’erano più lettori in linea) in modo rapido e con una buona qualità rispetto al nastro, con la soddisfazione del personaggio in questione e il suo amico che girava sempre con il cappello da baseball calcato sulla testa, i due strani personaggi che insistevano tanto sulla qualità e sul portare il montaggio ad un livello maggiore erano Lucas e Spielberg, che erano sicuri della rivoluzione in corso.

Negli anni 90 nacque Avid, il primo sistema di massa per il montaggio Offline, dove anche se si montava materiale in bassa qualità, una finestra da 320*200 pixel, con una compressione molto alta, era un modo rivoluzionario rispetto ai precedenti sistemi perché non richiedeva tutto lo spazio per i lettori dei laserdisk stile EditDroid, aveva una compressione variabile (in un’epoca in cui 120 MEGA di hard disk costavano quanto 5.000 euro di oggi, quindi era fondamentale ottimizzare lo spazio), permetteva di lavorare con strumenti più evoluti rispetto ai precedenti.

Fin dalla sua nascita Avid basò il suo flusso di lavoro su il codec DI Avid, ovvero il materiale originale era convertito in un formato più adatto a lavorare il video, pur mantenendo le informazioni come codici di tempo per il montaggio finale da centraline, codici pellicola per un taglio preciso, strumenti più vicini a quella che era la mentalità dell’epoca di montatori video e cinema.

Con il passare del tempo questo codec di lavorazione si è evoluto fino all’attuale DnxHR che supporta una risoluzione spaziale virtualmente infinita, e può essere codificato in qualità 4:4:4 per essere non solo un codec off-line a codec on-line.

Facciamo un salto in avanti di qualche anno, nascono diversi software di montaggio video e ogni marchio svilupperà il proprio codec di lavoro, che nel tempo si sono evoluti, da codec offline, quindi di bassa qualità, ma alta compressione al principio opposto ovvero un codec DI, Digital Intermediate.

Cos’è il codec DI?

Un codec DI, Digital intermediate è un codec di lavorazione che nasce per essere il modo migliore di gestire il materiale audio video che abbiamo realizzato, un Di nasce per essere :

  • un codec di altissima qualità e livello visivo
  • leggero da usare, leggere e scrivere su qualunque programma
  • supportare profondità colore anche maggiore del file di partenza per agevolare la correzione colore e preservare ogni tipo di informazione.
  • permettere ricompressioni (generazioni multiple) senza perdite apparenti

Anche se la maggior parte dei programmi di montaggio moderni prevedono la possibilità di usare i file nativi, in molte situazioni è molto più efficiente come velocità e qualità convertire i file in un codec DI per gestire meglio il materiale video.

Perchè usare un codec DI

per quanto il nostro sistema di editing sia potente, veloce, ottimizzato, arriveremo sempre al suo limite, o per quantità di tracce, effetti, o per filmati a crescente risoluzione e profondità colore (4k HDR), quindi è importante sapere che possiamo ottimizzare le capacità e potenzialità dei nostri computer sfruttando questo tipo di codec alternativo ai codec originali.
Una buona ragione per usare un codec DI?

  1. possibilità di editare e riprodurre correttamente video pesanti che la macchina non sarebbe in grado neanche di riprodurre
  2. possibilità di editare e manipolare in modo più rapido il video
  3. esportare in un formato non a perdita, ma che conservi la qualità originale senza occupare tutto lo spazio del non compresso
  4. poter usare un codec che non venga INTERPRETATO ma letto direttamente per evitare le strane problematiche che possono nascere con codec h264/5, Mpg di vario tipo etc etc
  5. usare un codec universalmente riconosciuto da ogni programma che acceda ai codec di sistema sui due principali sistemi operativi (MacOsX e Windows), senza doversi legare ad un programma o a un sistema, che in passato ha creato problematiche e incompatibilità di vario genere.

I miti sui DI

  1. Ma se converto in perdo qualità….
    la perdita di qualità è relativa alla conversione in formati a perdita, non con i DI che nascono esattamente per preservare e mantenere la qualità orginale.
    La conversione va fatta con software dedicati, mentre spesso la perdita di qualità si nota nell’uso di utility di dubbie origini e/o per uso amatoriale, che per convertire rapidamente usano scorciatoie di vario tipo per accelerare le lavorazioni e quindi scartano informazioni secondo loro non utili.
  2. Ma se converto con il codec DI xxx è più pesante…
    verissimo per il peso sul disco, al contrario sulla CPU, perchè un codec DI converte i frame da GOP (group of picture) in frame completi, per cui occuperà un maggior spazio sul disco, ma il processore sarà sollevato dai compiti di estrazione dei singoli frame ogni volta che si farà play, avanti, indietro, etc e quindi potrà dedicare i processi alla elaborazione e non alla semplice estrazione dei frame.
  3. Perdo tempo a convertire invece che usare direttamente…
    questo è il mito più ridicolo… le persone spesso vedono come tempo perso il tempo di copia e conversione in DI, ma non si accorgono di tutti i rallentamenti che avvengono quando si deve attendere le preview, il calcolo degli effetti, i tempi di analisi durante il montaggio. Usare un DI accelera tutti i processi di rendering e analisi, quindi il tempo di conversione si fa una volta, tutti i tempi di elaborazione durante il progetto vengono sollevati grazie al codec DI.
  4. Ma se poi non posso più leggere il codec XX su un’altra macchina?
    i codec DI nascono per la compatibilità, per cui TUTTI sono installabili GRATIS su ogni macchina windows e MacOsX, e spesso sono già integrati sulle suite dei maggiori prodotti di Editing e Post.
    Ad esempio Adobe e Blackmagic Design hanno acquisito i diritti per fornire di serie con i loro prodotti encoder e decoder per leggere senza installazioni aggiuntive Prores, Cineform, Avid dnxHD/HR, e per quanto riguarda BMD anche i codec GrassValley.
    Se per una qualunque ragione vogliamo visualizzare i file su una piattaforma che non ha questi software è possibile scaricare i codec free per vedere e codificare TUTTI questi codec sui software che leggono dal sistema le librerie dei codec sia sotto MacOsX che Windows, di recente il famoso player free VLC ha aggiunto tali codec nella lista dei decoder.
  5. Se il mio cliente non può installare codec?
    partiamo dal principio che di serie senza codec praticamente si può leggere poco o niente su qualunque sistema operativo, perchè persino l’mpg2 senza un lettore dvd software installato non si può leggere sotto windows perchè non hanno acquistato i diritti, stessa cosa sotto MacOsX che legge i dvd, ma non gli mpeg2 dai software se non ha lui stesso i codec, viene letto giusto l’h264 e poco più.
    Comunque il cliente mica deve vedere i file originali, e/o consegnare il master al cliente, il cliente riceverà il prodotto finito, che sarà un file compresso, non un DI.
    Se il cliente pretende di avere un master o il girato, dovrà anche avere i mezzi per leggerli correttamente… il concetto che non può installare codec non può riguardare la visione il materiale intermedio, e comunque potrà chiedere al reparto IT di installare i codec relativi dato che nessuno di essi offre problemi di compatibilità o rischi di sicurezza (la bufala del quicktime risale ad una versione di quasi 10 anni fà, del 2008, che Apple chiuse ai tempi, l’ultima release del QT per windows non ha nessun rischio di sicurezza).
  6. Qualcuno mi ha detto che è meglio lavorare con i file nativi
    quel qualcuno probabilmente intendeva non comprimere i dati ulteriormente convertendoli in formati a perdita, oppure quando si parla di file raw per la parte del montaggio, ma quando si lavora con quel tipo di dati o si ha un DiT che gestirà il workflow o si saprà bene cosa fare e quindi tutto questo discorso e questa domanda non sarà posta.

 


Come scegliere la lente per la ripresa, perchè sceglierla…

Due chiacchiere con una amica regista mi ha dato uno spunto per un articolo sulle lenti e sulle focali, su come andrebbero usate, e in questo caso il condizionale d’obbligo, perchè ci sono regole stilistiche, ma ci sono anche necessità pratiche, per cui … non amando le regole, preferisco fare una disanima più ampia, in modo da capire cosa succede quando si fanno le diverse scelte e quindi quale saranno le conseguenze sulle immagini.

Esistono tanti miti, tante regole, hanno riempito libri su libri su come si usano le lenti e le focali in fotografia e/o in cinematografia, ma spesso si tende a spargere le informazioni in troppe centinaia di pagine, e spesso le persone non sono interessate alla teoria, ma al risultato pratico.

Focale fissa o Zoom?

La prima scelta che di solito si deve affrontare è se prendere delle focali fisse o degli zoom, e le motivazioni sono molto semplici nella scelta.

La focale fissa offre i seguenti vantaggi:

  • maggior qualità ottica.
  • minor breathing durante il cambio di fuoco (ingresso di aria e leggero spostamento della lente durante il cambio di fuoco).
  • maggior luminosità a parità di fascia di prezzo degli zoom.
  • maggior robustezza in caso di maltrattamento delle lenti.
  • minor numero di lenti per comporre l’obiettivo quindi meno riflessi interni e meno problematiche di riflessi interiori.
  • maggior possibilità di essere tropicalizzato.

Offre un paio di svantaggi

  • essendo una focale fissa costringe l’acquisto di più lenti per coprire un certo range di ripresa.
  • cambiando le diverse lenti è possibile introdurre polvere e detriti all’interno della lente o sul sensore.
  • difficilmente posseggono sistemi di stabilizzazione per la ripresa video.
  • essendo a focale fissa, costringe a muovere la camera per cambiare inquadratura (il che non è necessariamente un difetto).

Gli zoom contenendo più focali al loro interno offrono diversi vantaggi :

  • cambiare la focale non richiede un cambio lente.
  • spesso hanno un buon livello di stabilizzazione per le riprese video.
  • nelle riprese più “run and gun” offrono il vantaggio di poter essere più versatili senza rischiare di far entrare polvere sul sensore.

Di contro ci possono essere degli svantaggi

  • gli zoom spesso offrono meno luminosità degli equivalenti fissi.
  • un buon zoom luminoso diventa molto costoso, anche 10 volte uno zoom normale.
  • spesso gli zoom se non sono cine, non sono parafocali (vedi fondo articolo).
  • gli zoom sono molto più pesanti degli equivalenti fissi.

La scelta dipende dalle proprie necessità e dal proprio budget.

La scelta delle lenti in funzione dell’angolo focale

L’angolo focale è l’angolo visivo che una certa lente è in grado di catturare, questo valore a parità di focale può cambiare, perchè a seconda che la lente sia calibrata dal sensore o no, può esserci il fattore di crop che altera l’angolo focale riducendolo.

Raramente ha senso ragionare con l’angolo focale, perchè comunque si inizierà a leggere equivalenze varie, che alterano la capacità visiva di catturare elementi della lente, ma non conosco nessuno che a occhio sappia dirmi l’angolo focale che gli serve, quindi… è una sega mentale pensare all’angolo focale nella scelta di una lente, mentre è molto più importante pensare alla lunghezza focale, soprattutto perchè nelle equivalenze delle pubblicità non vi dicono a quale serie di errori vi stanno portando.

La scelta delle lenti in funzione della lunghezza focale

La lunghezza focale esprime la distorsione prospettica di una lente in funzione della sua lunghezza, quindi se noi partiamo da un elemento neutro come 50mm, che viene chiamato normale perchè offre la distorsione prospettica dell’occhio umano, possiamo poi scendere o salire per dare maggior spazio o comprimere lo spazio ripreso.

In questa gif animata potete comprendere bene come il cambio di focale cambi completamente la percezione dello spazio, e col salire della focale lo sfondo sembri avvicinarsi al soggetto.
Qui sotto ho riassunto l’effetto delle focali base, poi in realtà a seconda che si usi uno zoom o altri fissi tutti i valori intermedi sono proporzionali come resa tra una focale e l’altra.

L’effetto delle diverse focali si divide in tre componenti :

La resa tridimensionale avviene sia in caso di ripresa statica, che in movimento.
Il movimento camera viene alterato dalla lunghezza focale, più è bassa la lunghezza focale, maggiore è la velocità percepita; maggiore è la lunghezza focale, minore è la velocità percepita nel movimento.
La profondità di campo è influenzata in modo inversamente proporzionale dalla lunghezza focale, minore è la lunghezza focale, maggiore è la profondità di campo, maggiore è la focale minore è la profondità di campo.

  • 14mm supergrandangolo che deforma lo spazio, accelera ogni movimento laterale, se usato per soggettive o piani sequenza offre una resa molto forte del movimento laterale.
  • 24mm grandangolo che offre maggior spazio e una deformazione della prospettiva.
  • 35mm angolo di ripresa maggiore ma non ci sono deformazioni apprezzabili.
  • 50/55mm normale stessa resa dell’occhio umano.
  • 85mm leggero schiacciamento delle profondità e i piani tendono a sembrare più vicini, ma grazie alla sfuocatura di campo permettono un distacco maggiore tra soggetto in pp e lo sfondo.
  • 100mm tele aumenta lo schiacciamento dei piani e lo stacco tra soggetto e primo piano.
  • 200mm tele più spinto, amplifica lo schiacciamento tra i piani, utile per dettagli o riprese che si capisca della ripresa da distanza.

Un 17 mm offre una distorsione doppia rispetto ad un 35mm, quindi andrebbe usato in funzione di un maggior spazio di azione, altrimenti l’ambiente e gli elementi tenderanno a distorcersi in modo vistoso, ma se abbiamo la necessità di catturare un angolo maggiore visivo saremo costretti a scegliere una lente in funzione dell’angolo invece che della resa prospettica.

Ci sono autori che amano il grandangolo, per la sua capacità di rendere grottesche le forme e distorcere la realtà, uno di questi è l’ex Monthy Python Terry Gilliam.

Un’altro amante della deformazione grottesca è il francese Jean-Pierre Jeunet, che ama le sue distorsioni portando molto vicina la camera ai soggetti distorcendo geometrie, visi, amplificando nella distorsione le emozioni degli attori.

Il recente premio Oscar Emmanuel Lubezki è un altro amante dei grandangolari spinti, in favore della maggior dinamicità che offrono, e contrariamente ai due precedenti autori che amano la distorsione, lui tende ad usarlo in ampi spazi per esaltare e amplificare lo spazio, dando una maggior sensazione di ariosità alle scene d’azione.

Altri autori, come Hitchcock, amano usare la terna classica dei fissi 35-50-85mm per raccontare le loro storie, ma zio Alfred non disdegnava gli zoom per lavorare più rapidamente (forte della sua lunga esperienza di produzione televisiva) e per ottenere effetti particolari come l’effetto Vertigo, che naque su sua richiesta.

Personalmente sono un pragmatico, conosco la resa di queste focali, aggiungo alla terna classica altre focali, scelgo focali sotto il 35mm solo in situazioni particolari, per necessità di ripresa, mentre mi piacciono le focali lunghe per schiacciare le prospettive, per catturare dettagli, o ottenere effetti particolari. Ma se ci troviamo in uno spazio ristretto e la storia richiede di raccontare nell’inquadratura più elementi si deve trovare il modo, o con giochi di specchi (Orson Welles insegna) oppure useremo una lente con una focale più corta del solito, per raccogliere ogni briciolo di elemento nell’inquadratura.

Lenti e zoom fotografici o Cine, quali sono le differenze?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Con l’avvento delle video dslr sono nate tante dicerie, miti e leggende su cosa sia meglio o peggio, il tutto mescolato da quel calderone che è il web 2.0.
Le lenti fotografiche sono nate per la fotografia, quindi con necessità di un certo tipo, anche se usate per il video non offrono esattamente lo stesso tipo di performance.

Le lenti fotografiche offrono un’ottima qualità di ripresa, ma non essendo nate per la ripresa continua spesso mancano delle seguenti caratteristiche :

  • breathing, le lenti fotografiche nella maggioranza soffrono di questo fenomeno che per lo spostamento delle lenti interne si dice che “respirino” ovvero entra aria all’interno delle lenti con l’aspirazione di eventuale polvere, ma soprattutto nei cambi di fuoco comporta un leggero movimento, che spesso è fastidioso nelle immagini. Nel caso di lenti fotografiche tropicalizzate il fenomeno è ridotto, ma non annullato, perchè lo spostamento lenti esiste comunque e quindi si evita solo l’ingresso della polvere.
  • diaframma cliccato, ovvero il diaframma può essere aperto e chiuso solo in passi ben precisi, mentre una lente cine prevede una manipolazione del diaframma continua, quindi possiamo impostare qualunque frazione di diaframma per trovare la corretta esposizione.
  • Parafocale, quando si lavora con gli zoom nella maggior parte delle lenti fotografiche cambiando la focale si deve correggere la messa a fuoco, quindi non si può fare una zoomata e mantenere il fuoco, mentre uno zoom cinematografico sarà parafocale, quindi una volta stabilito il fuoco, rimarrà su tutta la lunghezza focale dello zoom.
    (gli zoom broadcast delle telecamere sono normalmente parafocali e fanno parte di una categoria a parte)
  • robustezza, anche se prodotte con le migliori intenzioni, le lenti fotografiche nascono per scatto singolo e soprattutto essere trasportate con la macchina, quindi la leggerezza è un punto fondamentale, contro la robustezza. L’attacco PL cinema è un aggancio notevolmente più robusto rispetto a quello fotografico, per cui diventa evidente come la lente diventi un tutt’uno con il corpo macchina, in favore di cambi di fuoco e il resto.

Da questa breve disamina diventa evidente come lenti fotografiche e cinema abbiamo criteri di costruzione differenti, per destinazioni differenti.
Questo non significa che non si possano usare lenti fotografiche al posto di quelle cinema, considerato il diverso costo sia di acquisto che di noleggio, è il motivo per cui l’attacco EF (attacco canon fotografico) sia diffuso anche tra diverse cineprese digitali, la cosa importante è conoscere i limiti delle lenti fotografiche usandole in ripresa, e quindi aggirarli o lavorare entro i limiti e sfruttarne tutti i punti positivi.

Quale marchio è migliore?

questa è la domanda più semplice a cui rispondere: nessuno…

Ogni dop ha le sue preferenze, ogni lavoro può richiedere lenti diverse e risultati diversi, ogni regista ha un gusto particolare e quindi può richiedere lenti più “cliniche” o più “morbide”, con più o meno “carattere”, che diano atmosfera o sappiano catturare particolari sfumature di luce. Ci sono amanti delle Zeiss per la loro resa di contrasto mentre altri preferiscono le Cook, più morbide e meno asettiche, altri ancora lenti speciali come le Voitlander, e molte altre ancora, ognuno ha le sue preferenze e condivido le scelte.

La scelta è molto vasta, e oggi ancor di più si differenzia più di ieri, infatti molti produttori di lenti stanno “tornando indietro”, come Cooke che ha deciso di produrre le sue lenti anche senza il coating superficiale per proteggere le lenti dai flare delle luci e ottenere una resa più vician a quella della produzione delle Cook degli anni 60-70, perchè si sta tornando ad un certo gusto ottico visivo relativo a come la luce veniva massaggiata dalle lenti senza coating.

Ultron Voitlander 55mm 1.4 AR lente radioattiva degli anni 70 su sensore 4k moderno.

Io stesso a seconda delle situazioni ho preferenze diverse, sono amante delle lenti vintage, ma sono conscio dei loro limiti, quindi ho anche lenti moderne; mi piacciono i fissi, ma ho una coppia di zoom molto luminosi per la loro versatilità. In un mondo digitale dove teoricamente tutto è riproducibile, tornare al concetto che si possa gradire l’uso di un tipo di lente contro un’altro per puro gusto visivo personale ci permette di avere una certa libertà…
Se poi, come un certo Stanley volessimo crearci il nostro parco ottiche, perchè gradiamo quella particolare luce di quella lente prodotta nel piccolo stabilimento tedesco, su progetto di xxx con componenti tedeschi e giapponesi… beh… è il bello del mondo moderno, un giro su uno store moderno, un occhio ai mercatini di ebay su tutto il mondo e la nostra luce potrà essere… unica.


Esporre con i falsi colori

Quando si lavora in esterni, ma anche in interni, non sempre è facile giudicare l’esposizione dai monitor, un buon Dop userà un esposimetro per controllare l’esposizione, ma spesso può essere utile usare anche degli strumenti digitali per misurare la luce catturata dal sensore, strumenti come la zebra e l’istogramma aiutano a capire come è distribuita la luce nell’inquadratura, ma non sembra aiutano ad esporre.

Esistono diverse ragioni per usare i falsi colori con l’esposimetro, la prima è una questione di consistenza di esposizione tra una inquadratura e l’altra, per semplificare il montaggio e allo stesso tempo mantenere coerenza per post e color correction.
Un buon esposimetro aiuta a capire la differenza di luminosità tra luce e ombra, avere dei colori che indicano le differenze di esposizione nell’immagine, soprattutto potendo fare il play dell’inquadratura precedente e quindi fare il confronto, è un ottimo ausilio al lavoro corretto. Se ne può fare a meno, ma è molto molto comodo.

Registrando in Log e in Raw la curve di cattura delle informazioni è differente rispetto al segnale in 709, per questa ragione è molto importante usare questa tecnica di analisi dell’immagine, in modo da esporre nel modo corretto e sfruttare allo stesso tempo tutta la gamma dinamica disponibile. Quando si lavora con i falsi colori è fondamentale visualizzare in Log, ed eventualmente usare una LUT per visualizzare l’immagine nel monitor corretta.

Da diverso tempo le camere e molti monitor offrono la mappatura con falsi colori per capire come sono esposte le diverse aeree dell’immagine, dove la luminosità viene mappata su colori differenti e quindi abilitandola è facile capire se stiamo esponendo in modo corretto o no.

In questa immagine è possibile vedere la gamma dei colori dal buio a sinistra fino alla luce piena a destra. Da una rapida analisi possiamo vedere come una buona immagine dovrebbe apparire tra il grigio scuro e il giallo appena accennato, per evitare ombre troppo profonde da generare troppo rumore, e il rosso del bianco completamente clippato.

Questo esempio mostra due esposizioni diverse, che a prima vista sono poco differenti a monitor, ma con i falsi colori è semplice capire cosa è sottoesposto.
L’immagine di sinistra mostra il blu nelle foglie, il che evidenzia che è al di sotto dell’ombra scura, ma è sottoesposta, mentre il grigio scuro è ancora in un range più che utilizzabile, e le parti verdi indicano che abbiamo un buon dettaglio (18% di grigio), sulle alte luci abbiamo un giallo miscelato con il grigio chiaro, quindi sono alte luci perfettamente recuperabile e piene di dettaglio.
L’immagine di destra mostra la scatola colorata, le foglie tra rosa – grigio e verde, quindi abbiamo una esposizione corretta sulle foglie, sull’immagine in generale. Ma la finestra che è tra il giallo (limite delle alte luci) e il rosso, quindi le alte luci sono bruciate.

Ora come è semplice dedurre, la immagine perfetta oscilla tra il grigio scuro e il grigio chiaro, quando vediamo blu stiamo perdendo nelle ombre, quando vediamo giallo stiamo perdendo sulle alte luci, se abbiamo viola abbiamo ombre chiuse a nero, se abbiamo rosso abbiamo bruciato le alte luci. Naturalmente dipende dall’immagine, perchè se stiamo realizzando una immagine noir è normale avere una parte dell’immagine viola perchè completamente nera, ma useremo le altre tonalità per illuminare correttamente le parti in luce.

Se vogliamo illuminare in modo bilanciato una scena, basterà guardare attraverso il monitor e compensare illuminando quello che è blu, o proteggendo quello che diventa giallo.

Perchè è importante isolare correttamente le aree da illuminare? Perchè sottoesponendo una parte che dovrebbe essere in luce andiamo a generare noise, e alle volte più di quanto si possa immaginare. Esporre l’area in verde o in grigio scuro da questa differenza che vedete sotto (a sinistra grigio scuro, a destra verde). la differenza a livello di immagini è tra lo stop e 3/4 di stop che spesso si potrebbe non vedere, ma in realtà quando si osserva con i falsi colori si vede la differenza, e alla fine dello shooting, la differenza si sente.


Supporti fisici, questa illusione

mold-8mm-film-reelsOgni tanto sentendo parlare di supporti fisici mi viene da ridere, più che altro perché continuano ad esserci miti e leggende che tanti continuano a perseguire… quindi facciamo un poco di chiarezza sui miti, perché sono nati, e soprattutto perché molti restano dei miti creati dall’ignoranza e dalla rapporto superficiale con gli elementi.

Mito 1 il negativo è immortale

Troppo spesso quando si parla di fotografia digitale sento dire “eh con la fotografia digitale è tutto volante, almeno con i negativi avevi qualcosa in mano che resta, con i file non si sa mai…”.

Sono le stesse persone quando gli chiedi come conservano i negativi, che tipo di sviluppo hanno subito etc rispondono vagamente, e quindi so che i loro negativi sono :

  • in un cassetto appiccicati tra di loro
  • l’emulsione che lentamente si altera perché sviluppata con acidi a sviluppo rapido
  • con colori che si sono scostati perché probabilmente non conservavano i rullini prima dello sviluppo in frigo
  • non sanno che esiste una data di scadenza dei rullini
  • se va bene non hanno troppe muffe attaccate sopra che mangiano lentamente i loro ricordi…

Il negativo fotografico può sopravvivere nel tempo  :

  1. se è un prodotto di buona qualità di partenza, non un negativo commerciale, che pensato per la massa può avere difetti intrinsechi della produzione di massa
  2. se è stato conservato correttamente durante trasporto e stoccaggio, senza essere esposto a sbalzi termici estremi
  3. se è stato se esposto correttamente entro la sua data di durata
  4. se è stato sviluppato correttamente, con acidi a sviluppo lento, non quelli dello sviluppo in un’ora dai laboratori per i frettolosi, che accelerando lo sviluppo alteravano l’emulsione riducendo la sua durata nel tempo
  5. se dopo esser stato sviluppato, stampato è stato conservato in ambiente buio, asciutto magari con i sacchetti di gel al silicone
  6. se non è stato conservato a contatto con altri negativi (la classica busta di carta fotografica con la taschina dove mettere tutti i negativi insieme era uno dei luoghi peggiori dove conservarli, il modo migliore per far aderire l’emulsioni di un negativo con l’altro, danneggiando entrambi per sempre
  7. se ogni tanto si controllano e si permette loro di prendere aria, evitando che l’emulsione si incolli ai contenitori a striscia del negativo

quindi tutti quelli che hanno decine di centinaia di negativi dimenticati nello scatolone del garage, nei cassetti mai aperti da trent’anni, non preoccupatevi, i vostri ricordi restano nella vostra mente, ma i negativi… auguri

i difetti del negativo fisico?

  • il tempo altera sempre e comunque i negativi prodotti dagli anni 50 in poi, quindi comunque sta decadendo anche conservato al meglio
  • gli acidi usati per lo sviluppo intaccano i colori in modo non lineare e quindi i vostri colori cambieranno nel tempo
  • la duplicazione dei negativi tramite metodo fisico comunque provocano un decadimento della qualità ad ogni copia, perdita di nitidezza e aumento del contrasto
  • l’archiviazione comporta necessità di spazio, ben gestito, con caratteristiche ben precise
  • l’archiviazione e la ricerca nei negativi fisici prevede una organizzazione molto stretta e precisa
  • un problema di archiviazione errata, o un danno ad uno di essi da parte di muffe etc propaga rapidamente il problema agli altri elementi presenti nello stesso luogo

i difetti del negativo digitale?

  • bisogna archiviarlo e sapere fare copia e incolla dei file, ma se non si conoscono queste informazioni basilari nell’uso di un computer, forse il problema di archiviare i negativi digitali è l’ultimo che vi deve preoccupare.
  • un danno ad un supporto (hard disk, DVD, cd) rischia di essere un danno a diversi negativi in un sol colpo (come accade se si rovinano i negativi fisici se danneggiamo, bagnando una scatola etc)
  • bisogna essere organizzati per archiviare i diversi file (come si deve fare con quelli fisici, tenerli tutti insieme in uno scatolone non è organizzarli)

I vantaggi del negativo analogico ?

  • fino ad un certo periodo storico era il modo migliore per catturare una certa quantità di dettaglio fisico nello scatto fotografico
  • ad oggi 2016 i negativi fotografici migliori offrono una gamma dinamica di cattura fino a 18 stop di latitudine di posa, e si possono mettere anche in macchine fotografiche economiche, mentre una camera digitale con quella gamma dinamica ha un costo decisamente impegnativo

I vantaggi del negativo digitale?

  • posso creare più copie di sicurezza IDENTICHE senza perdite di qualità.
  • più passa il tempo migliori saranno i negativi digitali prodotti perché le tecnologie dei sensori migliorano costantemente
  • più passa il tempo meglio si possono sviluppare i negativi digitali perché anche gli algoritmi di sviluppo migliorano e ottimizzano le tecniche di estrazione dei dettaglio dalle matrici di Bayer
  • è possibile distribuire un negativo digitale senza timore di perdere l’originale come accade con il negativo fisico
  • nello spazio di un card SD da 128 gb posso archiviare circa 10.000 negativi digitali (di varie dimensioni), con database per ricercare e gestire al meglio il materiale, mentre con negativi fisici lo spazio occupato è estremamente più ampio e impegnativo.
  • da uno stesso negativo posso sviluppare e creare più fotografie in modo indipendente, senza avere necessità di camere oscure, strumenti per la stampa, acidi etc.

Ognuno di noi ha le sue preferenze, ha i suoi gusti, e personalmente avendo un archivio digitale di oltre 60.000 fotografie, ma anche un archivio di negativi fisici di oltre 20.000 strisce, decisamente sono felice del fatto che i negativi digitali sono più semplici da conservare e gestire.

Mito 2 i cd e i DVD sono immortali

Ogni epoca ha la sua mitologia, per molti utilizzatori di computer, più o meno preparati, masterizzare un dvd ha ancora l’alone dell’immortalità, peccato che non è mai stato così…

Un cd/dvd industriale, ovvero quello che acquistiamo con un film, un documentario o un concerto viene realizzato con laser industriali che perforano completamente un supporto metallico che viene poi racchiuso in due gusci di plastica trasparente dura. Da test di invecchiamento accelerato è stato dedotto che un dvd prodotto con questo principio ha una vita di circa 100 anni, quindi superiore a noi… ma mica tutti i dvd industriali sono prodotti con questo principio, solo quelli di fascia più alta.

Oggi esistono molti dvd che vengono prodotti con un solo strato di plastica trasparente sotto il supporto masterizzato, e viene stampata la copertina direttamente sul supporto superiore, il che rende molto più fragile il dvd.

Alla nascita del Dvd nei primi anni 90, quindi un quarto di secolo fà, i dvd erano prodotti in camere sterili, poi col tempo hanno iniziato ad economizzare sulla produzione, causando dei possibili rischi di contaminazione dei supporti, come accade con molti dvd industriali… che presentano cambiamenti di colore del supporto da argento a giallo, muffe che si formano sotto il supporto rendendolo illeggibile, opacizzazioni varie del supporto che danneggiano i prodotti di livello industriale.

Cosa significa questo? che se i dvd masterizzati in modo industriale sono già delicati e non eterni, aggiungiamo altri fattori dati dalla masterizzazione casalinga :

  • il dvd masterizzabile ha un supporto organico non stabile, ma sensibile alla temperatura, in particolare al raggio laser che per masterizzarlo crea col calore una deformazione sulla superficie (volgarmente diciamo un bozzo), che verrà poi letto dai laser come 0 o 1 a seconda di come sarà realizzato il bozzo.
    Questo supporto che non è stabile come il supporto industriale tende a perdere parte di queste deformazioni, perché è un materiale che ha “memoria” della sua forma originale.
  • il supporto registrabile è molto più sensibile a UV, temperatura e umidità quindi basta poco per danneggiare i dati presenti sul supporto
  • il supporto registrabile ormai è realizzato con materiali di qualità infima, ed è veramente difficile comprare un prodotto di qualità, perché anche i grandi marchi non producono da anni i supporti ma sub appaltano a fabbriche indiane e cinesi la produzione e poi fanno marchiare da loro, spesso alternando le fabbriche.
    L’unico modo per capire la provenienza di un supporto è leggere il production code tramite software dei dvd acquistati, non prima dell’acquisto.
    Attualmente una azienda giapponese produce dvd oltre che per gli altri marchi anche secondo il loro marchio, Taiyo Yuden, e sono prodotti di buona qualità, per il resto tutti i marchi che in passato potevo utilizzare sono diventati inaffidabili, mostrando limiti e problemi di ogni tipo …
  • la protezione plastica inferiore molto più sottile e morbida di quella dei dvd industriali, quindi è più facile graffiare i dischi e leggerli peggio o non leggerli affatto
  • i masterizzatori hanno velocità sempre più alte, il che non è MAI un vantaggio, perché maggiore è la velocità di scrittura e maggiore è il rapporto segnale rumore introdotto, causando più possibili errori di scrittura, e quindi nella rilettura i dischi saranno sempre più limitati nella durata e delicati, questo rapporto di errore in lettura aumenta col tempo, perchè il supporto tende per effetto memoria a tornare alla forma originale, per cui più lentamente abbiamo masterizzato un dvd, più probabilità di durata nel tempo abbiamo.
  • i lettori dvd da tavolo e da computer sono sempre più economici e di basso livello, per cui anche se i dischi sono di qualità media c’è il rischio che sia meno facile leggere tali dischi dai computer più moderni. Posseggo un dvd recorder LG che legge perfettamente i dvd masterizzati ma ha difficoltà con più di 700 dvd originali che posseggo…
    N.B. i lettori bluray necessitando di laser più precisi e potenti hanno il vantaggio di leggere meglio anche i dvd più vecchi.

Quindi in conclusione: i cd/dvd industriali più recenti soffrono della produzione economica e possono danneggiarsi nel tempo, i cd/dvd masterizzati in modo casalingo sono proporzionalmente durevoli e robusti alla loro età, più sono vecchi e costosi i supporti più saranno durevoli.

Se il primo cd che ho masterizzato costava 52.000 lire, ovvero quasi 100 euro di oggi, e dopo ventidue anni funziona perfettamente, non posso dire altrettanto di dvd di marca nota, una volta ultra affidabile, pagati 26 centesimi di euro, che dopo 6 mesi metà dei file salvati sono illeggibili dallo stesso prodotto che li ha masterizzati… pur conservato perfettamente, pur masterizzato a bassa velocità, pur evitando contatto diretto con la superficie, etc etc…

Mito 3 gli hard disk sono indistruttibili

La maggior parte delle persone che conosco hanno un computer portatile, dove conservano l’unica copia dei loro dati, fiduciosi che il loro computer sia eterno… che soprattutto il loro hard disk sia eterno… cosa che da tempo non può essere più vera.

Un hard disk è un contenitore metallico che contiene dei piatti metallici con un braccio che levitando vicino alla superficie altera magneticamente il contenuto.
Anche se apparentemente sembra essere un prodotto molto robusto in realtà l’hard disk meccanico è molto fragile, e bastano poche sollecitazioni meccaniche per danneggiare uno dei componenti in modo più o meno definitivo, portando alla perdita di una parte consistente dei dati.

I dischi da 3.5 pollici sono nati per rimanere dentro i computer fissi, come tali qualunque urto comporta un rischio alto di danneggiamento del braccio o di danneggiamento ai dischi stessi, con perdita dei dati. I dischi da 2.5 pollici (quelli più piccoli da portatile) sono più robusti e soprattutto hanno meccanismi di sicurezza che in situazione di riposo, in caso di interruzione di corrente, la maggior parte dei dischi ritira il braccio dalla posizione operativa alla posizione di riposo per ridurre il rischio di danni del braccio e dei piatti.

Col tempo i dischi meccanici sono diventati sempre più capienti, e allo stesso tempo economici, ma questo vuol dire che ogni piatto è più denso come quantità di dati registrabili, quindi un danno minimo ad un piatto significa un danno sempre più esteso ed ampio al disco, esempio banale, se il mio vecchio maxtor da 160 gb aveva 4 dischi da 40 gb l’uno il massimo danno di un disco era di 40gb, i miei nuovi dischi da 8 tb contengono solo 4 dischi da 2tb l’uno, quindi un danno ad un disco significa perdere 2tb di dati, cioè 50 volte i dati che avrei perso in un danno al vecchio disco.

Molte persone tendono ad usare dischi esterni e portarli in giro, questo aggiunge sollecitazioni inutili ai dischi aggiungendo rischi. I dischi da 2.5 pollici sono più orientati al trasporto, mentre i dischi da 3,5 pollici sono più a rischio, il fatto che siano messi dentro dei box non significa che siano sempre e agilmente trasportabili. Alcuni box come la fascia alta di Lacie ha degli ammortizzatori in neoprene all’interno del box, in modo che in caso di caduto questi assorbano buona parte della forza cinetica non trasmettendola al disco.

Comunque la maggior parte degli hard disk da 3.5 pollici subiscono danni non riparabili e perdita di dati da una caduta di meno di un metro, ovvero cade dal tavolo o dalla scrivania…

[update 18 giugno 2018] Seagate 7200.11 firmware sd15… un nome che farà tremare i polsi di Seagate, se fate una ricerca on line troverete migliaia di casi in cui i dischi da un momento all’altro spariscono, ovvero si mette in stato di busy, e non viene più visto dal bios del computer, tutti i dati persi…. apparentemente perchè esiste un kit disponibile anche su Amazon, il che vi da l’idea della portata del problema, per connettere l’elettronica ad un controller rs232 (preistoria informatica) e riprogrammare via codici esadecimali il disco, poi forse riparte e recuperate i dati o al max il disco….

Mito 4 le chiavette usb, le schede SD,CF etc sono indistruttibili

Ogni epoca ha la sua mitologia, per molti utilizzatori di computer le chiavette usb sono per qualche ragione indistruttibili… mah… teoricamente sono prodotti che possono sopportare forti scariche di corrente, essere bagnate e se lasciate asciugare continuare a funzionare, quindi un buon supporto … MA…
Se pensate che una chiavetta di qualità da 60 euro abbia lo stesso tipo di memorie a stato solido di quella da 8 euro, se pensate che basti staccarla dal computer, e fregarsene di quel messaggio “il dispositivo xx è stato rimosso prima che il sistema lo espellesse”, se pensate che quando non viene riconosciuta sia bene sforzarla spingendo bene dentro la porta USb (danneggiando sia porta che la chiavetta), forse forse non avete ben chiaro che tipo di uso si deve fare di un dispositivo a stato solido.

Inoltre il problema più grande delle memorie a stato solido è che se parte per una qualunque ragione una cella (danno meccanico, elettrico, difetto produttivo) non è come nelle memorie ad archiviazione magnetica, il danno si propaga velocemente e spesso corrompe dati nelle celle vicino, per cui una volta che il supporto inizia a dare problemi diventa completamente inutilizzabile, perchè diventa inaffidabile.

Quando siete fortunati la chiavetta diventa in sola lettura, altrimenti si corrompono i dati e bon, la chiavetta non è più utilizzabile.

Troppo spesso le chiavette vengono usate con superficialità, si attaccano ad un computer non protetto (virus e problemi varii, ma risolvibili), poi si staccano senza espellerle e si collegano a tv, a box digitali, a macchine per l’ecografia, tomografie etc… tutti prodotti che non espellono il supporto e spesso le apparecchiature mediche hanno sulle porte usb degli scarichi di elettricità statica a bassissimo livello, che portano danni alle chiavette.

Lo stesso discorso vale per le schede di memoria, per telefoni e macchine fotografiche, spesso sono usate con superficialità, una volta i rullini si conservavano correttamente in frigo, si montavano al buio, si riavvolgevano correttamente, si estraevano e conservavano dentro i loro cilindretti prima dello sviluppo. Oggi vedo card che sono sbattute dentro e fuori alle macchine fotografiche, messe dentro lettori da 2 soldi, collegate a computer o sistemi non protetti, mai smontate quando estratte, estratte a macchina accesa.. e quindi possono avere problemi, anche se… tranne per le card tarocche, ovvero card non originali, ma brutte copie delle originali non ho mai perso un dato dalle card Sd, mentre ho un mezzo barattolo pieno di chiavette usb danneggiate di amici da cui ho recuperato dati o proprio messe li a monito per chi tratta male i propri dati.

Conclusioni

tutto questo per dire che nulla è eterno, e sta a noi trattar bene i nostri dati, preoccuparci di fare dei backup, usare i prodotti bene, avere quelle due nozioni in croce su come proteggere le nostre fotografie, i nostri video, i nostri dati…

se invece fate parte di quella massa di persone che al massimo ci copiano dei film o musica pirata, che non pensano che sia importante conservare le proprie foto perché tanto le hanno (in bassa qualità) su Facebook o il video su Youtube, beh… avete la mia invidia, perché siete più sereni di me e non avete il problema di conservare il frutto del vostro lavoro di animazione, fotografia, video etc ;-D

 


Ripetere con me : la magia non esiste, la magia non esiste, devo lavorare per ottenere un risultato

Il titolo ironico di questo post è rivolto alle migliaia di illusioni create dal marketing, di ogni tipo e forma quando si deve risolvere un problema, e si cerca l’automatismo, la soluzione che magicamente faccia il nostro lavoro manuale e sia di qualità eccelsa, oltre che immediato…

Con questo post potrei descrivere un milione di situazioni, ma oggi parliamo di una problematica comune a tutti coloro che lavorano con le immagini, statiche o in movimento, ovvero la conformità.

Spesso nella produzione di uno shooting fotografico la luce può cambiare, soprattutto in esterni con luce naturale, e si deve cercare di mantenere il più possibile allineati gli scatti tra di loro, anche se per scelta artistica si possono inserire scatti con colorimetrie differenti, mentre nel montaggio video la mancanza di coerenza delle immagini nei colori, nei contrasti, nella luminosità, o è una scelta estetica ben precisa collegata alla narrazione oppure diventa un elemento molto fastidioso e ogni stacco “non funziona” si sente che sono stati eseguiti in tempi diversi, con camere diverse, con luci diverse.

Il primo problema dell’allineamento delle diverse immagini è legato al fatto che normalmente non si hanno elementi di confronto diretto per allineare due inquadrature, fatte magari nello stesso momento, stessa camera, ma con lenti diverse e/o inclinazioni diverse (ricordo che basta una luce di taglio non protetta per cambiare nella maggior parte delle lenti il livello di contrasto). Il secondo problema nasce quando si hanno camere diverse, luci diverse, momenti diversi in cui sono catturate le diverse immagini e quindi la conformità richiede veramente fare una piccola magia.

Negli anni, con lo sviluppo della cattura digitale, elaborata o raw, sono state sviluppate diverse tabelle colore per la “neutralizzazione” delle immagini, in modo da avere un riferimento univoco attraverso le immagini, indipendentemente dal tipo di luce e catturate da sensori diversi.

Uno degli standard da diversi anni è la tabella Gretag, una tabella che contiene dei colori calibrati ben precisi che corrispondono ad una serie di tacche di dal bianco al nero per gestire correttamente l’esposizione di luce e ombra, una serie di tacche colore ben precise per definire la neutralità della luce, delle tacche relative agli incarnati per gestire la corretta resa dei diversi incarnati delle differenti etnie sotto la luce.

Su questo prodotto sono nati miti incredibili, da chi dice che automaticamente le camere si autosettino leggendo queste tabelle (una specie di super bilanciamento del bianco/nero e dei colori) a chi mitizza l’uso delle tabelle che fatta una volta la ripresa di quella poi con altrettanto mitiche funzioni e/o plugin esterne tutte si autoallineeranno come per magia, tipo l’inizio di BladeRunner con la navigazione 3d dentro la fotografia…

Catturando prima dello shooting questo tipo di riferimento è possibile semplificare alcuni processi operativi, ma questo tipo di strumento NON E’ una lampada magica che automaticamente farà allineare i colori e le luminosità delle diverse clip, serve prettamente a due operazioni molto importanti :

  1. neutralizzare completamente l’immagine per poter partire correttamente con la correzione colore
  2. avere un riferimento univoco nel momento in cui si devono regolare colori e illuminazione

Alcuni programmi, ad esempio Davinci Resolve, possiedono un sistema di analisi automatico delle diverse tabelle colore per poter leggere e aiutare la neutralizzazione dell’immagine tramite di essa, per cui se abbiamo una luce non neutra, alterazioni in qualche componente (ad esempio i led a bassa qualità cri che buttano verde dentro gli incarnati scuri) proverà a neutralizzare il tutto.

Naturalmente questo automatismo si basa sul concetto che la luce dovrebbe essere neutra e che la tabella sia correttamente esposta rispetto al resto della scena, quindi corregge di conseguenza.

Se prendiamo due riprese eseguite con due camere diverse, non allineerà la colorimetria delle due camere, non toccherà i contrasti in caso di esposizioni diverse, nè modificherà la struttura (contrasto di gamma delle immagini).

Questo semplice prodotto può far risparmiare settimane di lavoro in una produzione complessa e soprattutto migliorare notevolmente la qualità delle immagini e della correzione colore perchè offre dei riferimenti univoci.

Come si usa e cosa si deve fare per poter sfruttare al meglio questo tipo di strumento?

La Gretag prevede poche e semplici regole :

  1. Conservare la tabella (cartone, plastica o quello che comprate) al buio, lontana da calore e umidità.
  2. Utilizzarla in ogni singolo stacco che andrete a fare, la cosa più semplice è accoppiarla con il ciak, così si riducono gli oggetti in mano e siamo sicuri di non dimenticarla.
  3. Va posizionata davanti al viso dell’attore che si riprende o il soggetto che si inquadra, in modo che la stessa luce che colpisce la tabella sia la stessa del soggetto.
  4. Le luci e i riflettenti che andranno usati durante la scena dovranno già essere accesi da qualche tempo prima della ripresa della tabella, alcuni tipi di luci tendono a cambiare leggermente la colorimetria scaldandosi, nel dubbio si può mettere la tabella anche in coda alla scena.

 


Pagina 23 di 39

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!