Tutto è possibile

Autore: carlomacchiavello Pagina 29 di 39

FpS oggi, che scelgo?

Nel mondo del video e del cinema esistono degli Standard, con la S maiuscola, nati su ragionamenti e necessità tecniche ben precise, ma naturalmente ci sono tutte le varianti che nascono per banali ragioni economiche, che comportano problemi e mal di testa a non finire per chi deve utilizzare le attrezzature video e cinema adattandonsi alle “varianti di standard”…

Partiamo dalle basi, quali sono i Frame Rate corretti?

Il cinema nasce più di cento anni fà e superata la fase a manovella, in cui la velocità di ripresa e proiezione era in funzione di chi girava manualmente una ruota, si è stabilizzato sulla velocità di 24 fotogrammi al secondo. Questo valore è nato dalla necessità di trovare il giusto medio tra percepire fluidamente una immagine, e non consumare troppa pellicola (oggi troppi giga) nel riprende, e nel gestire poi il prodotto finale.

24 fotogrammi al secondo proiettati con un proiettore con otturatore (dopo capiremo il perchè di questa puntualizzazione), sono sufficienti per fornire informazioni al cervello umano del movimento continuo, se catturati correttamente.

Quando naque la televisione di doveva trovare un sistema per riprodurre le immagini, utilizzando un “pennello eletronico” che disegnava riga per riga le immagini; si trovò un sistema sufficientemente dettagliato e corretto con la scansione interlacciata. I primi esperimenti di trasmissione di immagine per scansione risalgono ad Alexander Bain tra il 1843 e il 1846 (si parliamo del 1800…), mentre la prima immagine live si deve a Georges Rignoux e A. Fournier a Parigi nel 1909.

200px-John_Logie_Baird,_1st_Image25 Marzo 1925, John Logie Baird fece la prima dimostrazione pubblica di trasmissione di  silhouette in movimento nel departimento di  Selfridge. a Londra.

Per l’epoca la performance del ventriloquo e attore Stooky Bill che parlava e si muoveva fu un passo storico per la trasmissione delle immagini.

Ora facciamo un salto in avanti fino all’origine delle attuali tecniche di creazione dell’immagine, ovvero al 1941 per il segnale in formato americano a 525 linee e il 1944 per il segnale in formato Europeo a 625 linee in Unione Sovietica.

video_modes_progressive_examplePer ottimizzare la banda di trasmissione delle immagini, la televisione nasce con una modalità chiamata interlacciata, ovvero quando vengono catturate le immagini ogni fotogramma viene catturato in due tempi diversi, ovvero per ogni fotogramma prima si catturano solo le linee pari dell’immagine, poi nell’istante successivo si catturano le dispari, poi le pari del fotogramma successivo, e così via.InterlaceScanTV

Questo fa si che i fotogrammi effettivamente si fondono insieme dando una illusione di maggior fluidità, ma in pratica si ottimizza il flusso dati perchvideo_modes_interlaced_exampleè tranne il primo frame, che è fatto di due semiquadri completi, in pratica, i successivi essendo composti dai semiquadri uno ereditato dal precedente, e uno dell’attuale, si cattura e si trasmettono metà delle informazioni dei fotogrammi.

Per disegnare correttamente queste informazioni si deve sincronizzare le diverse attrezzature di ripresa e trasmissione e dato che non esistevano all’epoca dei sistemi di condivisione di certi tipi di dati ad alta velocità si fece la scelta di usare la frequenza della corrente elettrica; per questo motivo sono nati i due standard televisivi con le seguenti caratteristiche :

Pal per Europa, Australia e paesi con corrente a 50 hrz.
Ntsc per America e Giappone con corretne a 60 Hrz.

Queste due diverse scansioni ha fatto si che i due standard trasmettano in due modi diversi :
Pal 50 hrz = 25 fotogrammi interlacciati (50 semiquadri) a 625 linee
Ntsc 60 hrz = 30 fotogrammi interlacciati (60 semiquadri a 525 linee).

Il Pal parte con le Linee Pari (Lower), e l’NTSC parte con le linee Dispari (Upper). Quindi sono due standard molto diversi.

Anche passando all’Alta definizione, si sono mantenute le caratteristiche originali di frequenza di fotogrammi, di ordine dei campi invertito, pur uniformando almeno il numero di linee verticali e orizzontali a 720 e 1080i.

Il numero di fotogrammi è rimasto invariato anche oggi con il digitale perchè anche se non esiste più un pennello elettronico per disegnare le immagini, i televisori hanno comunque degli schermi / pannelli che ridisegnano/aggiornano i fotogrammi con la stessa frequenza, legata alla corrente elettrica perchè lo standard NON PUO’ cambiare, dato che per legge la televisione pubblica (e quindi anche quella privata) deve essere fruita e vista correttamente da chiunque sul territorio italiano, anche con vecchi apparecchi di 50 anni fà. Ed essendo troppo costoso fare una doppia trasmissione di segnale (antico e moderno) siamo ancora legati ad un concetto antiquato di quasi cento anni fà…

Come fare le riprese?

in tutti i modi, compatibili per quello che sarà l’output.

In sintesi :
24 fotogrammi progressivi = cinema
25 fotogrammi interlacciati = Televisione Europa e Asia
30 fotogrammi interlacciati = Televisione America e Giappone

Se mescoliamo qualcosa, vedremo o da una parte o dall’altre dei difetti :

  • frame rate differente tra ripresa e riproduzione = saltini sul video
  • uso di interlacciatura diversa (upper invece di lower) = immagini che sembrano andare avanti e indietro
  • visione di materiale su dispositivo sbagliato = X

perchè all’ultima voce di elenco ho scritto X?

La maggior parte dei televisori Europei supportano la riproduzione (non la ricezione) anche di segnali NTSC a 30 fotogrammi, quindi potremmo anche vedere del materiale realizzato nel modo non Standard per la nostra area geografica, quindi il fatto che vediamo correttamente un dvd o un file non significa che sia standard. Per un periodo è esistito anche uno standard chiamato Pal60, ovvero codifica colore del Pal, ma la frequenza dell’NTSC.

Molti televisori hanno software di lettura e interpretazione delle immagini in movimento che compensano i difetti e gli errori di riproduzione dei filmati quindi potrebbero (condizionale) aver corretto alcune differenze tra standard in modo invisibile.

Quindi se vedo una cosa sbagliata sul computer e giusta sulla Tv è la tv che mi corregge il tutto, e il mio file è sbagliato?

Non è detto. Bisogna sempre considerare che noi utenti pal siamo sfigati, ovvero viviamo in un mondo video pal, 50 hrz, con video a 50hrz, ma vediamo su telefoni, tablet, monitor da computer a 60hrz, quindi vedere un filmato in riproduzione a 25 fotogrammi al secondo su questi dispositivi sarà sempre con interpretazione dei frame e potremmo vedere dei difetti di movimento che non sono presenti realmente nel filmato, ma creati dal player dei filmati…

Quindi se monto al computer come faccio a giudicare?

la risposta è semplice, come ogni montatore serio, l’unico modo per avere una risposta affidabile è vedere su un monitor VIDEO l’uscita del segnale, così che possiamo avere una risposta affidabile su un monitor Video che gira a 50 hrz, altrimenti ogni possibile errore di movimento può essere causato non dal filmato, ma dall’errato adattamento dei 25 fotogrammi al secondo con la scansione a 60 hrz del monitor.

Ma quando riprendo a X fotogrammi al secondo l’otturazione come deve cambiare ?

l’otturazione corretta è N fotogrammi al secondo x2.
Questo valore è nato da 100 anni di esperienza cinematografica dove si è compreso come una otturazione doppia rispetto alla velocità dei fotogrammi è il corretto valore per ottenere la scia di movimento (motion blur) sufficiente per dare l’illusione di continuità di movimento.
Un valore superiore crea un effetto stroboscopico, perchè annulla la sfuocatura di movimento, mentre un valore inferiore crea una sfuocatura di movimento troppo forte e quindi diventa tutta l’immagine troppo mossa.

Perchè allora posso cambiare l’otturazione nelle telecamere e nelle cineprese se devo usare questo valore fisso?

Nell’uso normale delle riprese, per una percezione corretta del movimento vige la regola del FpS x2, ma quando si devono fare effetti particolari, come fare i rallenty in postproduzione, si alza l’otturazione perchè altrimenti non è possibile ottenere determinati effetti o rese in postproduzione.
In casi particolari di riprese notturne con camera fissa, oppure in cui si ha bisogno di gestire movimenti molto veloci, si tende a scendere con l’otturatore, per sfuocare maggiormente e mantenere la fluidità di movimento pur veloce.

L’unica cosa a cui stare attenti sono le luci…. quando si lavora in un ambiente con corrente a frequenza X, le luci, i neon, i pannelli a led etc tendono a lavorare con la stessa frequenza, per cui se uso una frequenza diversa tra otturatore e corrente potrebbe apparire un fenomeno detto Flickering.

Ad esempio se giro in un ambiente 50 hz a 24p (tipico del cinema) c’è il rischio che si creino delle onde in ripresa, stessa cosa se giro a 30 in ambiente 50hz, per cui le diverse cineprese digitali hanno otturazioni speciali per quelle situazioni, mentre le dlsr e le telecamere più amatoriali non li hanno e quindi il risultato è un difetto visivo difficilmente eliminabile.

Se riprendo solo per il web cosa devo scegliere?

il web, lo streaming direttamente sui vari dispositivi lavora tutto con frequenza a 60hrz, quindi in quel caso si rompe la regola del pal e si gira a 30 fotogrammi al secondo PROGRESSIVI, perchè tutti questi dispositivi visualizzano i fotogrammi interi e non divisi per semiquadri e in questo particolare caso è FONDAMENTALE rispettare la regola del fps x 2, perchè ogni tipo di movimento troppo veloce se l’otturatore è più alto sarà scattoso e poco piacevole da vedere. Unica eccezione è relativa alle luci artificiali.

Quindi in conclusione?

Con la maggior parte dei televisori e monitor, nonostante gli 800/1000 mhz vantati, il segnale letto è sempre quello di un 24-25-30 e pochissimi monitor /tv possono leggere e riprodurre filmati a 50-60p reali, quindi riprendere a framerate superiore è utile SOLO per scopi di rallenty in post, non siamo in grado di visualizzarli realmente, il refresh superiore è relativo SOLO a frame generati dal televisore o dal monitor artificialmente, non letti dalla sorgente, e spesso in modo del tutto arbitrario alterando in modo vistoso e negativo il filmato visualizzato.

Serve realizzare un rallenty? massimi fps catturabili al giusto livello di otturazione

Non serve un rallenty?
24 = cinema
25 = emissione televisiva, monitor televisivo Pal (europa australia)
30 = emissione televisiva, monitor Ntsc (USA, Giappone), Computer e Mobile che hanno schermia 60hrz di refresh.

Ricordiamo solo che lavorando con luci artificiali non usare la stessa frequenza della corrente richiede attenzione al flickering di certe luci e ove possibile correggere la frequenza dell’otturazione per evitarlo.


Non premere rec finchè…

pergamena con elencoIn un mondo dove tutto va in velocità altissime è bene in certi momenti fare un salto a piè pari e fermarsi per controllare alcune cose, che dopo saranno un sacco di problemi, anche se spesso non ci si pensa.

In un mondo perfetto c’è un direttore di fotografia, un mondo di persone attente a tutto quello che succede, nel mondo normale, no, e se anche ci sono in mezzo a quel casino si possono commettere degli errori, anche pesanti.

Ho pensato che condividere l’elenco dei passi da controllare può essere utile a tante persone per cui…

Prima di premere rec è utile una specie di rito per essere tranquilli che poi si può correre senza troppi dubbi.

Carletto’s List
  1. tutti i dadi sono stretti?
    in un rig classico sono tanti i dadi (manopole) che si stringono ma si possono allentare, magari ripresa dopo ripresa, e rischiare di veder cadere parte dell’attrezzatura è una gran brutta esperienza
  2. i cavi sono connessi bene e legati col velcro?
    un cavo che si stacca, che balla facendo rumore e/o difetti, che slegandosi fa inciampare o impedisce un movimento è una gran brutta cosa.
  3. i parametri di ripresa sono corretti?
    FPS, Shutter, formato di ripresa, Iso, diaframma
  4. Le lenti e il sensore sono puliti?
    un puntino di polvere sul sensore diventa un’ombra scura a diaframmi più chiusi, su una lente con la luce contro diventa un punto chiaro, che da correggere in post diventano un costo non trascurabile
  5. La batteria è carica?
    Tra varie riprese, magari basse temperature, il rischio che proprio durante una ripresa la batteria ci abbandoni esiste, ed è meglio evitare di perdere il più bel ciak della nostra vita.
  6. C’è abbastanza spazio di registrazione sul supporto?
    come per la batteria, dopo un po’ di riprese verificate sempre di avere spazio operativo.
  7. L’audio è a posto ? Microfoni, connessioni, cavi relativi, DeadCat se serve? Abbiamo sentito in passante il segnale audio per essere sicuri che non ci siano ritorni o difetti di qualche tipo?
    a posteriori rifare l’audio o correggerlo è un costo molto alto rispetto a fare una prova prima.
  8. Abbiamo controllato l’inquadratura bene?
    Se ci sono elementi che spuntano da dietro gli attori che disturbano, se ci sono oggetti fuori luogo da cancellare in post, ombre di persone del set, riflessi strani che non dovrebbero esserci, negli oggetti riflettenti per caso si vede troupe o attrezzature?
    Quel tipo di post per cancellare o aggiustare le immagini ha un costo di tempo e denaro non trascurabile, per cui è importante evitarla ove possibile
  9. i cellulari sono spenti?
    anche se silenziati molti smartphone creano disturbi nei radiomicrofoni e/o in camera, magari può sembrare eccessivo, ma ho visto troppi ciak buttati per uno squillo di troppo… soprattutto dalle notifiche di facebook.

so che possono essere magari suggerimenti banali, ma avendo dovuto risolvere clip girate alle velocità sbagliate, con troppo rumore perchè l’operatore non guardava le impostazioni della camera e pur avendo luce ha alzato gli iso perchè non ha notato il diaframma troppo chiuso per riprese precedenti, o shot in cui ho dovuto ricreare il motion blur naturale perchè invece di chiudere il diaframma o mettere un filtro ND ha alzato lo shutter, senza vedere che lo ha alzato veramente troppo.

insomma, se faccio il danno mea culpa, ma se lo faccio perchè non sono stato attento…

e succede quindi fate una veloce check list di cosa controllare e risparmierete tanto tempo dopo in edit e post


creating motion graphics recensione

creating motion graphics
Creating Motion Graphics with After Effects: Essential and Advanced Techniques

Quando si parla di After Effects non si può andare subito col pensiero ai cognugi Trish e Chris Meyer, utilizzatori del Pacchetto dalla versione 0.3 prima ancora che fosse distribuito, grandi comunicatori e grafici eccezionali.

Il loro sforzo nel creare documentazione, libri, video su come usare al meglio After Effects non è mai stato superato nè per quantità, nè per qualità da nessun altro al mondo. Esistono altri artisti importanti su questo pacchetto, spicca tra tutti il grande Andrew Kramer che rappresenta per il campo degli effetti visivi ciò che loro rappresentato per la MOTION GRAPHICS.

Questo libro è una splendida occasione per il novizio di imparare il programma dai migliori, con la possibilità non solo di imparare le funzioni base del pacchetto, ma anche per entrare in profondità nelle diverse impostazioni che si affrontano. Per l’esperto è l’occasione per rispolverare le conoscenze e spesso anche per scoprire molte funzionalità che rimangono in background, ma che possono fare la differenza quando si affrontano progetti complessi.

Il libro può essere affrontato in modo lineare, come un corso di più lezioni, oppure dopo aver affrontato i primi capitoli saltare alle parti che ci interessano, gli argomenti che ci interessano di più, grazie all’approccio che hanno i Meyer nel spiegare come affrontare ogni passaggio. Inoltre anche se le pagine sono limitate (secondo i Meyer 768 pagine non erano abbastanza) sul disco fornito insieme al libro ci sono diversi capitoli aggiuntivi in formato PDF che non erano riusciti a inserire nel libro.

Molti potrebbero chiedersi se un libro che è stato scritto per la versione CS5 nel 2010 sia ancora attuale oggi, con la CC2015. La mia risposta è si, certamente si, perchè il libro è scritto per imparare come funziona AfterEffects, e ogni parola scritta al suo interno è ancora valida, tutte le basi di workflow di lavoro sono esattamente identiche, tranne una cosa cambiata di recente con l’introduzione della release CC2015, che oltre ad avere un sistema di preview unificato, adesso con tutte le preview di animazione ram si ha l’audio, che in passato era disponibile solo per un tipo di animazione.

sapere di non sapere, abbastanza… la mia utopia verso il mondo

Oggi parliamo del non sapere…

in una società che vi offrono di diventare Expert, Guru, Professional xxx di qualcosa in un click, cambiando spazzolino da denti (giuro ho appena visto la pubblicità) è strano definire di sapere di non sapere.

socrateTanti secoli fà un filosofo molto più saggio di me, Socrate, disse e scrisse : so di non sapere.

Sono un curioso e un’avida spugna della conoscenza, ogni campo in cui posso avere un minimo di curiosità desidero accumulare più conoscenza, e non ne sono mai soddisfatto. Qualunque campo in cui devo interagire, per natura, non mi accontento di sapere qualcosa, devo smontare ogni elemento del campo per renderlo più produttivo e soprattutto averne conoscenza per averne un maggior controllo.

Il mio principio è che non sapendo abbastanza di un argomento potrò mantenere una minima umiltà per far si che possa accettare di dover imparare ancora molto, e allo stesso tempo mi piace conoscere di più, sapere che c’è sempre un oltre a quello che già so, mi da la tranquillità che posso imparare tanto di più 😀

Nell’ambito lavorativo ho una curiosità insita nel lavoro di ogni persona, capire come funziona il suo ruolo, il suo lavoro, perchè… beh ho una idea folle, ma non tanto, avendo una buona base di quello che sarà il lavoro di chi collabora con me, posso collaborare meglio fornendogli le informazioni, gli elementi nel modo corretto per farlo lavorare meglio. Come trovo inaccettabile chi mi passa materiale scadente o di bassa qualità pur avendo modo di darmi molto di più per pigrizia o ignoranza (causata dalla pigrizia o superficialità perchè non gli compete il seguito del lavoro), voglio poter far si che chi lavora con me possa avere il materiale e le informazioni al meglio, per poter lavorare perdendo meno tempo e qualità possibile. Per fare questo devo imparare i ruoli e i mestieri di tante altre persone, ma se nel mondo fosse composto di una persona ogni 100 come me, molti lavori e processi sarebbero molto più semplici e veloci.

un esempio tecnico? immaginiamo di dover postprodurre del materiale video, se ci mandano un export completo del filmato su cui lavorare invece che il materiale originale spesso si deve fare il triplo della fatica, per preservare qualità e magari inventarsi qualche trucco per mascherare al meglio e scontornare del materiale che al momento di lavorare sugli originali avremmo risolto in un decimo del tempo.

Un esempio pratico? immaginiamo che dovete metter mano a del materiale, e chi ha fatto le riprese pur avendo tempo non ha inserito i metadata in camera, quello che erano pochi secondi per l’operatore sono ore in cui si guarderà e catalogherà il materiale più volte, soprattutto per distinguere una sequenza dall’altra, quando chi ha fatto le riprese sapeva esattamente perchè erano differenti.

Un esempio di pigrizia? un fonico che invece di settare la data e l’ora sul recorder se ne frega di questi dettagli, il risultato è che poi per distinguere il materiale si perderanno ore per ascoltare e distinguere i materiali, mentre se si imposta ora e data in un attimo si potranno accoppiare alle riprese.

Un esempio di sottovalutazione dei ruoli? quando si tratta con un reparto marketing e alla richiesta del logo dell’azienda, invece di mettervi in contatto con il reparto grafico, vi girano un file word con dentro una jpeg a bassa definizione del marchio. Se esiste un reparto grafico, è perchè servono conoscenze ed esperienze che non hanno al marketing, quindi perchè scavalcarlo? e soprattutto perchè lamentarsi se il logo poi risulta sfuocato, se non sapete neanche il perchè?

in ogni caso c’è un problema di superficialità e menefreghismo, dando per scontato che finito il proprio lavoro, quello degli altri non li riguarda… se c’è la prima volta un problema di ignoranza, c’è il fattore “mi sono chiesto se quando do questo materiale a chi lo deve ricevere lo potrà usare subito oppure deve fare fatica per capire cosa ho realizzato?”

l’altro lato della conoscenza del mondo moderno è che da ogni lato si trova gente che vi vuol vendere conoscenza, e al 90% (si lo so, parte del mio business è fare corsi, e sono conscio di ciò che sto per scrivere) chi vende conoscenza non ce l’ha…

E’ veramente inquietante come la maggior parte dei consulenti, delle persone che vendono conoscenza ed esperienza sono quelli che hanno meno competenze nell’ambito in cui vorrebbero dirvi cosa fare… per cui diffidare sempre, a partire da se stessi, e soprattutto da chi è troppo sicuro di se stesso.

Socrate diceva: so di non sapere, io mi permetto di aggiungere per essere più chiaro l’avverbio “abbastanza”.
Finchè ci porremo dei dubbi, vorremo apprendere di più, dubiteremo delle fonti, e cercheremo conferme, sapremo di essere nel giusto, chi si afferma nella verità assoluta sarà sempre fonte di grandi paure e dubbi da parte mia.

Lavoro in un ambito in cui da un giorno all’altro l’evoluzione della tecnologia, dei metodi operativi, delle tecniche di lavoro cambiano e si evolvono continuamente, quindi le certezze sono teoria, la pratica poi dimostra come molti elementi si evolvono e cambiano da un mese all’altro per cui avere certezze assolute vuol dire essere monolitico, statico, che in un mondo in continua evoluzione è sintomo di essere obsoleti ancor prima d’iniziare.

Oggi grazie al web 2.0 tutti possono diffondere notizie di ogni tipo, ma purtroppo se venti anni fa era difficile trovare informazioni, oggi è difficile da trovare le informazioni corrette in mezzo a tante informazioni errate o distorte.
Purtroppo la fretta con cui si muove il mondo moderno porta le persone a accettare per buone le prime notizie per buone, magari partendo da wikipedia, una delle fonti e raccolte più ampie dell’ignoranza mondiale, dove col fatto che chiunque può scrivere, chiunque può inserire informazioni errate per il gusto di contribuire, senza aver controllato ciò che inserisce…

Per chi pensi che sia un retrogrado, un antico, premetto che sono stato il primo a fondare mezzi di diffusione della conoscenza sulla rete più di venti anni or sono alla sua nascita, non ce l’ho con le nuove tecnologie, ma con il loro abuso indiscriminato.

Per wikipedia (notizia che ho fatto cancellare) mi ero traferito in australia (terra che trovo splendida, ma non ci sono mai stato) e sono morto in seguito all’attacco di un rinoceronte mentre facevo delle riprese per un film… wordpress ha tanti plugin, ma non quello della pubblicazione da morto :-PP quindi se leggete queste notizie, forse proprio morto non sono. Questo dimostra che le notizie pubblicate non essendo contro-controllate, possono contenere tante inesattezze, e se un amico non mi avesse cercato preoccupato, chissà per quanto sarebbe rimasta on line quell’informazione, e quanto si sarebbe diffusa nel mondo.

Ci sono stati in questi ultimi anni troppe notizie diffuse tramite i social ma anche teorici siti più affidiabili tramite ansa etc, che per la fretta di condividere la notizia, hanno portato scompiglio e/o inesattezze a livello mondiale. Dubitate sempre e verificate sempre più fonti, altrimenti sarete delle bandiere in balia del primo soffio di vento della rete…

 


8 bit, 10bit, 24bit, 32bit che razza di bestie sono quando esporto?

Cosa significano le diverse sigle?

In tante occasioni parlando di video di sentono diverse sigle che in un modo o nell’altro influenzano la qualità dell’immagine che andiamo a vedere e soprattutto a manipolare.

Quando si lavora con il video nella maggioranza dei casi si parla di video catturati a 8 bit, questo valore si riferisce alla componente colore singola, quindi il sensore o il sistema di registrazione cattura 2 alla ottava, il che significa 256 informazioni colore.

256 toni di colore per il canale del rosso, 256 toni per il canale del verde, 256 toni per il canale del blu.
La combinazione di tutte queste possibili sfumature creano una immagine che può contenere 16 milioni e rotti di combinazioni possibili, ovvero una immagine a 24bit.

quando si aggiunge il canale alfa ad una immagine a 24 bit, dato che il canale alfa segue le stesse capacità e regole del colore, avremo una immagini a 256 toni di grigio che definiscono la trasparenza totale (100% di luminosità) o la totale opacità del pixel (0% di luminosità).

quindi abbiamo una immagine a 24 bit (R = 8, G= 8, B=8) + 8 bit di alfa, totale immagine a 32 bit.

quando andiamo a esportare una immagine abbiamo teoricamente (dipende se e come il software supporta l’esportazione) la possibilità di esportare video e immagini a diverse profondità colore, più è alto il numero, maggiori sono le informazioni contenute e quindi maggiore è la qualità registrabile.

Parlo di qualità registrabile perchè se importo un video a 8 bit e lo esporto a 16bit, non significa che il video diventa a 16bit, non migliora l’immagine, nè aumentano i colori originali, restano gli stessi, ma se ho applicato dei filtri di correzione colore, probabilmente esportando a qualità più alta PRESERVO la qualità originale.

da un programma posso esportare :

8 bit per canale : 24 bit + eventuale alfa 8 bit che diventa 32bit
16 bit per canale : 48 bit + eventuale alfa 16 che diventa 64bit
32 bit per canale : 96 bit + eventuale alfa a 32 che diventa 128 bit (solo da vfx e software di post)

quando si parla di video, possono essere registrati a diversi bit da 8, 10, 12, 16 bit a seconda del codec di lavoro e dalle impostazioni dello stesso. Naturalmente avere uno spazio colore maggiore significa avere più informazioni e quindi più spazio di azione dove intervenire con la corezione colore o con la postproduzione in generale.

Perchè servono più di 16milioni di colori?

perchè in realtà quei colori sono la somma di tutti i colori possibili dei tre canali colorati, ma se devo fare una sfumatura di rosso puro, blu puro (il cielo) ho solo 256 possibili sfumature di blu, oltre intervengono leggeri squilibri degli altri colori, che portano il blu del cielo ad andare verso il verde, oppure verso il magenta, quindi non è più il colore puro.

Perchè non posso usare solo 8 bit se ho registrato una immagine nel modo corretto?

perchè non solo il limite è in registrazione, ma soprattutto nella post produzione, per comprendere meglio è possibile fare un esempio molto semplice, creare un colore sul limite e poi aumentare la sua luminosità.

esempio scostamento coloreDopo aver creato un colore rosso di un valore leggermente sbilanciato, ovvero col verde maggiore del blu ho semplicemente applicato una luminosità molto alta, e come potete vedere nelle informazioni finali, il colore non si scosta in modo lineare, perchè il rosso essendo già al massimo (255 come valore) non si può muovere, quindi salgono verde e blu, ma non in modo lineare e proporzionale, quindi man mano che rendo più luminosa l’immagine la quantità di verde del colore aumenta, quindi il rosso si inquina e cambia il colore originale.

Se invece avessimo avuto uno spazio colore a 16bit, dove le possibili combinazioni sono maggiori, il range di lavoro non è più 0-255 ma 0-32768, quindi le possibili sfumature realizzabili prima di ottenere uno scostamento colore evidente sono maggiori e più morbide.

Quando esporto un video a 8bit cosa posso esportare?

quando apriamo un pannello di compressione di un software, a seconda di quale codec esportiamo possiamo selezionare una profondità colore differente, ma attenzione che se si considera anche il canale alfa potremmo esportare più di quanto serve, anche quando non serve.

Se seleziono una esportazione a 8 bit, significa che esporto un file a 24 bit (8+8+8), ma se si attiva l’esportazione del canale alfa, in realtà noi esportiamo un file a 32bit perchè il file colore è a 24bit + 8 bit di canale alfa. Nella maggior parte dei casi il file sarà usato allo stesso modo, quindi nessun problema, ma in situazioni specifiche come con le macchine di messa in onda, un file a 32bit, anche se magari la parte del canale alfa è vuoto, viene rifiutato, e quindi è fondamentale sapere come esportare il materiale nel modo corretto.

Quando si lavora cosa può cambiare se lavoro in uno spazio colore più ampio?

Il discorso è molto semplice, se prendiamo una immagine e spostiamo le informazioni di luminosità, da uno spazio a 8 bit a 8 bit c’è il rischio di perdere delle informazioni intermedie perchè non c’è lo spazio corretto dove spostarli. basta confrontare l’istogramma del progetto a 8 bit con quello a 16bit.

confronto correzione colore 8 16bit

L’istogramma della correzione 8bit si vede come diventa frammentato, con diverse frequenze che spariscono e quindi rappresentano informazioni perse durante la correzione delle informazioni mentre nell’istogramma a 16bit queste informazioni vengono conservate perchè esistono più posizioni è possibile mantenere le informazioni anche di fronte ad una manipolazione più aggressiva dei valori.

Anche se poi il risultato finale sarà esportato in un file codificato a 8bit, la sorgente sarà di un file elaborato a 16bit e quindi preserverà meglio le informazioni originali.

Questo è il motivo per cui i software di correzione colore professionale lavorano solo in uno spazio colore a 32bit per canale, in modo che ogni operazione applicata ai colori delle immagini saranno a prova di errore e non ci sarà rischio di degrado causato da limitazioni dello spazio di lavoro.

Quando si lavora con AfterEffects e si manipola il colore, avere uno spazio colore di lavoro a 16bit serve a preservare il materiale durante la correzione colore, se si lavora con Premiere è importante abilitare le spunte “Rendering alla profondità massima” in modo che il calcolo interno delle elaborazioni del colore sia fatto a 32bit e quindi si corregga al meglio e nello spazio più ampio anche se poi andiamo a esportare in un codec usando solo gli 8bit di registrazione finale. DA RICORDARE come premiere, non essendo un programma di post, il calcolo nello spazio più ampio colore lo esegue in presenza di video manipolati da effetti a 32bit, nel caso la sequenza contenga anche un solo filtro a 8 bit, tutto il rendering sarà eseguito a 8 bit e non nello spazio colore a 32bit.

e quindi?

nella normalità si lavora a 8 bit, perchè le fonti medie di dslr, telecamere medie è a 8bit, e quindi solo per l’export di materiale fortemente manipolato lavorare negli a 16bit fa la differenza, mentre se non vi viene chiesto l’export di materiale con caratteristiche diverse, per fare dvd, bluray, file per tv, file per Online (youtube, vimeo, etc), file per messa in onda è a 8 bit, senza canale alfa.


Pagina 29 di 39

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!