Tutto è possibile

Categoria: Articoli

4k la vecchia frontiera del nuovo, in attesa dei televisori 8k che non potremo vedere

Pur essendo un fautore del 4k per la ripresa, perchè offre molto materiale su cui lavorare, tanti vantaggi in ogni operazione di manipolazione del materiale, sono convinto che sia l’ennesima bufala del 21 secolo per vendere il nuovo televisore, i nuovi vecchi contenuti.

Perchè il 4k è inutile nei televisori, nei cellulari, nelle telecamere amatoriali?

senza parlare del fatto che se non viene usato per la postproduzione è uno spreco di risorse cpu del dispositivo di cattura, spazio di memoria occupato, surriscaldamento del dispositivo, il 4k su un dispositivo al di sotto di determinate dimensioni è uno spreco inutile. L’acutezza visiva di un essere umano medio è tale da percepire circa 1/10 mm a circa 50cm di distanza, considerato che un pannello 4k di dimensioni medio è una densità di 110 ppi, ovvero su un 40 pollici si parla di 4 punti per mm quadro, peccato che un 40 pollici si guarderà da almeno 150 cm dove la capacità risolutiva è scesa in media a 2-3mm, quindi ci sono ben dieci volte le informazioni percebili da un essere umano medio…

questo calcolo è valido esclusivamente se noi abbiamo una fonte 4k pura, perchè se su quel televisore vediamo un filmato 4k da streaming, youtube 4k, cellulare o altri elementi in realtà non avremo tutte quelle informazioni, perchè il pannello offre quella definizione, ma i dati trasmessi non li hanno, per cui il televisore sarà completamente inutile….

quindi perchè comprare un televisore 4k oggi?

Facciamo una analisi molte semplice e rapida dei pro e dei contro :

Pro:

  1. è una grande cornice digitale ad alta risoluzione per le vostre fotografie
  2. se ho una vera cinepresa digitale 4k posso vedere le immagini nel loro reale splendore, se sto molto vicino al 40 pollici che ho comprato.

Contro:

  1. non ci sono ancora contenuti veri in 4k con cui sfruttare una tv 4k
  2. lo standard bluray 4k è ancora teorico, ma non esistono bluray 4k in commercio
  3. non esistono ancora film girati completamente in 4k, quindi comunque si vedrebbero filmati “gonfiati” e non nativi 4k
  4. lo streming 4k in realtà offre meno di 2,7 k di risoluzione effettiva, il resto nasce per interpolazione quindi nuovamente inutile.
  5. la trasmissione 4k è teoria, in realtà ad oggi sono pochi i canali in FullHD (1920 x 1080), la maggior parte al max sono hd (1280×720).
  6. i televisori 4k non hanno decoder digitali per ricevere segnali 4k perchè non sono ancora stati definiti standard di trasmissione 4k, quindi al momento in cui esisteranno i canali 4k il nostro televisore sarà già obsoleto e non in grado di mostrare i filmati alla risoluzione 4k.
  7. la lettura di filmati FullHd offre una visione sfuocata dei contenuti (perchè gonfiata 4 volte) oppure troppo incisa perchè per mascherare l’immagine morbida viene processata mangiando in realtà diversi livelli di dettaglio durante le operazioni crude di sharpening. Quindi per vedere un bluray è un pessimo veicolo.
  8. costerà molto di più di un equivalente fullHD di qualità, non offrendo ad oggi la possibilità di vedere immagini realmente differenti.
  9. nel visualizzare immagini amatoriali 4k da cellulari, telecamere etc non è detto che esse abbiano sufficiente dettaglio per mostrare immagini di qualità per sfruttare la matrice 4k
  10. per percepire la reale differenza tra un tv 4k e un tv Fhd si deve andare dai 50 pollici in su, che però si dovranno vedere più da lontano e quindi si torna all’assurto iniziale, inutile per la maggior parte delle persone che non hanno la capacità visiva di apprezzarne il dettaglio a livello fisiologico.

perchè il 4k al cinema non serve?

la proiezione 4k è una piccola truffa, perchè in realtà la maggior parte dei film viene girata con cineprese digitali in 2k, come le alexa, per cui il fatto che venga poi proiettato in 4k non da nessun vantaggio di fatto, anzi, è un inutile flettere i muscoli di tutto il sistema, perchè richiederà 4 volte lo spazio originale del 2k, risorse maggiori per il play e la gestione dei contenuti senza dare un reale vantaggio.

Ma veramente non si vede la differenza?

Nolan si vantava di aver girato in Imax (formato in altissima definizione pellicola) l’ultimo cavaliere oscuro e Interstellar, e un sacco di gente ha detto di aver notato la differenza..
Sarei curioso di chiedere a quella stessa gente se mi sa indicare in quali inquadrature ha notato la differenza, perchè nessuno dei due è girato completamente in Imax, troppo costoso, troppo grandi e scomode le cineprese, etc etc… per cui sono state alternate le riprese di s35 tradizionali a quelle di imax (prettamente degli esterni dove era più semplice gestire macchine da presa più ingombranti)… soprattutto visto che queste pellicole nella maggior parte delle situazioni sono state viste in sale digitali su proiettori 2k, quindi dove tutto era appiattito e spostato verso il basso.

Altro punto a favore per l’impasto generale è dato dal fatto che molti film subendo digitalmente una postproduzione molto pesante, anche solo a livello di editing e color correction, non si è poi in grado di distinguere nelle riprese brevi fatte da dslr, go pro, telecamere, da cineprese professionali. Il tutto grazie al fatto che vengono utilizzate nella situazione migliore per estrapolare al meglio la qualità visiva dai diversi sensori facendole lavorare al meglio delle loro possibilità.

quindi per il 4k è presto?

beh si riprende in 4k per il futuro, perchè si estrae un 2k e un fullHD di altissima qualità, ma usare direttamente il 4k a livello domestico è uno spreco, perchè non è percepibile direttamente dall’occhio nella maggior parte delle situazioni domestiche.

perchè allora proliferano i televisori in 4k e tutte le periferiche 4k?

qualcosa vi devono vendere, o no?
Nel marketing si sono sempre usati i numeri per dare una percezione tangibile di un valore, anche se qui numeri non avevano reale connessione col valore del prodotto.

ad esempio, i masterizzatori sono partiti col 2x dei cd, fino ad arrivare a x52 dei dvd, ma nessuno vi dice che i supporti x52 non esistono, perchè la masterizzazione è un bilanciamento tra velocità di scrittura e numero di errori introdotti, a seconda della qualità del supporto la velocità viene dosata per introdurre un numero minimo di errori di scrittura, per permettere la lettura dei dati e grazie ad un sistema di correzione dell’errore poter risalire ai dati originali. Il concetto della correzione dell’errore di lettura era nato in origine per compensare i difetti di fabbricazione, e/o di graffi o i danni al supporto, nel tempo questo sistema è diventato un metodo per accelerare la scrittura sui supporti basandosi sul fatto che alla fine si riesce lo stesso a leggere i dati.

Il problema dove sta? nel fatto che se si porta un supporto al limite della leggibilità perchè lo vogliamo masterizzare a x52 invece che a x8, basta una leggera usura a rendere illeggibili i dati scritti. Non solo, la scrittura lenta applica in modo diverso il laser di scrittura e introducendo meno errori rende il supporto più resistente anche a usura più forte, esposizione a uv, deformazione del supporto scrivibile,  etc.
Il che fa pensare su come in modo superficiale si scrivano dati su un supporto, senza aver avuto nozioni di come farlo e come conservarlo.. auguri ai masterizzatori da formula 1, forse dopo 3-4 mesi potranno ancora rileggere qualcosa dai loro supporti.

un altro esempio, i megapixel delle fotocamere:

da sempre sembra che i megapixel siano indice di qualità, ma se si schiacciano su un sensore da 1/4 di pollice 40 megapixel, non si può pensare di avere la stessa pulizia e luce di 12 megapixel su un sensore fullframe, perchè la luce catturata da ogni recettore è maggiore. In realtà non sono solo i megapixel ma anche la capacità degli stessi di catturare informazioni, la superficie coperta che offrono la qualità effettiva dell’immagine catturata, ma il concetto è troppo complicato, quindi per la massa + megapixel = + qualità.

ricordo ancora quando regalai a mia sorella una compatta da tre megapixel, in un mondo in cui ne erano già uscite diverse da 5-6 megapixel, ma le fotografie e il dettaglio di quelle fotografie era inarrivabile dalle equivalenti come fascia di prezzo, perchè alcune interpolavano, altre avevano si più recettori ma meno sensibili etc etc.

oggi una gara nelle fotocamere e telecamere è la sensibilità (in realtà anche 25 anni fa, visto che si parla anche allora di riprendere con una candela).
Se non si riprende al buio, e non parlo di luce naturale, ma di buio, allora la camera non è degna di nota… quindi una red e una alexa, cineprese digitali con cui fanno i film che hanno una sensibilità nativa di soli 800 iso sono delle scamorze…

Perchè è già tardi comprare un televisore 4k?

diciamo che la mia è una affermazione provocatoria, ma non troppo…
perchè i giapponesi stanno già sperimentando le trasmissioni in 8k, per cui perchè comprare un prodotto superato, tanto vale passare direttamente all’8k 😀

battute a parte, i giapponesi sono sempre stati all’avanguardia con la sperimentazione, ricordo il primo sistema di fullHD ripresa e visione visto di persona al SIM audio Hifi a milano nel 1992, una sperimentazione congiunta tra RAI e un colosso giapponese Ikegami, ironicamente avevo ripreso tali immagini con la mia potentissima vhs a 200 linee e mi sembrava così lontana come qualità e potenza.

ben prima di questi pioneri già nel 1986 Francis Ford Coppola, prodotto da George Lucas, realizzava uno speciale video clip in 4D (3d più quello che oggi si chiama augmented reality) usando telecamere HD sperimentali con protagonista il grande Michael Jackson in Captain EO.
Questo per far presente come se l’HD era già presente come tecnologia nel 1986, oggi dopo quasi 30 anni, ancora non è lo standard televisivo, quindi valutiamo bene quanto il 4k possa penetrare dentro le nostre case in un paio di anni.
Soprattutto si deve riflettere sul fatto che 4k non vuol dire solo cambiare i sistemi di ricezione, poco costosi, ma cambiare tutti i sistemi di messa in onda e trasmissione, e per le televisioni sarebbe un investimento mostruoso, che dubito faranno così velocemente, visto che molte sono ancora alla Standard definition.


Miracoli digitali

Quando si riprende con una telecamera normale (amatoriale), una dslr o un altro mezzo low cost il filmato viene catturato con una qualità discreta, pensato per essere visto ed editato così com’è, quindi per ottimizzare la qualità e lo spazio occupato in memoria viene eseguito un subsampling del colore, per dover registrare meno informazioni colore.

850px-Chroma_subsampling_ratios.svg

 

 

 

 

 

quindi un classico video ha un colore registrato con un campionamento 4:2:0, questo vuol dire che una volta decodificato in RGB il canale del rosso avrà molte meno informazioni rispetto agli altri colori; in una situazione normale non causerà particolari problemi e la maggior parte delle persone non vedrà il problema, ma …

durante la postproduzione, saturando i colori, viene fuori il problema causando un aumento del problema del blocking, ovvero la visualizzazione dei blocchi di compressione del codec, come potete vedere nell’immagine sottostante.

why red is a bad color for filmakerCi sono colori basati sul canale del rosso che possono dare problemi evidenti, come vedete nell’immagine, rovinando una ripresa.
Alle volte, e sottolineo alle volte, è possibile salvare queste immagini convertendole nel modo più appropriato, usando utility che fanno un upsampling del canale del rosso, in modo da ridurre quegli effetti di blocking.

Esistono diversi strumenti che agiscono su questi canali per ridurre i difetti, a secondo degli strumenti che usate potete far affidamento su diverse soluzioni :

  • Dentro la RedGiant Shooter Suite lo strumento Deartifacter
  • L’utility stand alone di conversione 5D2RGB che converte in Prores 4:2:2 i file 4:2:0
  • Il vecchio programma HD LINK della suite Cineform Pro e Premium (non più disponibile grazie a GoPro che ha eliminato la suite).

personalmente consiglio la suite RedGiant perchè si hanno più elementi di controllo, oltre che tanti strumenti utili per ogni filmaker.


USB 3.0 … dipende diciamo 2.5 vah…

EU-4306_USB3

 

USB 3.0 una evoluzione dello standard per aumentare la velocità di trasferimento dati di xx volte.

Tutti più felici che per copiare i dati, mettere al sicuro i nostri dati, le fotografie, i filmati, i tempi si riducono in modo notevole.

Il mercato è pieno di periferiche di archiviazione usb 3.0, portatili e fissi hanno praticamente quasi solo porte usb 3.0, un paradiso… quasi …

La teoria dice che lo standard 3.0 ci porta dai 60 mb/s al 640 mb/s quindi parliamo di oltre dieci volte più veloce nel trasferire i dati tra un dispositivo all’altro.

La teoria, ma la pratica?

La teoria è questa, mentre la realtà è ben differente, perchè le vere performance sono di gran lunga superiore all’usb 2.0 ma ci sono spesso colli di bottiglia che non vengono considerati.

  • la velocità del chipset della scheda usb 3.0 del computer
  • la velocità del chipset del controller del supporto dati
  • la velocità del supporto da cui si copiano i dati
  • la velocità del supporto su cui si copiano i dati
  • se il supporto sorgente e origine condividono lo stesso controller il chipset riesce a distribuire il flusso dati in modo uniforme.

Facciamo un esempio pratico : compro il disco esterno USB 3.0 di marca nota XX (considerata la velocità con cui cambiano i modelli e i dispositivi, non ha senso indicare marca e modello, visto che lo stesso modello acquistato più volte conteneva dischi diversi e di velocità differenti), provo a copiare dei dati e lo trovo decisamente lento…
Provo a cambiare la porta del computer, niente; provo a cambiare computer, niente; provo a cambiare la sorgente dei dati, niente… sono un testardo, apro il box del disco (annullando la garanzia, ma pazienza), scopro che il disco contenuto è un 3900 rpm, ovvero un disco robusto, a bassa velocità di rotazione, che per un disco da 2.5 portatile è ottimo perchè si riducono le possibilità di danni in caso di urto e cadute in fase di rotazione, ma che riduce le performance effettive durante la copia.

ora nella maggior parte dei casi, i dischi meccanici singoli non hanno la capacità di saturare la banda del sata o dell’USB 3.0, ma se uso dei raid dove la somma delle performance dei dischi si somma, potrei anche arrivare a raggiungerla. Nella media delle persone, nessuno ha il problema di questo tipo, nè soprattutto si accorge delle differenze.

Chi invece deve maneggiare tanti dati professionalmente (backup dati, backup filmati etc) deve tener conto di diversi fattori tecnici, non solo relativi ma combinati tra di loro, perchè un disco veloce con poca cache può essere superato da un disco poco più lento, ma con maggior cache; la differenza di taglia del disco influisce sulle performance, perchè se i dischi sono più densi a parità di giri offrono un output dati maggiore quindi possono offrire maggior velocità al salire con la taglia.

Le incompatibilità che non esistevano sull’USB 2.0

In un mercato dove tutti fanno a gara ad offrire il prodotto usb 3.0 al prezzo più basso sembra di essere in paradiso, ma…
Non tutti sanno che ci sono incompatibilità più o meno forti tra i diversi chipset dei controller delle schede madri e quelli dei box/nas/dischi esterni.

Dopo aver avuto una serie di problemi con diverse schede madri, che sganciavano diversi dischi, ho fatto un po’ di ricerche e ho scoperto che i diversi produttori di chipset fanno a scaricabarile tra di loro per le responsabilità degli sganci dei supporti e/o problemi di comunicazione tra di loro. Esistono centinaiai di thread nei forum informatici che mettono in evidenza che gli accoppiamenti più a rischio sono quando si collegano i chipset :

– JMICRON JMS539 + NEC/RENESAS D720200
– JMICRON JMS551 + NEC/RENESAS D720200
– JMICRON JMS539 + ETRON EJ168A
– JMICRON JMS551 + ETRON EJ168A

quando si combinano questi chipset il rischio, o la certezza, visto che il comportamento che ne consegue è lineare, è che il dispositivo collegato avrà rallentamenti, sganci ogni 10-15 minuti del dispositivo.

Il palliativo sta nel mantenere aggiornati i driver di entrambi i chipset, disabilitare ogni tipo di risparmio energetico sui dischi e sul sistema relativo ai chipset. Ci sono aggiornamenti firmware sui siti relativi ai produttori di chipset, dove si può sperare di ridurre i problemi.

Perchè è importante sapere quale chipset stiamo usando?

perchè a seconda dei prodotti possiamo avere più chipset sulla stessa macchina, ad esempio la piastra gigabyte che usavo prima aveva due chipset diversi, e con una scheda esterna ho introdotto un terzo chipset non incriminato. L’attuale piastra Asus ha tre chipset diversi usb 3.0 e quindi devo stare attento a quale porta USB 3.0 uso per gli hard disk esterni, su due ho i chipset incriminati, per cui se collego il disco WD mini che non ha il controller problematico, tutto ok, ma se collego i nas (ne ho tre, due da 4 dischi e uno da 8 dischi) devo usare il terzo gruppo di porte USB 3.0, che però sono porte esterne, quindi ho acquistato una basetta esterna per portarle dietro a portata di connettori, altrimenti mi si sconnettono ogni 15 minuti i dischi contenuti nei nas.

Quindi si può concludere che…

lo standard Usb 3.0 ci permette di copiare i dati FINO a 640 mb/s a patto che si copino i dati da un disco collegato su un chipset DIVERSO da quello di ricezione.

Cosa posso fare per ottimizzare il trasferimento dati?

  • usare dischi connessi su chipset e standard differenti, ad esempio dischi interni su sata verso o da dischi Usb 3.0 veloci.
  • usare dischi esterni usb 3.0 su due chipset differenti per evitare che il chipset lavorando sia in ingresso che uscita dati non abbia qualche tipo di rallentamento
  • disabilitare ogni tipo di risparmio energetico su dischi interni ed esterni
  • disabilitare il controllo antivirus sui dati in arrivo dal disco X (solo per dati sicuri)
  • usare software ottimizzati per la copia dati e che usino il parity check per avere la certezza della copia dei dati.


Pagina 4 di 4

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!