Tutto è possibile

Autore: carlomacchiavello Pagina 19 di 40

Che bella cosa la compatibilità, gli aggiornamenti frequenti, di tutto…

Per chi viene dal passato dell’informatica come me, dove tutto aveva tempi biblici (per i concetti di oggi), c’è una sorta di rammarico e nostalgia ai tempi in cui per avere un aggiornamento di un programma o di un sistema passavano anni, quando i prodotti erano su supporti fisici, quando l’hardware era scarso, più limitato, dove c’erano si dei problemi, ma…

Prima di uscire una versione nuova di un sistema era testato, veramente, da persone pagate per quello, non come oggi che paghiamo per fare noi da tester, tanto poi esce la patch tra qualche giorno… e intanto diventiamo matti per chiudere i lavori perchè:

  • il sistema corrompe i dati sui dischi (un noto Os con noto marchio di dischi esterni).
  • il sistema nuovo decide che i task vanno eseguiti in stack, faccio la copia di dieci cartelle pesanti (tera) e anche se ha eseguito la metà del task, se entro nelle cartelle e modifico, aggiungo o tolgo, non vedo nulla perchè non essendo completato il task generale non fa refresh della cartella, vorrei conoscere lo sviluppatore che ha cambiato il codice (nel precedente os non era così) è un genio… del male…
  • Il sistema nuovo ha deciso che nonostante abbia bloccato da registro e da pannello di controllo gli aggiornamenti, il driver della scheda video è vecchio di 4 mesi e deve essere aggiornato, peccato che ci siano diversi bug nei driver che mi installa in automatico causandomi crash dei programmi
  • il sistema nuovo ha deciso che il driver del touchpad del portatile è vecchio e va installato quello nuovo, che non essendo compatibile con l’hardware mi costringe a usare sempre il mouse (oppure sdradico a forza il sistema e torno indietro, nonostante vogliano impedirmelo modificando il bios per renderlo incompatibile con il precedente).
  • Il sistema nuovo ha deciso che deve applicare il risparmio energetico sempre, se io apro due finestre, quella sopra è più task, quindi se metto il browser con facebook sopra un programma di rendering 3d che sta lavorando e i programmatori non hanno previsto questa logica del sistema, il programma mentre sta renderizzando perde quasi tutte le risorse di calcolo…
  • il sistema nuovo chissà come mai spesso corrompe l’utente e i dati relativi, quindi se non fossi un paranoico che salvo tutto esternamente alla struttura utente, rischierei di perdere i dati spesso e volentieri (da win 8 in poi… grazie microsoft). Ho perso il conto delle volte che è successo a me, e di quante persone gli ho recuperato i dati utente dal computer, che se va bene crea un nuovo utente, ma spesso lascia nascoste le cartelle del vecchio utente corrotto. Oggi con win10 invece avviene una procedura più drammatica, farà un ripristino alla versione precedente o altre procedure che renderanno molto più difficile recuperare l’utente perso…
    tutto causalmente per giustificare il fatto che è meglio spostare in cloud i dati così non li perdi… io rispondo dicendo così non mi li corrompete (con x metodi), non me li nascondete o cancellate (se realizzati con programma poco usato su win10 o poco aperti quindi per loro spazzatura), se non me li eliminate perchè avete perso parte della struttura database utente durante uno degli aggiornamenti inutili del sistema…
  • il sistema nuovo ha deciso di scaricare un aggiornamento, lo installa, poi si riavvia per disinstallarlo perchè non compatibile con hardware presente… fare una verifica prima no? meglio sprecare banda utente, banda server, tempo utente, che magari sta lavorando, per qualcosa che alla fine non serve…. questa non si chiama pessima programmazione, si chiama peracottaggine e quelle persone dovrebbero pagare multe per il tempo e le risorse sprecate, sia utente che microsoft.

Prima di far uscire una nuova versione di un programma si verificava che gli aggiornamenti non avessero introdotto bachi notevoli o che si fossero bloccate alcune funzionalità come accade oggi tipo :

  • L’ultima release di una suite famosa che nella comunicazione tra due programmi della suite il 50% delle funzionalità di scambio manda in crash il programma, e finchè non si riavvia il sistema, sia sotto windows che sotto mac, non si è più in grado di avviare il programma… da ex programmatore direi che qualcuno ha usato i puntatori in modo errato, ma direi anche che nessuno ha provato a usarli, visto che la funzione di scambio è un banale copia e incolla… e a mesi dal rilascio, e dalla mia segnalazione, continuano a non rilasciare patch…
  • la nuova versione di un programma che ha introdotto l’accelerazione GPU nei filtri pittorici, ma se non avete la scheda grafica giusta, i filtri stessi si disabilitano e se non potete cambiare al scheda grafica al vostro computer, dagli all in one ai portatili, avete perso quelle funzioni…
  • La versione nuova dei programmi che cambia il formato di salvataggio del progetto, e raramente si può esportare per la versione precedente così viene impedito di collaborare con chi ha versioni precedenti del programma, o se c’è qualche bug nella versione nuova, si deve ripartire da zero con quello precedente.
  • Nella nuova versione del programma non avete più la gestione multicore perchè l’azienda ritiene che non sia più importante… oggi che avendo raggiunto il limite della maggioranza delle progettazioni dei processori si viaggia sui multicore per ovviare ai limiti e ai rischi di elettromigrazione…
  • Vi viene proposto un aggiornamento, che se non leggete le descrizioni potrebbe togliervi il supporto ad un codec audio perchè hanno deciso che non vogliono più pagare la licenza a Dolby, e quindi vi dovete arrangiare..
    [update 1803 di windows… Microsoft ha deciso di togliere dal sistema il codec Dolby Ac3, quindi sotto windows o i programmi lo supportano o voi non lo potete sentire più].

L’hardware era più limitato, c’erano già problemi di compatibilità tanto che Windows 95 fu soprannominato Plug&Prey Os, ma non così drammatiche come oggi… i chipset stanno andando indietro invece che avanti…

  • schede madri con 4 slot pci express a piena velocità se si usa un solo slot, ma appena se ne occupano di più si dimezzano o peggio
  • porte thunderbolt che vanno in coppia, se ne uso una per un monitor, quella a fianco non è più una porta dati
  • chipset usb 3.0 che non sono compatibili con se stessi nella controparte di manager delle periferiche esterne causando sganci o peggio.
  • I sistemi operativi supportano da WinXp64 (2001) e Panther (2003) ben 1 tera di memoria, ma praticamente nessuna piastra madre possiede più di 8 slot di memoria, e i chipset non sono in grado di indirizzare più di 256 gb di ram, oggi dopo quasi vent’anni dalla possibilità di gestirne ben 4 volte tanto. Se va bene ne gestite 64 con le motherboard più spinte.
  • Si progettano sistemi multi GPU vista la spinta verso quel tipo di hardware sia nei giochi che nel professionale, ma nessun produttore di GPU considera il dettaglio, per cui poi ne potete mettere poche in un computer per problemi di raffreddamento, oppure più banalmente perchè sono talmente grandi i dissipatori che coprono i connettori vicini…
  • I dischi SSD e M2 sono sempre più veloci, offrono potenzialmente velocità quasi paragonabili alla ram, ma ci sono così tanti colli di bottiglia che sfruttare questi supporti è complesso e spesso non fino all’ultimo.
  • Le cpu negli ultimi 20 anni hanno rallentato notevolmente la loro accelerazione reale nel calcolo, perchè essendo sempre meno ottimizzati i codici per i processori, la potenza di calcolo non è realmente sfruttata. Usando test reali, con calcoli 3d su software da produzione, posso dire che prendendo una CPU tot di gamma di 10 anni fà, oggi spendendo la stessa cifra c’è circa 50% in più di velocità, peccato che dovendo spendere anche su memoria e motherboard il risultato migliore si ottiene spendendo la stessa cifra in una soluzione meno top di gamma, ma in quantità maggiore come cpu… se i programmi sfruttano i multicore e le multicpu che per fortuna i programmi di 3d fanno.
    Qualche numero più terra terra? un i7 4950k del 2012 (setup minimo 1000 euro solo processore e motherboard) da uno score di 962 punti, spendendo la stessa cifra oggi in un i7 + motherboard si ha uno score di 995 punti, dopo 6 anni…. per ottenere un risultato soddisfacente si deve andare su i9 top di gamma, per ottenere 2100 punti, ma l’investimento minimo sale a 2500 euro… quindi il rapporto aumento punti nasce dall’aumento del valore economico, non da una crescita reale della potenza dei prodotti nella stessa fascia di prezzo.

Ora tutto questo unito ad una pratica commerciale molto sleale, ovvero la non ottimizzazione di sistemi, hardware etc in modo che “ufficiosamente” si crei la obsolescenza programmata… spero che si concretizzi come in Francia che è stata fatta una legge per vietare e punire questa Politica di Marketing per forzare gli utenti a cambiare e spesso senza potenziare realmente i propri strumenti.


奇妙なジャンルホラー.. 才能の本当の鍛え.

ジョニー・ディープ・イン・ナイトメア・オン・エルム・ストリート

批評家がしばしば俳優に出現する機会を与えるジャンルの悪口を話す頻度に注意することは皮肉です:ホラー

タランティーノのための将来の悪役

ジャンルは、特に古典的な作品と比較して、多くの場合、低予算に分類されますので、新興俳優は、多くの場合、ホラージャンルの予算を削減して、より高い響きの名前が管理できないジャンルの一部を作ります。

名前は?ただ、ジェネリックに陥ったり、ジャンルの愛好家だけに知られている俳優について話したりしないでください。とにかく、すべての偉大な俳優は、多かれ少なかれホラーよりも高貴なジャンルで彼自身のカパチナを持っています。

  • レオナルド・ディ・カプリオは、1991年にクリッターズ3でスペースハムスターと戦うミスターグレイブスとタイタニック号のスターになる前に
  • ケイト・ウィンスレットは、ローズを演じるためにタイタニック号に搭乗する前に、1994年にピーター・ジャクソンの天国のファンタホラー・クリーチャーズのミューズの一人でした
  • ティム・バートンとジャック・スパロウのフェチになる前のジョニー・ディープは、1984年のエルム通りの悪夢でフレディ・クルーガーの最初の犠牲者の一人でした
  • ウィノナライダーはティムバートンのホラーコメディビートルジュースに彼女の打ち上げのおかげです
  • ブラックウィドウになる前のスカーレット・ヨハンソンは、2002年のジャンル映画「アラック・アタック」のティーンエイジャーでした
  • ハンニバル・レクターのハンターになる前のジュリアン・ムーアは、超自然的なノワール殺人と呪文(1991年)の暗いコニー・ストーン夫人の「黒猫の犯罪」のスーザンでした
  • シンドラーズのリストで一般に奉献される前のリーアム・ニーソンは、ペイトン・ウェストレイク博士、サム・ライミ・ダークマンの1990年のホラースーパーヒーローダークマン、そしてさらに1988年にピーター・オトゥールとダリル・ハンナとのファンタジーホラーコメディ「ハイスピリッツ」でした。
  • クリント・イーストウッドは1955年にブラックラグーンの怪物の復讐でデビューし、同じ年にジャック・アーノルドの映画タランチュラでもデビューしました
  • アンジェリーナ・ヴォイト・ジョリーが1993年にデビュー、ファンタホラー・サイボーグ2ガラスシャドウ
  • ブラッド・ピットは非常に若い年齢でデビューしますが、彼のスターはトム・クルーズと1994年に吸血鬼とのインタビューで輝き始めます
  • トム・クルーズはすでに危険なビジネスで一般の人々に知られていましたが、品質の飛躍はレジェンドのリドリー・スコットによって監督されています
  • 私たちの小さなジンパレッティは、イタリアのアメリカのホラープロダクションキャッスルフリークでデビューします
  • ティム・カリー、歴史、汎用性の高いアーティストは、すべてのジャンルとキャラクターを通過しているが、ほとんどの場合、ロッキーホラーピクチャーショーのフランク・オ・ファーター博士が残っています
  • シャーリーズ・セロンは、モンスター・オスカーとマッドマックス・フューリー・ロードでの彼女のパフォーマンスの後に偉大な女優として認識され、トウモロコシIIIの子供たちでデビューしました
  • ロバート・デ・ニーロは、彼のキャリアの初めではないが、映画メアリー・シェリーのフランケンシュタインでケネス・ブラナーが演じた医者とは対照的に、フランケシュタインの怪物の解釈を軽蔑しなかった
  • ジョン・トラボルタは土曜日の夜の熱の前にブライアン・デ・パルマのキャリーのセットで彼の最初の一歩を踏み出しました
  • 偉大なジャック・ニコルソンは、1960年に恐怖の小さな店で始まり、1980年に『シャイニング』でクブリクが監督を務め、1994年にウルフで人狼になるまで
  • ミラ・クニスは、映画の海で彼女の道を作るためにピラニアで1995年に取り組みます
  • ケビン・ベーコンは、1980年の金曜日に13日の金曜日にジェイソンの最初の犠牲者の一人であることを称える
  • ジェイミー・リー・カーティスは、ジョン・カーペンターの1978年のハロウィーン攻撃に革命を起こした最初の女性の一人です
  • ジョージ・クルーニーは、1988年にホラーコメディ「リターン・オブ・ザ・キラー・トマト」に出演したとき、非常に若かった
  • トム・ハンクスは、彼はあなたが一人であることを知っている1980年にデビューします
  • デミ・ムーア、幽霊が1980年の寄生虫のファンタジーホラーゴミ箱にあった前に
  • サム・エリオット、1972年にカエル映画を発売
  • 1993年のジェニファー・アニストンは、フレンズのレイチェルになる前にレプラコーンによって死ぬのが怖い
  • 1981年のシャロン・ストーンは、致命的な祝福のウェス・クレイヴンによって目立つようになった

要するに、ホラー映画が常に俳優、監督など多産であったが、しばしば他の解釈のために記憶されてきたことを思い出すこの小さなラウンドアップ. 映画の誕生時にすでに後に、あなたは1890年に多くの恐怖を数えることができます.


Il bistrattato genere Horror … la vera fucina dei talenti…

Johnny Deep in Nightmare on Elm Street

E’ ironico notare come spesso la critica parli male di un genere che dà spesso l’occasione agli attori di emergere : l’Horror

Il futuro Villain per Tarantino

Il genere spesso ricade nel low budget, soprattutto rispetto alle produzioni classiche, quindi gli attori emergenti spesso fanno delle parti nel genere dove nomi più altisonanti non sono gestibili con i budget ridotti del genere Horror.

Qualche nome? Giusto per non cadere nel generico, o parlare di attori che poi sono noti solo agli amanti del genere? E comunque ogni grande attore ha avuto la sua capatina nel genere, più o meno nobile dell’horror.

  • Angelina Voight Jolie esordisce nel fantahorror del 1993 Cyborg 2 glass shadow
  • Brad Pitt esordisce giovanissimo, ma la sua stella inizia a brillare con Intervista col vampiro nel 1994 con Tom Cruise
  • Charlize Theron, oggi riconosciuta grande attrice dopo l’oscar di Monster e l’interpretazione in MadMax Fury Road, ha esordito in The children of the corn III
  • Clint Eastwood esordisce nel 1955 La vendetta del mostro della laguna nera e nello stesso anno anche nel film Tarantula di Jack Arnold
  • Demi Moore, prima di ghost era nel fanta horror trash del 1980 Parasite
  • George Clooney è giovanissimo quando appare nella commedia horror Il ritorno dei pomodori assassini nel 1988, e prima ancora in Grizzly II 1983 , e ancora prima La scuola degli Orrori 1987
  • Julianne Moore prima di essere la cacciatrice di Hannibal Lecter era Susan ne I delitti del gatto nero (1990), la dark Lady Connie Stone nel Noir soprannaturale Omicidi e incantesimi (1991), tornando spesso nel genere come nel 2013 nel remake di Carrie lo sguardo di Satana,
  • Il grande Jack Nicholson, iniziò nel 1960 nella Piccola bottega degli orrori, per arrivare ad essere diretto da Kubrik nel 1980 in The Shining, fino a trasformarsi poi in Lupo mannaro nel 1994 in Wolf
  • Jamie Lee Curtis è una delle prime donne che rivoluzionano l’assioma vittima carnefice nel 1978 in Halloween di John Carpenter
  • Jennifer Aniston nel 1993 è spaventata a morte dal Leprechaun prima ancora di essere Rachel di Friends
  • Johnny Deep prima di essere il feticcio di Tim Burton e Jack Sparrow era una delle prime vittime di Freddy Krueger in Nightmare on Elm street del 1984
  • John Travolta, prima delle febbre del sabato sera, faceva i suoi primi passi sul set di Carrie di Brian de Palma
  • Kate winslet, prima di salire sul Titanic per interpretare Rose, era stata una delle muse del fantahorror di Peter Jackson Creature del cielo nel 1994
  • Keanu Reeves, prima di essere immortalato in Matrix, prima di essere la star di azione con Speed, e poco dopo essersi trasformato in un sex symbol in Point Break, è interpretando Jonathan Harker in Dracula di Coppola nel 1992 che diventa un mito
  • Kevin Bacon ha l’onore di essere una delle prime vittime di Jason nel 1980 in Venerdì 13
  • Leonardo di Caprio prima di essere il divo di MrGraves e Titanic combatte i criceti spaziali in Critters 3 nel 1991
  • Liam Neeson prima di essere consacrato al grande pubblico con Schindlers’ List era il dott Peyton WestLake, il supereroe horror di Sam Raimi Darkman del 1990, e ancor prima, nel 1988, nella commedia fanta horror High Spirits con Peter O’Toole e Daryl Hannah
  • Linda Hamilton, prima di abbattere Terminator, era presente nel 1979 in Wishman, e poi era la protagonista in Children of the Corn 1984 prima di girare il primo Terminator
  • Luke Perry, che in tv è il Dylan dietro cui tutte le ragazzine morivano, al cinema esordisce un paio di anni dopo, nel 1992 con il film di Buffy l’ammazzavampiri
  • Meg Ryan prima di essere la fidanzatina d’america era l’amichetta della bimba nella casa infestata di Amitiville 3 D
  • Michelle Pfeiffer frequenta da sempre il genere, la vogliamo ricordiamo per Scarface 1983, o per essere stata la deliziosa Isaboe in LadyHawk, o Sukie Ridgemont in Le streghe di Eastwick, per poi diventare una affascinante lupa mannara in Wolf in compagnia di Jack Nicholson, e poi ancora in Dark Shadow di Burton,
  • Mila Kunis affronta nel 1995 in piranha per farsi largo nell’oceano del cinema
  • Robert De niro, anche se non a inizio carriera, non ha disdegnato l’interpretazione del mostro di Frankestein, in contrapposizione al dottore, interpretato da Kenneth Branagh nell’omonimo film Mary Shelley’s Frankenstein
  • Sam Elliot nel 1972 si lancia col film Frogs
  • Scarlett Johansson prima di diventare la Vedova Nera era una teenager nel film di genere Arac Attack nel 2002
  • Sharon Stone nel 1981 viene portata alla ribalta da Wes Craven in Benedizione mortale
  • Sigurney Weaver aveva già fatto qualche film, ma il masterpiece che l’ha lanciata è stato il primo Alien di Scott nel 1979
  • Tim Curry, istrionico, versatile artista ha attraversato ogni genere e personaggio, ma per i più resta il dott Frank-o-furter di The Rocky Horror Picture Show
  • Tom Cruise era già noto al grande pubblico con risky business, ma il salto di qualità lo fa diretto da Ridley Scott in Legend
  • Tom Hanks esordisce nel 1980 in he know you are alone
  • Winona Ryder deve il suo lancio alla commedia horror BeetleJuice di Tim Burton nel 1988 e poi in Dracula di Coppola nel 1992
  • il nostrano Zingaretti esordisce in una produzione horror italo americana Castle freak.

Insomma questa piccola carrellata per ricordare come il cinema di genere horror sia sempre stato prolifico di attori, registi, etc ma spesso si ricordano per le altre interpretazioni… dopo tutto già alla nascita del cinema si possono contare un sacco di horror, nel 1890 …


Come si espone correttamente? chissà…

Ho già scritto un articolo più esteso sull’esposizione, su come i diversi parametri shutter iso e diaframma influenzano l’esposizione, ma mi sono reso conto che spesso non è abbastanza chiaro cosa e perchè esporre in un certo modo, allora ho pensato che un post pratico possa essere più utile.

Per esporre serve un riferimento su cui lavorare, per alzare o abbassare la luce e gestire l’esposizione, i fotografi hanno sempre usato il classico cartoncino grigio 18% Kodak su cui misurare la luce. Oggi per chi lavora col digitale può trovare uno strumento molto comodo per misurare l’esposizione nel Passport dell’Xrite.

All’interno del passport troviamo un target per la calibrazione del bianco con un cartoncino grigio chiaro, che la classicoa gretag con le tacche colore, utili per uniformare diversi shot a posteriori. A seconda degli strumenti che avete a disposizione della vostra camera, dalla semplice zebra, ad uno strumento più efficiente che potrebbe essere la waveform, o se siamo più fortunati i falsi colori, dobbiamo misurare tale grigio e portarlo al valore x per la corretta esposizione.

L’esposizione eseguita col profilo rec 709 (riprese non logaritmiche) richiedono che il valore del cartoncino, o la terza tacca di grigio da destra sia a 40 ire.

Zebra : impostare la prima zebra a 40% la seconda zebra al 98%, con la prima controlliamo l’esposizione dell’incarnato, con la seconda che non sfondiamo le alte luci. Dato che in diverse camere la Zebra si ferma al 50% la si imposta e poi si scende con la luce fino a far sparire la zebra.

Waveform : qui è più facile perchè vedremo alzarsi o abbassarsi i valori luminosi, inquadrando esclusivamente il cartoncino grande potremo vedere se il valore rappresentato raggiunge o supera il 40%

Falsi colori : La corretta esposizione viene rappresentata dai colori, in questo caso il cartoncino sarà verde per il rec709, grigio scuro per il log.

Quando si deve esporre in modo corretto, si utilizza questo riferimento per avere due vantaggi, il primo è che indipendentemente dal resto dell’immagine si ha un riferimento univoco sia per fare l’esposizione, sia per allineare correttamente in post le diverse immagini; il secondo vantaggio è che in questo modo c’è consistenza nell’esposizione degli incarnati tra una scena e l’altra e quindi è molto più semplice rendere uniformi le immagini nelle fasi successive della lavorazione.
Riprendendo la tabella colore ad ogni ripresa avremo un riferimento per allineare i diversi colori, ottimizzare la temperatura colore.


Che bel televisore per vedere le telenovelas …

La schiava Isaura, la prima telenovelas della storia.

Un po’ parafrasando una frase detta da una persona a Cannes, che la digitalizzazione delle pellicole sarebbe capace di trasformare Barry Lyndon in una telenovelas, un po’ perchè oggi tra gli addetti al settore si dice che una certa immagine è “da telenovelas” ho deciso di scrivere due righe a proposito di uno drammi moderni nel vedere un film con una televisione : la rielaborazione delle immagini.

Grazie all’avvento della teorica alta definizione casalinga, parlo di teoria perchè molti canali televisivi trasmettono sui canali hd film da master in definizione standard, oppure solo ogni tanto trasmetto in hd qualcosa, le case di tutto il mondo si sono riempite di brillanti e molto contrastati televisori per vedere telegiornali e ogni tanto anche un film.

La battuta non è causale perchè tutti i televisori moderni, anche e soprattutto se hanno una definizione superiore come il 4k sono pensati principalmente per riprodurre materiale in definizione molto scarsa, e come tale da essere rielaborata perchè altrimenti le “persone sarebbero scontente del televisore”, ho letto la settimana scorsa di una persona che si lamentava della mancanza di definizione di un televisore 4k nel vedere le partite, non su canali dedicati in hd, ma sulla semplice rai SD, e la lamentela continuava dicendo che essendo il televisore 4k tutto doveva essere migliore… e che lo avrebbe cambiato a breve col marchio x che le fa vedere meglio…

è per questo tipo di persone che rappresentano il pubblico medio che ci dobbiamo sorbire immagini orribili quando andiamo a vedere immagini di qualità.

La spiegazione è molto semplice: tarando i televisori per immagini che sono forse un quarto della definizione (trasmissione fhd) o addirittura un sedicesimo della definizione del 4k, i pixel devono essere gonfiati, e quindi come tali si vedrebbero delle immagini sfuocate o di pessima qualità, quindi vanno rielaborate per sembrare migliori. Il concetto andrebbe bene se la manipolazione fosse progressiva e dosata sulla sorgente, ovvero se forniamo al televisore immagini di risoluzioni superiori o adatte alla matrice del televisore questi algoritmi si dovrebbero disabilitare, invece lavorano comunque alterando immagine, colore, contrasto, e addirittura il movimento percepito delle immagini purtroppo non tutti gli algoritmi di rielaborazione sono modificabili o diabilitabili, addirittura ogni produttore nasconde dietro nomi diversi le diverse funzioni e alcuni impediscono la disabilitazione se non sui segnali in ingresso sulle HDMI, per cui anche ricevendo un ottimo segnale 4k da netflix, devo usare un dispositivo con ingresso esterno per evitare che venga manipolato dal televisore rovinandolo.

Ora vediamo all’atto pratico cosa succede e come le immagini vengono alterate.
Qui vediamo la situazione più comune, una immagine nativa 4k vs l’equivalente trasmessa in SD, come trasmettono la maggior parte dei canali oggi nel 2018, se non mi credete andate nelle info del canale sul vostro televisore e guardate lo stream a che definizione viene inviato.

Ricordo che una classica immagine UHD è fatta da 3840 x 2160 pixel, il FHD da 1920×1080 pixel (esattamente la metà in orizzontale e verticale, quindi un quarto), il formato HD è 1280 x 720 pixel, e infine l’SD è solo 720×576 pixel rettangolari, perchè naque in un formato più quadrato e quindi per ottenere una scalatura su matrici moderne oltre che scalato viene distorto in orizzontale.

Come si può notare la differenza tra UHD (4ktv) e il formato Standard visti al 100% è notevole, perchè abbiamo una differenza di sedici volte delle informazioni visibili, quindi ingrandendo il segnale SD si vede in modo evidente la differenza.

Dato che i dettagli non si possono inventare, in queste situazioni non si può fare nulla, tranne masticare le immagini con algoritmi varii per fingere che ci sia contrasto dove non esiste, ma con immagini con dettagli fini come questi, il problema della scarsità di qualità rimane.

Se invece andiamo a lavorare con un pò più di risoluzione, ovvero con il formato HD, già il salto non è così disturbante, e potrebbero lasciare le immagini alla loro natura.

Se potessimo vedere sempre immagini in FHD su televisori FHD o 4k, la scalatura diventa minore e quindi meno evidente, anche se presente.

L’elemento che ci inganna è il fatto che ogni segnale viene processato in più modi e la stessa immagine riceve più trattamenti, dalla cosiddetta clarity che spinge luci e ombre in due estremi, alle maschere di contrasto per rendere più definiti dettagli che non possono essere definiti perchè troppo grossolani, oppure anche se il dettaglio è presente in modo corretto, lo rende artificiale perchè applica la maschera in modo lineare su tutta l’immagine.

quindi nella realtà non vedremmo una immagine in cui ci sono poche differenze tra fhd e 4k, ma vedremmo una immagine rielaborata del FHD creando articialmente difetti e artefatti dove non servono.

Quando vediamo una telenovelas è normale una certa piattezza di luce perchè per risparmiare tempo e non rischiare differenze tra una inquadratura e l’altra si rende molto più piatta e uniforme l’illuminazione, dato che si gira con telecamere la paura di non avere immagini nitide porta ad alzare parametri di nitidezza artificiale in camera, inoltre i sensori delle camere da studio sono tali per cui non si hanno grosse sfumature e differenze tra le diverse colorimetrie del set e i diversi incarnati. In pratica esattamente l’opposto di ciò che si fa con i film per dare il look cinematografico.

Prendiamo una immagine dal bluray di MonsterSquad, un classico teenager movie anni 80 a cui serie come Stranger Things devono tutto, mettiamola su un normale televisore, il risultato nel migliore dei casi sarà come quello che vedete qui sotto, ovvero una versione telenovelizzata dell’immagine originale, con applicata la tecnica della clarity per dare maggior contrasto locale all’immagine,  una maschera di contrasto per definire tutti i dettagli dell’immagine, rovinando completamente l’atmosfera dell’immagine, appiattendo l’immagine dove il direttore di fotografia aveva deciso separando con luce e ombra i due piani. E’ molto evidente se si guarda come vengano fuori gli elementi dalle ombre dietro l’attore, distraendo e comprimendo lo spazio intorno ad esso.

Naturalmente non può mancare una forte riduzione rumore perchè di sicuro tra compressione e trasmissione si creerà rumore che assolutamente non può essere accettato, peccato che venga eliminata spesso in questo modo anche la grana e la struttura della pellicola, oltre ad eliminare il dettaglio fine.

Il dettaglio artificiale dato dalla maschera di contrasto esalta in modo eccessivo i capelli dell’anziano protagonista, ma accentua anche i dettagli fuorifuoco alla sua destra, perchè purtroppo l’algoritmo viene applicato in modo piatto e uniforme ad ogni parte dell’immagine, mentre nella realtà se abbiamo una parte nitida (a fuoco) e una morbida (fuorifuoco) la nitidezza naturale è dosata e distribuita aumentando la sensazione di profondità delle immagini.

Queste tecniche potrebbero aiutare una immagine debole, ma se applicate ad una buona immagine la rendono molto più televisiva e piatta, rovinando il lavoro di un buon direttore di fotografia, e non solo. Inoltre andrebbero dosate inquadratura per inquadratura, area per area con delle maschere, per poter dare un vero contributo all’immagine, invece su qualunque televisore applicano questi effetti in modo piatto su tutta l’immagine rovinando in più punti la resa della fotografia.

Il buon Stu di ProLost, esperto di vfx, colore e immagini ha fatto un ottimo post su come non solo rovinino le immagini a livello colore e contrasto, ma rielaborino anche il movimento e la percezione dello stesso, creando artificialmente fotogrammi superflui, che diventano necessari perchè gli originali essendo stati troppo contrastati hanno perso la loro originale sfuocatura di movimento e sono diventati scattosi… insomma un serpente che si morde la coda…

Chiudiamo il discorso con un paio di immagini pubblicitarie che ci fanno capire come il brutto vizio di manipolare le immagini non è una derivazione moderna, ma da tanti anni abbiamo il problema di poter vedere ciò che i direttori di fotografia hanno pensato in origine, solo che una volta sui tubi con l’immagine analogica le rielaborazioni erano limitate, oggi purtroppo si può massacrare ogni immagine oltre ogni limite della decenza.

https://youtu.be/kBTnOmIXnp4

comunque nel mio post sui formati dell’immagine potete trovare qualche riferimento su come una volta venissero tagliate anche le proporzioni video e selvaggiamente tagliate le inquadrature per adattarle prima al 4:3 poi a rovescio per adattare al 16:9 filmati girati con aspect ratio più vicino al 3:2 (super16mm).

Invece per chi è dubbioso, feci tempo fà un post tra pellicola e digitale, le differenze effettive in ripresa e resa dei due media, sfido tante persone di distinguere al cinema quali sequenze sono girate in pellicola, quali in digitale e poi stampate su pellicola, etc… la maggior parte delle persone non si accorge di come i film contengano una miscelazione ampia di diversi media, analogici, digitali etc.

Sono sicuro che se Kubrick fosse ancora vivo, non solo avrebbe abbracciato il digitale, ma sarebbe stato così cocciutamente testardo da far creare per lui un sistema di check dei proiettori digitali e dei televisori per far vedere correttamente le immagini dei suoi film, cosa tecnicamente fattibile da anni, ma che a quanto pare non sembra interessare a nessuno, e questa non è una mia elucubrazione, ma alle prime di molti suoi film si preoccupava che la proiezione fosse a livello qualitativo eccellente per esaltare il lavoro da lui fatto svolgere, quindi se lo fece per la pellicola, lo avrebbe fatto fare anche per il digitale.

Nota a margine: la schiava Isaura, la prima telenovelas ufficiale della storia della tv era girata in pellicola, quindi ironicamente poco telenovelas come stile visivo.


Pagina 19 di 40

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!