Tutto è possibile

Categoria: Tecnica Pagina 13 di 25

Riflessione tecnica e/o analisi tecnica

Come si espone correttamente? chissà…

Ho già scritto un articolo più esteso sull’esposizione, su come i diversi parametri shutter iso e diaframma influenzano l’esposizione, ma mi sono reso conto che spesso non è abbastanza chiaro cosa e perchè esporre in un certo modo, allora ho pensato che un post pratico possa essere più utile.

Per esporre serve un riferimento su cui lavorare, per alzare o abbassare la luce e gestire l’esposizione, i fotografi hanno sempre usato il classico cartoncino grigio 18% Kodak su cui misurare la luce. Oggi per chi lavora col digitale può trovare uno strumento molto comodo per misurare l’esposizione nel Passport dell’Xrite.

All’interno del passport troviamo un target per la calibrazione del bianco con un cartoncino grigio chiaro, che la classicoa gretag con le tacche colore, utili per uniformare diversi shot a posteriori. A seconda degli strumenti che avete a disposizione della vostra camera, dalla semplice zebra, ad uno strumento più efficiente che potrebbe essere la waveform, o se siamo più fortunati i falsi colori, dobbiamo misurare tale grigio e portarlo al valore x per la corretta esposizione.

L’esposizione eseguita col profilo rec 709 (riprese non logaritmiche) richiedono che il valore del cartoncino, o la terza tacca di grigio da destra sia a 40 ire.

Zebra : impostare la prima zebra a 40% la seconda zebra al 98%, con la prima controlliamo l’esposizione dell’incarnato, con la seconda che non sfondiamo le alte luci. Dato che in diverse camere la Zebra si ferma al 50% la si imposta e poi si scende con la luce fino a far sparire la zebra.

Waveform : qui è più facile perchè vedremo alzarsi o abbassarsi i valori luminosi, inquadrando esclusivamente il cartoncino grande potremo vedere se il valore rappresentato raggiunge o supera il 40%

Falsi colori : La corretta esposizione viene rappresentata dai colori, in questo caso il cartoncino sarà verde per il rec709, grigio scuro per il log.

Quando si deve esporre in modo corretto, si utilizza questo riferimento per avere due vantaggi, il primo è che indipendentemente dal resto dell’immagine si ha un riferimento univoco sia per fare l’esposizione, sia per allineare correttamente in post le diverse immagini; il secondo vantaggio è che in questo modo c’è consistenza nell’esposizione degli incarnati tra una scena e l’altra e quindi è molto più semplice rendere uniformi le immagini nelle fasi successive della lavorazione.
Riprendendo la tabella colore ad ogni ripresa avremo un riferimento per allineare i diversi colori, ottimizzare la temperatura colore.


Che bel televisore per vedere le telenovelas …

La schiava Isaura, la prima telenovelas della storia.

Un po’ parafrasando una frase detta da una persona a Cannes, che la digitalizzazione delle pellicole sarebbe capace di trasformare Barry Lyndon in una telenovelas, un po’ perchè oggi tra gli addetti al settore si dice che una certa immagine è “da telenovelas” ho deciso di scrivere due righe a proposito di uno drammi moderni nel vedere un film con una televisione : la rielaborazione delle immagini.

Grazie all’avvento della teorica alta definizione casalinga, parlo di teoria perchè molti canali televisivi trasmettono sui canali hd film da master in definizione standard, oppure solo ogni tanto trasmetto in hd qualcosa, le case di tutto il mondo si sono riempite di brillanti e molto contrastati televisori per vedere telegiornali e ogni tanto anche un film.

La battuta non è causale perchè tutti i televisori moderni, anche e soprattutto se hanno una definizione superiore come il 4k sono pensati principalmente per riprodurre materiale in definizione molto scarsa, e come tale da essere rielaborata perchè altrimenti le “persone sarebbero scontente del televisore”, ho letto la settimana scorsa di una persona che si lamentava della mancanza di definizione di un televisore 4k nel vedere le partite, non su canali dedicati in hd, ma sulla semplice rai SD, e la lamentela continuava dicendo che essendo il televisore 4k tutto doveva essere migliore… e che lo avrebbe cambiato a breve col marchio x che le fa vedere meglio…

è per questo tipo di persone che rappresentano il pubblico medio che ci dobbiamo sorbire immagini orribili quando andiamo a vedere immagini di qualità.

La spiegazione è molto semplice: tarando i televisori per immagini che sono forse un quarto della definizione (trasmissione fhd) o addirittura un sedicesimo della definizione del 4k, i pixel devono essere gonfiati, e quindi come tali si vedrebbero delle immagini sfuocate o di pessima qualità, quindi vanno rielaborate per sembrare migliori. Il concetto andrebbe bene se la manipolazione fosse progressiva e dosata sulla sorgente, ovvero se forniamo al televisore immagini di risoluzioni superiori o adatte alla matrice del televisore questi algoritmi si dovrebbero disabilitare, invece lavorano comunque alterando immagine, colore, contrasto, e addirittura il movimento percepito delle immagini purtroppo non tutti gli algoritmi di rielaborazione sono modificabili o diabilitabili, addirittura ogni produttore nasconde dietro nomi diversi le diverse funzioni e alcuni impediscono la disabilitazione se non sui segnali in ingresso sulle HDMI, per cui anche ricevendo un ottimo segnale 4k da netflix, devo usare un dispositivo con ingresso esterno per evitare che venga manipolato dal televisore rovinandolo.

Ora vediamo all’atto pratico cosa succede e come le immagini vengono alterate.
Qui vediamo la situazione più comune, una immagine nativa 4k vs l’equivalente trasmessa in SD, come trasmettono la maggior parte dei canali oggi nel 2018, se non mi credete andate nelle info del canale sul vostro televisore e guardate lo stream a che definizione viene inviato.

Ricordo che una classica immagine UHD è fatta da 3840 x 2160 pixel, il FHD da 1920×1080 pixel (esattamente la metà in orizzontale e verticale, quindi un quarto), il formato HD è 1280 x 720 pixel, e infine l’SD è solo 720×576 pixel rettangolari, perchè naque in un formato più quadrato e quindi per ottenere una scalatura su matrici moderne oltre che scalato viene distorto in orizzontale.

Come si può notare la differenza tra UHD (4ktv) e il formato Standard visti al 100% è notevole, perchè abbiamo una differenza di sedici volte delle informazioni visibili, quindi ingrandendo il segnale SD si vede in modo evidente la differenza.

Dato che i dettagli non si possono inventare, in queste situazioni non si può fare nulla, tranne masticare le immagini con algoritmi varii per fingere che ci sia contrasto dove non esiste, ma con immagini con dettagli fini come questi, il problema della scarsità di qualità rimane.

Se invece andiamo a lavorare con un pò più di risoluzione, ovvero con il formato HD, già il salto non è così disturbante, e potrebbero lasciare le immagini alla loro natura.

Se potessimo vedere sempre immagini in FHD su televisori FHD o 4k, la scalatura diventa minore e quindi meno evidente, anche se presente.

L’elemento che ci inganna è il fatto che ogni segnale viene processato in più modi e la stessa immagine riceve più trattamenti, dalla cosiddetta clarity che spinge luci e ombre in due estremi, alle maschere di contrasto per rendere più definiti dettagli che non possono essere definiti perchè troppo grossolani, oppure anche se il dettaglio è presente in modo corretto, lo rende artificiale perchè applica la maschera in modo lineare su tutta l’immagine.

quindi nella realtà non vedremmo una immagine in cui ci sono poche differenze tra fhd e 4k, ma vedremmo una immagine rielaborata del FHD creando articialmente difetti e artefatti dove non servono.

Quando vediamo una telenovelas è normale una certa piattezza di luce perchè per risparmiare tempo e non rischiare differenze tra una inquadratura e l’altra si rende molto più piatta e uniforme l’illuminazione, dato che si gira con telecamere la paura di non avere immagini nitide porta ad alzare parametri di nitidezza artificiale in camera, inoltre i sensori delle camere da studio sono tali per cui non si hanno grosse sfumature e differenze tra le diverse colorimetrie del set e i diversi incarnati. In pratica esattamente l’opposto di ciò che si fa con i film per dare il look cinematografico.

Prendiamo una immagine dal bluray di MonsterSquad, un classico teenager movie anni 80 a cui serie come Stranger Things devono tutto, mettiamola su un normale televisore, il risultato nel migliore dei casi sarà come quello che vedete qui sotto, ovvero una versione telenovelizzata dell’immagine originale, con applicata la tecnica della clarity per dare maggior contrasto locale all’immagine,  una maschera di contrasto per definire tutti i dettagli dell’immagine, rovinando completamente l’atmosfera dell’immagine, appiattendo l’immagine dove il direttore di fotografia aveva deciso separando con luce e ombra i due piani. E’ molto evidente se si guarda come vengano fuori gli elementi dalle ombre dietro l’attore, distraendo e comprimendo lo spazio intorno ad esso.

Naturalmente non può mancare una forte riduzione rumore perchè di sicuro tra compressione e trasmissione si creerà rumore che assolutamente non può essere accettato, peccato che venga eliminata spesso in questo modo anche la grana e la struttura della pellicola, oltre ad eliminare il dettaglio fine.

Il dettaglio artificiale dato dalla maschera di contrasto esalta in modo eccessivo i capelli dell’anziano protagonista, ma accentua anche i dettagli fuorifuoco alla sua destra, perchè purtroppo l’algoritmo viene applicato in modo piatto e uniforme ad ogni parte dell’immagine, mentre nella realtà se abbiamo una parte nitida (a fuoco) e una morbida (fuorifuoco) la nitidezza naturale è dosata e distribuita aumentando la sensazione di profondità delle immagini.

Queste tecniche potrebbero aiutare una immagine debole, ma se applicate ad una buona immagine la rendono molto più televisiva e piatta, rovinando il lavoro di un buon direttore di fotografia, e non solo. Inoltre andrebbero dosate inquadratura per inquadratura, area per area con delle maschere, per poter dare un vero contributo all’immagine, invece su qualunque televisore applicano questi effetti in modo piatto su tutta l’immagine rovinando in più punti la resa della fotografia.

Il buon Stu di ProLost, esperto di vfx, colore e immagini ha fatto un ottimo post su come non solo rovinino le immagini a livello colore e contrasto, ma rielaborino anche il movimento e la percezione dello stesso, creando artificialmente fotogrammi superflui, che diventano necessari perchè gli originali essendo stati troppo contrastati hanno perso la loro originale sfuocatura di movimento e sono diventati scattosi… insomma un serpente che si morde la coda…

Chiudiamo il discorso con un paio di immagini pubblicitarie che ci fanno capire come il brutto vizio di manipolare le immagini non è una derivazione moderna, ma da tanti anni abbiamo il problema di poter vedere ciò che i direttori di fotografia hanno pensato in origine, solo che una volta sui tubi con l’immagine analogica le rielaborazioni erano limitate, oggi purtroppo si può massacrare ogni immagine oltre ogni limite della decenza.

https://youtu.be/kBTnOmIXnp4

comunque nel mio post sui formati dell’immagine potete trovare qualche riferimento su come una volta venissero tagliate anche le proporzioni video e selvaggiamente tagliate le inquadrature per adattarle prima al 4:3 poi a rovescio per adattare al 16:9 filmati girati con aspect ratio più vicino al 3:2 (super16mm).

Invece per chi è dubbioso, feci tempo fà un post tra pellicola e digitale, le differenze effettive in ripresa e resa dei due media, sfido tante persone di distinguere al cinema quali sequenze sono girate in pellicola, quali in digitale e poi stampate su pellicola, etc… la maggior parte delle persone non si accorge di come i film contengano una miscelazione ampia di diversi media, analogici, digitali etc.

Sono sicuro che se Kubrick fosse ancora vivo, non solo avrebbe abbracciato il digitale, ma sarebbe stato così cocciutamente testardo da far creare per lui un sistema di check dei proiettori digitali e dei televisori per far vedere correttamente le immagini dei suoi film, cosa tecnicamente fattibile da anni, ma che a quanto pare non sembra interessare a nessuno, e questa non è una mia elucubrazione, ma alle prime di molti suoi film si preoccupava che la proiezione fosse a livello qualitativo eccellente per esaltare il lavoro da lui fatto svolgere, quindi se lo fece per la pellicola, lo avrebbe fatto fare anche per il digitale.

Nota a margine: la schiava Isaura, la prima telenovelas ufficiale della storia della tv era girata in pellicola, quindi ironicamente poco telenovelas come stile visivo.


Workflow che parolaccia

Workflow in inglese indica il corretto flusso di lavoro per eseguire nel modo corretto un lavoro X, ma pare che la maggior parte delle persone sia allergica a tale processo.

Nella mia vita ho visto milioni di persone, dal vivo o online lamentarsi che la camera/il programma/lo strumento XXX non fa XYZ, senza studiare come vanno usati o come vanno gestiti correttamente, perchè invece di leggere 10 pagine di manuale preferiscono perdere mesi su facebook e su google a cercare la risposta che hanno sotto gli occhi.

Gente che chiede perchè non riesce a fare l’operazione X che faceva su un prodotto completamente diverso, quando nel manuale è scritto esplicitamente che non si può fare o che si fa in modo diverso. Ad esempio con buona parte delle camere Blackmagic le persone riempono i forum di domande imbarazzanti piuttosto che leggere 19 pagine (con le figure) di manuale, e se una persona arriva a chiedere come si vedono le clip appena girate quando in grande ci sono i bottoni di play con il classico simbolo triangolare, convenzione esistente da prima che nascessi io…

Un esempio che trovo più imbarazzante mi è capitato stasera leggendo su un sito noto di filmaking una tecnica per ridurre l’effetto fisheye delle GoPro usando diversi programmi da HitFilm a PremiereCC e altri, spiegando quale funzione usare e come… peccato che GoPro fornisca gratis un sistema più efficace e di qualità per eseguire quello e altre operazioni importanti per gestire un filmato di una gopro, ma quasi nessuno lo usa… perchè è talmente facile da usare come camera, che tutti la usano subito senza leggere le istruzioni, e quindi… ne usano il 10% del potenziale.

Pur non essendo amante delle gopro per il tipo di ottica presente, sarebbe utile sapere che :

  • posseggono una modalità di ripresa log, detta protune, e un camraw per catturare meglio e in modo più cinematico le immagini proteggendo meglio le informazioni delle alte e basse luci, con differenze qualitative notevoli.
  • possono settare in diversi modi l’otturazione per avere una resa più cinematografica
  • nel sistema stesso di ripresa possono ridurre l’effetto fish eye con una elaborazione realtime della camera con diversi algoritmi creati da David Newman, autore di Cineform e di molte innovazioni Gopro
  • Il software free proprietario permette la lettura e ottimizzazione di un file log protune trasformandolo in un file più utilizzabile cineform attuando anche la conversione colore in uno spazio a 10bit 4:2:2 dal file originale 8bit 4:2:0 eseguendo l’upsampling del rosso e ottimizzando in funzione del file compresso da gopro, cosa che nessun software è in grado di eseguire
  • il software free proprietario legge i metadati della camera ed è in grado di gestire meglio la conversione da fisheys a filmato più “naturale” sfruttando i dati geometrici delle lenti goPro
  • il software free proprietario ha degli algoritmi per ottimizzare i timelapse fotografici realizzati con la gopro per fondere meglio e in modo più naturale i diversi fotogrammi.

E questo solo per dire alcune delle potenzialità che vengono regalate agli utenti gopro gratuitamente, ma che la maggior parte delle persone si perdono perchè non si prendono la briga di leggere le istruzioni o comprendere quale sia il corretto workflow di utilizzo di questa piccola ma potente camera.


Panasonic Lumix GH5 una videocamera per i fotografi 2.1

La Lumix Gh5, quinta iterazione della serie GHxx di Panasonic, è la camera più chiaccherata del momento, per caratteristiche, resa, funzionalità aggiunte, e perchè come al solito ci si lamenta sempre di ciò che non si ha…

La Lumix GH5 offre tutto quello che i filmaker hanno sempre richiesto dalle video reflex/mirrorless del passato, e molto di più,  stiamo parlando di :

  1. Riprese FullHD, UHD, 4K DCI, 6K in 4:2:0 8 bit
  2. Riprese in FHD, UHD, 4K DCI in 10bit 4:2:2 in camera codec Intra fino a 400mbit
  3. Ripresa fino a 60 fps in UHD, 180 in FHD
  4. Sensore Stabilizzato a 5 assi sempre (Sony offre 3 assi, 5 solo con ottiche dedicate) combinato con stabilizzatori delle ottiche
  5. HDMI (dimensione full) Out UHD 60fps 10 bit 4:2:2
  6. Doppio Slot SD per tutti questi tipi di file per registrazione parallela, simultanea, backup, o foto da una parte e video dall’altra.
  7. Niente filtro antialias per una nitidezza assurda d’immagine.
  8. Strumenti per Timelapse di ogni tipo di Serie
  9. Strumenti per Animazione stop motion, con Onion skin per favorire animazione
  10. Cattura con Profilo HLG per HDR 2020
  11. Cattura dell’immagine completa del sensore con funzione anamorfica per immagini assolutamente uniche.
  12. Rolling shutter estremamente basso (13ms) da essere più veloce di una telecamera (Sony Fs7 – 14 ms), per non introdurre artefatti di movimento nelle panoramiche.
  13. Sistema di regolazione del sincro per evitare flickering di monitor e luci di ogni tipo
  14. Interessante app che funge sia da controllo remoto che strumento per download e ottimizzazione foto e video per preview.
  15. Finalmente con il firmware 2.1 tethering per gestione remota da software Panasonic e sdk per aprirsi a tutti gli altri software.

Giusto per dare una idea delle caratteristiche di punta della camera, ma i suoi pro sono anche molti altri… non però così innovativi come questi.

Come mia abitudine, vediamo di capire quali sono i punti deboli che si possono leggere di questa camera, così poi andiamo in discesa con i punti forti di questo giocattolo.

Contro

  • Peso 725gr senza Sd o batteria per cui diventa più di 800gr solo il corpo macchina, uniti a una buona lente, ed eventualmente un adattatore arriviamo facilmente al kg e mezzo di prodotto. Per molte persone è un difetto, per il sottoscritto abituato alle reflex vecchia maniera o alle telecamere spallari, risulta più stabile quando si fanno riprese o fotografie. Il peso nasce dal fatto che ha un corpo tropicalizzato per gestire le situazioni più complesse, da umidità a polvere fino alle temperature più estreme.
  • Formato m4/3, il che significa sia crop 2X, sia ottiche dedicate.
    Ci sono punti di vista riguardo a questo discorso discordanti, per alcuni rappresenta un problema, per quanto mi riguarda troverete che indico il Formato m4/3 anche nei pregi e vedrete perchè.
  • Registrazione dei file h264/265 10bit 4:2:2 pesanti da gestire a livello informatico e spesso fuori standard per cui molti programmi non riconoscono i file della camera.
    I principali NLE supportano da giugno 2017 i file della camera, gli standard H264/265 prevedono file a 10bit, ma la maggior parte dei programmi non avevano implementato la lettura perchè nessuna camera realizzava questo tipo di file, ora lo stanno facendo.
    Al massimo basta convertire i file in un qualunque DI per usarli agilmente in ogni NLE, come si fa con ogni telecamera che registra in formato proprietario (diverse camere Sony e Jvc), oppure come normalmente fanno i programmi più professionali di montaggio che convertono in un codec ottimizzato per l’editing (Avid, FInalCut, Edius, Etc).
    Con l’attuale firmware 2.1 abbiamo anche una serie di formati Intraframe a 300mbit che sono di poco più leggeri come giga ad un file proresLt, il che significa che a livello di dettaglio e qualità queste codifiche inseriscono un mondo di dettagli in più, anche se richiedono costose SD da 300 mbits
  • Autofocus non eccezionale anche se per quanto mi riguarda più che buono, in video se si utilizzano le sue ottiche dedicate di qualità, come la serie powerzoom X come il 14-42, 12-35, l’autofocus video non è male se settato correttamente, sopratutto oggi con il firmware 2.1 che ha aggiunto funzioni specifiche per il video, ma ricordiamo che è un autofocus per contrasto quindi molto dipende dall’immagine su cui stiamo lavorando, nulla a che vedere con il dual focus della serie Cinema di canon, però la camera costa anche 1/3 della più economica di quelle…
  • Codifica Log a pagamento (99 euro), spedita in busta cartacea…
    sono d’accordo con Panasonic nel voler evitare che chi non ha la conoscenza tecnica dell’esposizione dei file log non danneggi le proprie riprese con esposizioni non corrette, Sony ha imparato sulla sua pelle questo tipo di lezione.
    Certo che essendo nel 2017 fare un acquisto online e poi aspettare per ricevere un codice in busta nera (non scherzo, scatola arrivata con DHL contenente una busta nera), per poi inserirlo on line con la firma hardware della camera, lo trovo alquanto imbarazzante… Non so per chi è abituato diversamente, ma compro Online da un quarto di secolo, ed è la prima volta che incontro una procedura così imbarazzante.
  • Log con curva molto custom che richiede buone conoscenze di color per estrapolare nel modo corretto colore e contrasto senza estrapolare rumore dalle immagini, ma se correttamente esposte offrono una gamma dinamica molto interessante.
  • Personalizzazioni discutibili di come funzionano alcuni strumenti, ad esempio la gestione del focus peaking tra mirino e LCD, tra mirino zoomato e senza, il fatto che non si può disabilitare dall’uscita video lo zoom che si utilizza sul mirino o sul LCD per la messa a fuoco (immaginate di registrare l’uscita video, questo vuol dire che non potete usare più la funzione di zoom perchè in camera viene registrato il segnale pieno mentre vi mostra su lcd l’immagine con zoom, ma in uscita sta nuovamente facendo lo zoom.

Dopo aver iniziato ad usarla a luglio, dopo qualche mese, con diverse prove di utilizzo sia con lenti sue che con lenti canon collegate con metabone, e con lenti prime manuali, posso dire che Panasonic ha fatto un ulteriore salto avanti sia con l’ergonomia che con la qualità generale del prodotto, dal lato fotografico a e soprattutto al lato video, con una vasta scelta di opzioni, strumenti professionali di controllo, esposizione e compressione del video a tantissimi livelli.

Se si vuole lavora con questa camera la lista della spesa può essere breve o lunga a seconda delle vostre necessità 😀


Crop la parola definitiva… il fullframe non è un vero fullframe, ha crop, addirittura 2.4

Più volte ho ironizzato sul fatto che non ho pensato mai al crop finchè alcuni articoli me lo hanno fatto notare, ora dopo questo dispetto che mi è stato fatto/ tempo perso a rifletterci e dopo tante fuffe inventate dai pubblicitari e dai pixel peeper di tutto il mondo, restituisco la moneta con una affermazione matematicamente corretta dicendo, no tutti i concetti di crop sono sbagliati, il full frame non è vero che non ha crop, anzi ha un crop 2.4, quindi non rompeteci le scatole e convivete con questo concetto ottico!!!!

Una prova della mia affermazione?

Il marketing dice che data focale deve avere un certo angolo visivo, altrimenti ha crop, il FullFrame non ha crop perchè se metto un 50mm ho un angolo di 46.8 gradi, mentre se lo metto davanti ad altri sensori ho meno gradi, questo è vero, tranne per un dettaglio…

Il termine full frame è stato inventato dal marketing, questo termine viene usato in riferimento al diffuso formato amatoriale 24×36 mm, ma se vogliamo creare un punto di riferimento senza crop si deve andare sul medio formato, ovvero il 60x90mm, dove il 50mm cattura ben 112.6 gradi dell’immagine…
Il vero formato di riferimento della fotografia professionale è da sempre il 6×9 (scarto il 6×6 sia perchè quadrato, sia perchè non è l’area massima di cattura di un fotogramma), quindi stabilendo che quello è il vero punto zero come crop (evito di andare sulla lastra del dagherrotipo o altri formati non diffusi del largo formato, ma resto nel medio formato), il formato 24×36 rispetto ad esso ha un crop 2.4, semplice matematica calcolando la focale sulla diagonale del sensore/piano focale.

Se volete divertirvi con i calcoli trovate sul sito foto.bonavoglia.eu il calcolatore degli angoli focali in funzione dei formati.

Quindi da oggi a chi vi dice che avete un sensore con crop perchè inferiore al 24×36, fate presente che anche quello ha crop, quasi 3… che se si vuole perdere tempo dietro il concetto di crop, si deve usare un vero punto di partenza, non quello che il marketing dell’industria fotografica digitale si è inventato per comodità, perchè la maggior parte dei produttori produce al max sensori 24×36 e quindi secondo loro quello delle essere il riferimento standard.

La realtà dei fatti qual’è?
Semplice: il concetto di crop, ovvero che state tagliando/perdendo qualcosa è stato inventato dal marketing per dare un maggior valore alle macchine fotografiche digitali Fullframe, per affermare che siano migliori; giustificare un prezzo maggiore con qualcosa di tangibile, ovvero l’angolo focale maggiore. La realtà dei fatti è che da sempre in fotografia e cinematografia a seconda dei sensori e delle lenti si ha un angolo visivo differente, per leggi ottiche, e come tali non ci si è mai fatto il problema.

Di recente è avvenuta l’introduzione degli Speedbooster della Metabone, strumenti ottici che focalizzano il fascio di luce di una lente di dimensioni maggiori a quelle del piano focale su cui si proietta, recuperando angolo focale e spesso anche luminosità.

Gli speedbooster della Metabone dimostrano che volendo i vari produttori di lenti fotografiche e cinematografiche potrebbero ridurre in modo considerevole il limite dei sensori più piccoli con una focalizzazione doppia della luce, guadagnando magari uno o più stop, ma il costo di tale operazione mantenendo la qualità originale è talmente alto che nessuna azienda vuole affrontare tale operazione per le proprie lenti, pur potendolo fare in modo più agevole e solido che un adattatore esterno ad esse come il Metabone.

 

Pagina 13 di 25

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!