Carlo Macchiavello

Tutto è possibile

Le lenti Aps-C queste misteriose creature ibride…

Ma quando compro una lente APS-C? ho sempre il crop?

Il crop nasce quando abbiamo un sensore che non copre tutta la circonferenza della lente POSTERIORE, vedi articolo sul crop, mentre quando una lente nasce per APS-C è fatta per coprire correttamente la dimensione del sensore aps-C.

image_circleCome potete vedere nell’immagine a sinistra, quando si realizza una lente aps-c la misura della lente posteriore che focalizza i raggi di luce sul sensore.

Il fatto che nelle lenti APS-C la lente frontale di grandi dimensioni, maggiori del sensore, non significa che la parte posteriore non sia ridimensionata per una corretta focalizzazione, altrimenti non dovrebbe avere senso creare una lente APS-c, farebbero solo lenti FullFrame.

Tutte le case che producono lenti, hanno a catalogo lenti ottimizzate per FullFrame e lenti ottimizzate per APS-C, quindi applicare il concetto di crop delle lenti fullframe alle lenti aps-c potrebbe essere un concetto sbagliato in partenza.

Sempre in questa immagine potete vedere anche la copertura di un sensore cine come quello della BlackMagic Cinema Camera 4k, che è dichiarato come un s35, leggermente inferiore come dimensione all’aps-c, circa mezzo millimetro in larghezza e un millimetro e mezzo in altezza, questo significa che la lente è leggermente abbondante rispetto al sensore, quanto basta per evitare i rischi di eventuali vignettature con un grandangolo più spinto, ma allo stesso tempo non si rischiano fattori di crop che obblighino strani calcoli o acquisti su grandangolari spinti.

Questo fattore dimensionale mi permette di dire tranquillamente che su macchine S35 come la BlackMagic Cinema Camera le lenti di qualità pensate per l’APS-C sono la scelta ottimale come rapporto lunghezza focale – sensore.

Perchè uso il verbo condizionale? perchè aver fatto un po’ di esperimenti pratici con più lenti, ho scoperto che i produttori di lenti vogliono proprio male ai propri utenti… a seconda delle lenti, dello stesso produttore, ci sono lenti aps-c che inseriscono il Crop o no, a seconda di come sono costruite e posizionate i gruppi di lenti all’interno della lente..
Quindi in soldoni … bisogna provare e confrontare le lenti quando si prendono per verificare come e se hanno un fattore di crop.

Un esempio ? L’ottima 17-55 2.8 Canon è una lente APS-C pensata per sensori APS-C ma in realtà è stato solo ottimizzata la lente posteriore per il formato APS-C, mantiene il crop come posizione e gestione di lenti interne, per cui se ponete questa lente in 55mm avremo lo stesso crop come se avessimo messo una lente 55mm full frame…

Per i sostenitori che la lunghezza/angolo focale è determinato solo dalla distanza lenti interna ricordo che la forma diversa delle lenti determina la capacità di raccolta della luce e convogliamento di raggi provenienti da più direzioni, per cui i grandangolari più spinti vengono detti fish eyes non solo per la capacità di lettura angolare ma anche dalla forma che ricorda la cupola dell’occhio di pesce, inoltre se fosse come dicono che è solo quello, mi spieghino per cortesia l’esistenza dei moltiplicatori di focale, che consentono di raddoppiare la focale non allungando realmente della stessa distanza le lenti dal sensore (200mm che diventa 400mm, ma non lo allungo di 20cm il tele), e dei riduttori di focale, che dagli anni 40 esistono sia da mettere davanti alla lente (dalle lenti anamorfiche ai grandangolari aggiuntivi), o quelli come gli speedbooster della metabone che raccolgono le informazioni che non potrebbero esistere.
Rinnovo il concetto che ci sono lenti create per i sensori a misura e lenti tagliate per i sensori a misura, per cui i risultati sono diversi e confermano sia il concetto di crop che di non crop, solo che tecnicamente è più economico tagliare una lente a misura di un sensore o applicare direttamente il crop che introdurre un focal reducer e quindi ottenere la focale reale sia come lunghezza focale (distorsione prospettica) sia come angolo focale (capacità di lettura angolare del campo visivo).


L’importanza dell’ ISO nel digitale

image-quality-and-iso-sensitivityDopo aver chiacchierato con un po’ di persone ho pensato di buttar giù due riflessioni sulla sensibilità dei sensori moderni e sulla ignoranza che dilaga …

Ormai se una camera non riprende al buio con 128.000 iso (ho scritto 3 zeri) sembra che sia inutilizzabile, infatti il cinema si è sempre fornito di pellicole a 128.000 iso… naturalmente…
quando ho detto di aver usato una cinepresa digitale che lavora a 400 iso mi hanno preso per folle, e hanno pensato che parlassi di un prodotto molto vecchio.

Il cinema è fatto di sensibilità e luce, luce che si riceve, che si cattura, che si riflette …
Quando il cinema incontra l’avventura Fitzcarraldo
Se girate documentari, posso capire la ricerca della luce naturale, ma non ricordo tra le pellicole approvate dal National Geographics sensibilità superiori ai 1600 asa, quando si parlava di fotografia, assolutamente 400 per quanto riguardava i documentari… il lavoro veniva rifiutato, perchè non era nei loro standard.

Kodak e Fuji hanno prodotto pellicola cinematografica fino all’anno scorso, ora solo per le copie d’archivio, e non hanno mai fatto pellicole troppo sensibili, perchè le emulsioni più sensibili erano meno nitide, sia per struttura dei grani della pellicola, sia per la lavorazioen durante lo sviluppo. Infatti regola aurea in fotografia è usa sensibilità bassa perchè corrisponde a granulosità fine quindi dettaglio e definizione.

I digitalartisti che sono nati col digitale, e non si sono sforzati di conoscere l’analogico almeno come base di teoria, sono convinti che tutto sia legato alla sensibilità del sensore e della macchina, dimenticando che poi un sensore troppo sensibile, o amplifica digitalmente il segnale, oppure diventa inutilizzabile di giorno, perchè si deve chiudere il diaframma così tanto (creando diffrazione e quindi perdita di nitidezza) o usando filtri ND così spessi da perdere nitidezza e/o causare dominanti a vignettatura laterale che non si potranno mai togliere in post se non con fatiche assurde.

Esempio, con sensore a 400 iso, alle 15 di pomeriggio devo chiudere in situazione media il diaframma a 8-11 per esporre correttamente, oppure usare un ND 16 per togliere gli stop necessari per poter gestire l’esposizione corretta.
Se devo fare delle riprese in orari più serali o notturni sarebbe innaturale vedere sempre e tutto, ma comunque usando ottiche prime più veloci (1.8-1.2) posso lavorare con immagini ottime e dettagliate.

Troppo spesso si spinge per avere native immagini che tra rumore, e distorsioni date dall’amplificazione del segnale diventano innaturali…
Una ottica 50 mm 1.4 a 1600 iso 1/48 fornisce una immagine paragonabile a quella dell’occhio umano medio, come contrasto, luminosità in esterni notturni.

Troppi pensano che il segreto del filmlike sia un uso di tecnologie molto spinte, mentre alle volte il vero segreto è lavorare entro i limiti delle macchine, e saperli gestire al meglio…
Ogni DoP serio sa che se la macchina offre 14 stop di gamma dinamica è meglio usarne 8-9 se va bene, perchè la testa e la coda… come per fare del buon whisky vanno buttate… è il motivo per cui è nato il Log, che oggi si usa più del Raw e con il raw; si prende il meglio della gamma dinamica, lo si rimappa nel range disponibile di registrazione comprimendo tutte le informazioni, ma potendole riespandere a posteriori oltre a recuperare tutta la gamma dinamica si ha una qualità che non si avrebbe mai lavorando con il video in modalità normale.

Un’altra leggenda / mistificazione che nasce ė che gli iso siano solo dei metadata, non è esatto, dipende da camera a camera.

Nella maggior parte delle camere ha un sensore con sensibilità fissa a xxx iso e si registrano queste informazioni nella registrazione del file raw, poi a seconda delle impostazioni della camera, se si è indicato un iso differente dall’iso nativo viene mostrata una immagine rielaborata in funzione delle informazioni dei metadata registrati nell’immagine. Per questo motivo salvare un file raw permette di manipolare l’immagine in postproduzione sfruttando tutte le informazioni originali.

Questo però è valido solo se la registrazione del raw è fatta in modo completo, ovvero parliamo di camere di fascia alta come arriflex o red, mentre nel caso di BlackMagic Cinema Camera esistono si i metadata che indicano quale sia lo scostamento tra gli iso nativi e quelli artificiali, ma esiste una differenza fondamentale su come vengono registrati i dati.

L’iso nativo della bmcc è di 800 iso per la 2,5k e 400 iso per la 4k, mentre gli altri iso sono creati artificialmente facendo un sottocampionamento o un sovracampionamento delle informazioni. Teoricamente possiamo manipolare in post le informazioni, ma nel caso della Bmcc esiste un però…

La bmcc nasce con un ottimo sensore a 16bit, ma registra le informazioni in un file dng raw a 12bit Log, il che significa che dovrebbe registrare tutto il possibile, quando registra a iso nativi, ed è quello che bmd suggerisce per il maggior spazio di lavoro in postproduzione, quando invece lavorano in formato non nativo vengono applicate delle curve al log per prediligere le alte e le basse luci, quindi i 16bit rimappati sul 12bit log viene leggermente spinto nelle due direzioni, quindi in realtà potrebbe essere leggermente meno protetto come gamma tonale sugli estremi.

Ma quindi tutti questi iso in più servono o no?

Difficile dare un’unica risposta, diciamo che dipende da situazione e uso della camera :

PRO iso alti e bassi più ampi:

  • registrando in prores si può avere più spazio di azione per la post perchè si registra una maggior quantità d’informazione nelle zone d’ombra che sarebbero più chiuse, o nelle alte luci
  • avendo iso più alti si può vedere meglio per fare il fuoco
  • avere iso più bassi può essere utile quando non si hanno filtri ND per ridurre la luce

CONTRO iso alti e bassi più ampi

  • registrare a iso troppo alti può causare perdite di definizione e/o rumore eccessivo che rimane “inciso” nelle immagini
  • registrare a iso bassi con il downsampling può clippare le alte luci a seconda dell’algoritmo che esegue il downsampling
  • se si usano senza cognizione di causa si potrebbe limitare l’azione della post

Poi ci sono delle eccezioni, alcune camere sono dotate di un doppio ccd o cmos per la gestione di iso bassi e alti, in questo modo hanno praticamente due iso nativi (nuova panasonic varicam) e in quel caso questo discorso non vale.

bmccMa quindi queste camere BlackMagic Design poco sensibili?

dopo aver fatto un semplice esperimento, bmcc4K affiancata ad una canon 60D, scatti in raw su una e sull’altra, portati gli scatti dentro lightroom, gli scatti a iso nativi a 400 iso della bmcc4K sono stati schiariti in post per raggiungere i dettagli ottenuti con la 60D a 6400 iso raw, il risultato è praticamente lo stesso, solo più rumorose perchè la canon ha una riduzione rumore in camera nativa, ma una volta passata la riduzione rumore otteniamo lo stesso livello di informazione.

Naturalmente c’è un handicap per la bmcc perchè la blackmagic non ci ha mai pensato, che un iso più alto significa anche avere una immagine più luminosa per la messa a fuoco manuale.


Il crop.. ma che paura mi fa …

Quando nacque la fotografia o la cinematografia, i vari utilizzatori usavano le lenti per la loro espressione artistica e tecnica, ma non si preoccupavano del crop e delle sue conseguenze. Oggigiorno sembra che sia un problema insormontabile e soprattutto drammatico.
Facciamo un po’ di chiarezza sui vari discorsi tecnico pratici.

In fotografia la pellicola ha definito uno standard per gli amatori nelle compatte e nelle semi professionali con il formato 24×36 un formato 2×3, mentre i superprofessionisti usavano il formato dei dorsi 6×9 ovvero pellicole a singola lastra di ben 60×90 mm.

Scorrimento Verticale.

Al cinema la pellicola classica si divideva tra :

  • 16mm con un fotogramma di 10.26 x 7.49 mm
  • super16mm con un fotogramma di 7.41 x 12.52 mm sacrificando una delle due perforazioni
  • 35mm con il formato Academy 16 x 22 mm
  • 35mm con il formato 1:85 wide 18,6 x 21.98 mm
  • super 35mm con 18,66 x 24,89 mm (che sfrutta tutta la larghezza fino a bordo perforazione)

Scorrimento Orizzontale

Come si può notare pellicola 35mm fotografica  e pellicola cinematografica condividono solo la larghezza, ma essendo usati in senso perpendicolare uno all’altra non sono assolutamente comparabili.

Oggi nel digitale la fotografia ha creato diversi nuovi formati per risparmiare sia sulle lenti che sui sensori.

  • Il 24 x 36 è formato standard, è stato rinominato FullFrame
  • Il 15,7 x 23,6 è il formato Aps-C, nato nella fascia più economica (che in realtà varia tra le case di qualche mm, ad esempio canon lo riduce a 14,8 x 22,2)
  • il 13,5 x 18 è il formato micro quattro terzi creato dal consorzio Olympus e Panasonic e Zeiss

questo significa che il piano focale dove viene proiettata l’immagine da una lente Fullframe (24x36mm) è più piccolo rispetto e questo comporta una serie di cambiamenti estetico-pratici :

  • se la lente è più grande del sensore, questo ne prende solo una porzione, quindi l’angolo di visione è più ristretto.
  • la luce catturata è inferiore quindi la lente pur essendo veloce (diaframmi aperti) quindi non è in grado di esprimersi al meglio.
  • spesso per catturare un angolo maggiore si usano lenti grandangolari più spinte quando narrativamente non andrebbero usate, quindi la prospettiva è più spinta.

Perchè e quando nasce il problema del crop?

Perchè i produttori (sicuramente per scelta economica) che hanno sviluppato le fotocamere e la telecamere preferiscono tenere un unico mount fullframe e poi montare sopra le stesse ottiche sia davanti a sensori fullframe che più piccoli, iniziando a parlare di questo famigerato crop. Tenendo però come riferimento il cosiddetto FullFrame come crop 0, mentre esistendo formati più ampi come il 6×9, in realtà anche il fullframe ha crop, per essere precisi crop 2.4.

Perchè è temuto il crop?

sensore misurato

sensore misurato

perchè la maggior parte delle persone teme la moltiplicazione della focale e come tale di perdere angolo visivo, quindi dover spingere maggiormente sull’acquisto di lenti grandangolari più spinte pensando di recuperare l’angolo e tutto sia a posto, solo aver pagato per un grandangolare più spinto.

ma non accade realmente se non ci sono differenze molto molto spinte tra i sensori. Ho scritto un articolo con i confronti diretti tra un sensore 4/3 e un s35 con fotografie di confronto.

Cosa è esattamente il crop? e cosa NON è…

Il crop ritaglia la parte d’immagine SUL piano focale, quindi quando si parla di crop si deve pensare che si prende l’immagine originale e si ritaglia solo la parte centrale; parzialmente influenza la luminosità perchè il cono di proiezione dell’immagine di una lente fullframe non viene preso completamente e quindi dato che i raggi non vengono concentrati in modo convergente, quindi anche se la luce raccolta è X, la risultante sarà X/ la percentuale di crop.

Qual’è errore di pensiero più comune?

Spesso legge, equivalente alla lunghezza focale full frame xxx
ERRORE
Il Crop NON PUO’ CAMBIARE LA LUNGHEZZA FOCALE DI UNA LENTE!!! Non cambia la curvatura delle lenti o la distanza interlente interna, ma solo la parte di piano focale RACCOLTO quindi l’angolo focale.
spesso si legge di lenti tipo 12-35 su formato m4/3 (crop x2) come equivalente di un 24-70 su formato Fullframe… ma non si deve parlare di lunghezza focale,  ma di angolo focale.

chiunque pensi che un grandangolare spinto come il 12 e il medio 35 mm possano avere le distorsioni prospettiche di un medio grandandolare 24 e un quasi tele del 70 è un ignorante così grande da non meritare neanche il diritto di scrittura, e invece si leggeva in una pubblicità di Panasonic di qualche mese fa riguardo alla loro ottima lente 12-35 2.8.

Qual’è il più grande errore causato dal crop?

molte persone, tratte in inganno dalla conversione pensano che la moltiplicazione del crop cambi anche la focale e non l’angolo visivo, per cui usano in modo erroneo le lenti e le loro focali.
In fotografia esistono regole ottiche da sempre e non saranno le correzione di post produzione a cambiarle.
Quando si parla di Normali si parla della focale 50mm che si definisce normale perchè corrisponde alla distorsione prospettica dell’occhio umano.
Quando si fotografa con un 50mm si lavora con una lente che se si fotografa guardando con un occhio nel mirino e uno verso la realtà avremo lo stesso tipo di visione.

Esiste una regola molto semplice nella fotografia :

vuoi vedere esattamente come nella realtà? usa il 50mm,
vuoi comprimere le prospettive? sali verso i teleobiettivi.
vuoi dilatare le prospettive? scendi verso i grandangolari.

Il crop ALTERA SOLO l’angolo di visione, ma non può cambiare nè la forma delle lenti interne, nè la loro distanza interasse tra esse.

Alcune case produttrici, come Panasonic, aggiungono una correzione in camera delle immagini per dare l’illusione che l’uso di lenti non adeguate al sensore ma più spinte verso i grandangolari, non creino problemi di distorsione prospettica, peccato che l’algoritmo lavori solo sulla distorsione a barilotto, quindi compensa la distorsione a sfera del supergrandangolare riducendo la distorsione laterale, ma non può alterare la prospettiva, la distanza tra i piani etc, e quindi come tale, si percepisce in modo differente l’immagine.

quindi sia che si fotografi, che si lavori con le immagini in movimento si deve sempre prendere una lente per il risultato ottico prospettico che vogliamo, e solo in casi estremi si va a scegliere una focale più corta solo per catturare una immagine più larga.

quando si usano le ottiche sbagliate i risultati sono evidenti, soprattutto sugli elementi vicini o sui ritratti, dove di solito si usa l’85mm (definita la lente per il ritratto per eccellenza) perchè schiaccia leggermente la prospettiva e rende più piacevole il viso, oltre a sfuocare la parte posteriore per ridurre le distrazioni del background.

La focale fa la differenzaSe si usa un grandangolare il viso risulterà deformato e tondo, gli zigomi gonfiati, il naso deformato, per cui il ritratto sarà più caricaturale che naturale. Sulla foto a sinistra basta guardare solo come si spostano gli occhi rispetto al lato del viso.

Quindi in definitiva?

quando potete scegliere una focale, lo fate per la sua percezione della prospettiva e non per l’angolo visivo, quindi scegliete i classici 35-50-85-135mm per le diverse situazioni cinematografiche.

Quando si passa per lenti grandangolari più ampie dovrebbe essere una scelta voluta per enfatizzare un determinato effetto di spazio e di prospettiva, non per avere un angolo visivo più ampio.
Non a caso chi fotografa con le lenti prime (focale fissa) si muove per cercare l’inquadratura giusta, e nel cinema è noto che spesso i set hanno le pareti mobili, ma una è aperta per indietreggiare e inquadrare anche attraverso la parete fantasma smontabile.

Ma la profondità di campo con il crop?

Sempre con il crop si teme che con la profondità di campo si vada a perdere, memori delle mezze formato in fotografia o del super8 nella pellicola cinematografica amatoriale, ma sono di nuovo errori dettati dalla superficialità di valutazione. Tutto nasce dal fatto che spesso nei sensori piccoli per gestire l’inquadratura si usano lenti grandangolari di cui si esprime l’angolo focale e non la lunghezza focale, forzando la profondità di campo, quindi è più facile avere tutto a fuoco, e più difficile sfuocare, MA…
NOTA BENE tutto questo accade SOLO quando ragioniamo con l’angolo focale e non con la lunghezza focale.

Infatti chi fa questo tipo di ragionamenti da dimostrazione mostrando fotografie simili fatte con stessa lente con sensori diversi, ma essendoci il crop di mezzo non è fisicamente possibile, quindi il sedicente dimostratore per coprire lo stesso angolo focale si è spostato indietro, ma questo viola la regola del confronto, perchè come tutti i fotografi professionisti sanno, uno degli elementi di gestione della profondità di campo è la distanza del soggetto messo a fuoco, quindi se io ho un crop molto forte di una lente tipo un Nocktor 0.95, e per avere lo stesso angolo focale mi sposto indietro di 5 metri dal soggetto è facile che io vadi in iperfocale, quindi non è il sensore che fa sfuocare meno, ma i principi di ottica tradizionali su cui si basa la fotografia, anche se facesse una foto con una 6×6 avrebbe meno sfuocato.

Per confermare tale discorso posso allegare banalmente qualche fotografia fatta con micro 4/3 (sensore con crop 2) che nonostante quello può esprimere sfuocature notevoli senza problema, perchè è la lente che sfuoca, non il sensore….

E chi dice il contrario?

Compressed_perspective_cheat_sheet

poi vengono fuori articoli, come quello che potete vedere sopra, che pensano di provare il contrario, dimostrando ancora più mancanza di buon senso… prendono una immagine di un panorama fatto con un grandangolare e ne confrontano un elemento moooolto lontano con uno stesso scatto fatto con il tele, e pensano di dimostrare che la distorsione prospettica dipenda non dall’ottica ma dalla posizione barra distanza… mentre il tutto è la somma delle due cose.

tra l’altro prendendo la parte centrale dell’immagine la distorsione è ancora meno evidente e quindi ancor più inutile e falso come confronto. Inoltre non spiegano perchè gli elementi col salire della focale si avvicinano tra di loro…
[ironic mode on] forse perchè se vi allontanate voi si avvicinano tra di loro per starvi più vicini… [ironic mode off]

Nikkon 8 mm

fate una foto con questo e vi sfido a prendere una qualunque parte dell’immagine e replicarla con un tele, per quanto piccola la prendiate, la curva di raccolta della luce comporta una distorsione talmente forte da non poter essere fatta corrispondere da nessun fattore di compensazione.

comparazione degli elementi da vicino

comparazione degli elementi da vicino

La distorsione della prospettiva è legata all’angolo che viene coperto dalla lente, quindi dalla forma stessa, maggiore è la curvatura, maggiore è la dilatazione della prospettiva, per cui è normale che se si prende con un grandangolo un elemento lontanissimo esso copre un angolo così stretto della lente che la distorsione prospettica è ridotta o nulla. Ma questo tipo di dimostrazioni non le fanno, perchè non possono, con elementi più vicini al corpo camera, quindi dove si sente una differenza più forte.

Inoltre sfido questi sedicenti esperti a replicarmi con un grandangolare il riposizionamento degli elementi sui piani come i rami dietro la ragazza nella seconda fotografia semplicemente spostando il punto di vista.

Troppo spesso queste affermazioni sono fatte trovando una eccezione alla regola delle focali come le riprese molto distanti degli elementi, dove le caratteristiche differenti tra focali corte e lunghe si riducono, basta prendere elementi vicini qualche metro… e si nota subito come sia impossibile ottenere lo stesso risultato.


作物。しかし、それは私を作るどのような恐怖.

撮影や撮影がナケだったとき、様々なユーザーは、彼らの芸術的、技術的な表現のためにレンズを使用しましたが、作物とその結果を気にしませんでした。今日では、それは乗り越えられないと何よりも劇的な問題のようです。
様々な実践的な技術的なスピーチについて、いくつかの明確さを得てみましょう。

写真では、24×36フォーマットの2×3形式のコンパクトとプロの種子のアマチュアのための標準を設定し、スーパープロフェッショナルは6×9バックまたは60×90ミリメートルのシングルプレートフィルムのフォーマットを使用しました。

水平スクロール。

映画館では、古典的な映画は次の間で分かれていた:

  • 10.26 x 7.49mmのフレーム付き16mm
  • 7.41 x 12.52 mm のフレームを持つ super16mm で、2 つの穿片のうちの 1 つを犠牲にする
  • アカデミー形式16 x 22mmの35mm
  • 35mm 1:85ワイドフォーマット18.6 x 21.98mm
  • 18.66 x 24.89mmのスーパー35mm(エッジ掘削まで全幅を取る)

垂直スクロール

35mmの写真フィルムとフィルムは幅のみを共有していますが、垂直な意味で使用されているのは絶対に匹敵しません。

今日のデジタル写真では、レンズとセンサーの両方を節約するためにいくつかの新しいフォーマットを作成しました。

  • 24 x 36は標準フォーマットで、フルフレームと改名されました
  • 15.7 x 23.6は、最も安い範囲で生まれたAps-Cフォーマットです(実際には家によって数mm異なりますが、例えばキヤノンは14.8 x 22.2に減らします)。
  • 13.5 x 18はオリンパスとパナソニックとツァイスコンソーシアムによって作成されたマイクロ4/3形式です

これは、フルフレームレンズ(24x36mm)から画像が投影される焦点面が、より小さく、多くの審美的な実用的な変更を伴うことを意味します。

  • レンズがセンサーよりも大きい場合は、1人前しかかからないので、視野角は狭くなります
  • キャプチャされた光は低いので、レンズは速く(開いたダイヤフラム)なので、最高の状態で自分自身を表現することはできません
  • 多くの場合、より大きな角度をキャプチャするには、物語的に使用すべきではないときに押される広角レンズを使用するので、遠近法はより推力です。

作物の問題が発生する理由と時期

カメラとカメラを開発したメーカー(間違いなく経済的な選択によって)は、単一のフルフレームマウントを保持し、フルフレームセンサーの前と小さい両方で同じ光学の上にマウントすることを好むので、この悪名高い作物について話し始めています。しかし、いわゆるFullFrameを基準として0と呼び、6×9のようなより大きなフォーマットがありますが、実際にはフルフレームにもクロップがあり、正確な作物2.4になります。

なぜ作物は恐れられているのですか?

測定されたセンサー

測定されたセンサー

ほとんどの人は焦点の乗算を恐れ、視覚的な角度を失うので、角度を回復することを考えてより広角レンズの購入をもっと推し進めなければならないので、より広角を押しただけで、より広角を支払っただけです。

しかし、センサー間にあまり押し込まれていない違いがなければ、実際には起こりません。4/3センサーとs35と比較写真を直接比較した記事を書きました。

作物は正確に何ですか?そして何がそうではないのか.

クロップは焦点面上の画像の一部を切り取るので、作物について話すとき、あなたは元の画像を取り、真ん中の部分だけを切り取ると思う必要があります。フルフレームレンズの画像の投影コーンが完全に撮影されていないため、光が収束して集中しないため、集められた光がXであっても、結果として生じるのは、X/作物の割合になります。

最も一般的な思考エラーは何ですか?

多くの場合、フルフレーム焦点距離xxxと同等の読み取り
エラー
作物はレントの焦点肺を変えることができません!!!レンズの曲率や内部間距離は変わりませんが、焦点面部分RACCOLTOだけが焦点角を変えます。
多くの場合、フルフレーム形式では24-70に相当するm4/3フォーマット(クロップx2)で12-35タイプのレンズを読みます。しかし、焦点距離ではなく、焦点角について話すべきです。

12と真ん中35ミリメートルのような押された広角は、ミディアムグランマンドラレ24の遠近距離歪みを持つことができると考える人は、それが書く権利に値しないほど大きいです、そして代わりにそれは彼らの優れたレンズ12-35 2.8について数ヶ月前にパナソニック広告で読まれました。

作物によって引き起こされる最大の間違いは何ですか?

多くの人々は、変換によって欺かれて、作物の乗算はまた、視野角ではなく焦点を変更すると考えているので、彼らは誤ってレンズとその焦点を使用しています。
写真には常に光学的ルールがあり、それらを変えるポストプロダクションの修正ではありません。
ノーマルについて話すとき、人間の目の遠近法の歪みに対応するため、通常と定義されている50mmの焦点について話します。
50mmで撮影すると、十字架の片目で見て、現実に向かって写真を撮ると、同じ種類のビジョンを持つレンズで作業できます。

写真には非常に単純なルールがあります:

あなたは実際にどのように正確に見たいですか?50mmを使用し、
パースペクティブを圧縮しますか?テレフォトに上がる
視点を広げたいですか?あなたは広角に下がります。

作物ALTERA唯一の視野の角度が、内部レンズの形状、またはそれらの間のそれらの間のそれらの種間距離を変更することはできません。

パナソニックのような一部のメーカーは、センサーに十分ではないが、より広い釣り人に向かって押し込まれたレンズの使用は、将来の歪みの問題を作成しない、アルゴリズムがバレル歪みでのみ動作することを残念に思う、その後、横方向の歪みを減らす超壮大なゴラレのボール歪みを補うが、遠近法を変更することはできませんが、視点を変更することはできません、平面間等の距離、したがって、画像は異なって知覚される。

だから、あなたが撮影しているかどうか、動画を操作する、あなたは常に私たちが望む遠近法光学結果のためのレンズを取る必要があり、極端な場合にのみ、より広い画像をキャプチャするために短い焦点を選択するために行きます。

間違った光学を使用する場合、結果は明らかです, 特に隣接する要素や肖像画で, それはわずかに遠近法をつぶすし、顔をより快適にするだけでなく、背景の気晴らしを減らすために背中をぼかすため、85mmが通常使用されます (肖像画の卓越性のためのレンズと呼ばれます).

焦点はすべての違いを作る広角の顔を使用すると、変形して丸くなり、頬骨が膨らみ、鼻が変形するので、肖像画は自然よりも似顔絵になります。左側の写真は、顔の側面に対して目を動かすのと同じように見えます。

だから、最終的に?

焦点を選択できる場合は、視点の知覚のために行うだけでなく、視覚的な角度のために行うので、異なる映画の状況のために古典的な35-50-85-135mmを選択してください。

広角レンズを通過する場合、より広い視野角を持たないように、空間と遠近法の一定の効果を強調するために意図的な選択でなければなりません。
プライムレンズ(固定焦点)で撮影する人が正しいフレームを探すために動くのは偶然ではなく、映画館ではセットがしばしば動く壁を持つことは知られていますが、取り外し可能なゴーストウォールを通してでもインディーズとフレームに開放されています。

しかし、作物との被写界深度?

常に作物では、被写界深度で、写真のハーフフォーマットの記憶やアマチュア映画のsuper8が失われることが懸念されていますが、評価の表面性によって再び誤りが決まります。これは、多くの場合、小さなセンサーでフレーミングを管理するために、焦点角が表現され、焦点距離ではなく広角レンズを使用し、被写界深度を強制するという事実に由来するので、すべてが焦点を合わせやすく、よりぼやけるのが難しくなります。
注 このすべては、焦点距離ではなく、焦点角で推論する場合にのみ発生します。

実際、異なるセンサーで同じレンズで作られた同様の写真を示すこの種のデモンストレーション推論を行う人は、真ん中の作物であることは物理的に不可能であるため、同じ焦点角をカバーする自称デモンストレーターは戻ってきましたが、これは比較のルールに違反します。だから、私がNocktor 0.95のようなレンズの非常に強い作物を持っていて、同じ焦点角を持っている場合、私は被写体から5メートル戻って移動するので、私は過焦点に行くのは簡単ですので、ぼやけが少ないセンサーではなく、写真が基づいている伝統的な光学原理は、彼が6×6で写真を撮ったとしても、ぼやけが少なくなります。

このスピーチを確認するために、私はマイクロ4/3(作物2のセンサー)で作られたいくつかの写真を些細に添付することができます。

そして、誰がそうでないと言うのですか?

Compressed_perspective_cheat_sheet

その後、あなたが上記で見ることができるもののように、彼らは常識のさらに欠如を証明し、反対を試みると思う記事を出してください。彼らは広角で作られたパノラマの画像を撮り、キャンバスで作られた同じショットと遠くの要素を比較し、遠くの歪みは光学ではなく距離バーの位置に依存することを示していると考えています。全体が2つのことの合計である間。

画像の中央部分を取る方法によって歪みはさらに目立たないため、比較としてさらに役に立たないと偽り。彼らはまた、焦点の上昇を持つ要素が互いに近い理由を説明していません.
[ironic mode on]たぶん、あなたが離れて移動した場合、あなたはあなたに近づくためにお互いに近づくので.. [ironic mode off]

ニッコン 8mm

これで写真を撮ると、私はイメージの任意の部分を取り、キャンバスでそれを複製するように挑戦し、あなたがそれを取るどんなに小さい、ライトコレクション曲線は、それが任意の補償係数では一致することができないほど強い歪みを伴います。

アイテムの間近での比較

アイテムの間近での比較

遠視の歪みはレンズで覆われる角度に関係しているので、形状自体によって曲率が大きいほど遠近の拡張が大きくなり、広角で取ると遠方の歪みが小さくなるか、何も見えないようなレンズの狭い角度をカバーするのが普通です。しかし、これらの種類のデモンストレーションは、彼らができないので、体室に近い要素で、あなたがより強い違いを感じる場所ではありません。

私はまた、これらの自己スタイルの専門家に、視点を変えるだけで、2枚目の写真の女の子の後ろの枝のような平面上の要素の位置を広角で複製することに挑戦します。

あまりにも頻繁にこれらの声明は、短い焦点と長い焦点の間の異なる特性が減少する要素の非常に遠い撮影のような焦点ルールの例外を見つけることによって行われ、わずか数メートルに近い要素を取ります。そして、あなたはすぐに同じ結果を達成することは不可能であることに気づきます。


FinalCut Pro 7, oggi non è più Pro…

Con un titolo provocatorio come questo, posso immaginare come molte persone, dai fan boy ai montatori saranno pronti a mettermi al rogo, ma… leggete bene l’articolo e vediamo chi deve essere messo al rogo…

Quando Apple creò il prodotto multimediale sotto il nome Quicktime, crearono uno strumento potentissimo, un software che è molto di più che un player, ma un insieme di librerie, codec, servizi attivi di streaming dei dati video e audio che manipolano in realtime il video nel momento in cui viene caricato in memoria. Creare un programma di montaggio basandolo sul Quicktime era semplice.

Apple diversi anni fà creò la suite Final Cut, unendo al loro programma di montaggio al programma Final Touch comprandosi l’azienda Silicon Color, nel 2006, creando un sistema di edit e finishing basati sul quicktime Prores. Final touch divenne Color.
Color supporta solo il prores, perchè non legge i codec di sistema ma ha il decoder interno.

Sistema veloce, ultraefficiente, di alta qualità, all’epoca…

Facciamo un salto avanti … nel 2009 Apple rilascia l’ultima versione di FinalCutPro 7, pacchetto a 32bit per il sistema operativo SnowLeopard a 32bit… basato su quicktime 7. Tutto funziona bene, o quasi, visto che negli ultimi update fa capolino Quicktime X, ma di default il sistema usa quicktime 7.

2015 Yosemite, Default Quicktime X, tanti utenti professionisti si sono accorti che sono cambiate le cose, i codec che prima venivano letti dal sistema, ora non sono più supportati, il player pretende di convertire ogni cosa che non sia H264 o prores… rallentando la visione dei filmati e di fatto complicando la vita a chi deve usare codec diversi da essi…

FinalCut 7 pro si basa su Quicktime 7, sulla sua capacità di gestire codec e fare da host per diversi layer di elaborazione in realtime, che sui nuovi sistemi non funziona sempre e/o correttamente…

Quicktime giustoSu Yosemite possiamo installare ancora il quicktime 7 di leopard, perchè Apple lo lascia ancora a disposizione, ma di default c’è ancora il Quicktime X, per usare correttamente il quicktime dobbiamo cliccare col tasto destro su un file mov, aprire le proprietà del file, e cambiare in basso dove c’è scritto “Apri con “

E si conferma che si userà sempre il Quicktime 7 per aprire ogni file .Mov.

Questo vi aiuta a lavorare con FinalCutPro 7, ma non risolve tutti i problemi, perchè comunque non essendo nato per i sistemi a 64bit, al massimo alloca 3 gb di ram anche se nel sistema ne abbiamo 64, il che vuol dire che si deve montare con proxy anche quando potremmo lavorare con gli originali. Inoltre ho riscontrato più di una instabilità in diverse situazioni e in particolare dove c’è movimento di file; durante l’operazione di consolidamento di un progetto di un film, il programma mi è crashato diverse volte sotto sistemi moderni, anche se appena installati, mentre con un portatile snow leopard ha risolto l’operazione senza errori o crash del programma.

Ci sono dei passi da fare nella vita, e quando si ha a che fare con i computer, qualunque sia il vostro lavoro, dovete tenervi aggiornati, non solo con i computer e i sistemi operativi, ma anche con i programmi. FinalCutPro 7 è morto nel 2009, da allora non sono stati fatti aggiornamenti, i plugin non sono più stati sviluppati, quindi progressivamente è diventato obsoleto.

Apple ha sviluppato da zero un nuovo programma : FinalCut Pro X

  1. 64bit
  2. accelerazione GPU
  3. supporto di ogni codec del sistema
  4. centinaia di plugin di supporto
  5. Concezione completamente nuova che permette un managment del materiale e del montaggio impossibile prima
  6. Supporto di ogni risoluzione
  7. Ottimizzazioni e preset per semplificare la creazione di video in situazioni con tempi stretti con news, cronaca etc
  8. Attivamente supportato da centinaia di software House esterne
  9. Integrato nel sistema, per cui diventa un gioco accedere a risorse interne quali immagini, musica, filmati
  10. Un workflow molto semplice anche nei progetti più complessi.

Ora.. a questo punto chi è da mettere al rogo?
Chi ha sviluppato Quicktime X che ha tagliato fuori centinaia di codec, la tecnologia Quicktime VR, Quicktime 3D, La possibilità di editare facilmente i filmati direttamente dal player, e molte altre cose… perchè per chi non lo sa, dal player quicktime 7 oltre a vedere un filmato voi potete in modo semplice e diretto fare le seguenti operazioni :

  • editare audio video tagliando e incollando le parti in modo preciso al frame senza ricompressione
  • aggiungere e creare un file multitraccia audio video
  • aggiungere più tracce audio e preparare un filmato multilingua come per i dvd
  • aggiungere capitoli e sotto titoli tipo un Dvd ma direttamente sul filmato QT
  • aggiungere tracce di metadata per informazioni di ogni tipo
  • stratificare più layer con anche canali alpha integrati e supportati e in diversi modi
  • estrapolare parti del filmato salvandole come filmati a parte sia come indipendenti che reference senza ricompressione
  • creazione di variazioni di filmati con filtri realtime diretti e con reference.
  • controllare circa 200 feature e parametri del filmato avviandolo con uno script.

Se volete prendervela con qualcuno, sapete con chi…

Pagina 32 di 39

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!