Tutto è possibile

Autore: carlomacchiavello Pagina 32 di 40

バックアップの重要性

非常に多くの単語を不釣り合いに使用し、特にクラウドという言葉を使用する世界では、これまでにあなたのデータをバックアップすることが重要です。

お使いのコンピュータに何かが起こった場合は、スマートフォン、カメラカード、カメラカード. あなたはすべてを失うだろう. あなたのデータ、あなたの思い出、あなたの仕事.

私はほとんどの人が考えていることを知っています:「そんなに私には起こらない、データは私のハードドライブ上で安全です、私はクラウドにコピーを持っています.など。。。

まぁ。。。私はあなたに何か不穏なことを話すつもりです. これらのストレージシステムのいずれも安全ではありません、誰もあなたのデータの救いを保証しません、特にあなたがこれらのサービスのいずれかをアクティブ化するとき、あなたが与えられた唯一の保証は、一部のカードの場合、データの損失または損失の場合、彼らは新しいカードのみを返すということです。

あなたが私のサイトにいる場合、それは私たちが共通点を持っていることを意味します、例えば3Dアニメーション、ビデオ、画像、写真を行う、したがって、あなたのデータを失うことは少なからず問題になる可能性があります.

あなたの多くはバックアップシステムを持っており、安全だと感じています.

よくToyStory 2プロジェクトの損失に関する研究のカップルを行い、その後、ここに戻ってきます. Pixarのような信じられないほどの会社がToystory 2の設計を些細なファイルシステムの問題に失う危険があり、バックアップの処理と管理に自分自身を取引する何百ものサーバーと技術者がいるので、誰も安全ではないことがわかります。今。。。

私は襲撃を持っている、私は安全です.

私はたまたまこれらの言葉を聞きましたが、10年前に私を裏切ったのは、まさに10年前の襲撃だったと確信していましたが(スーパーテクニクスは連続した連続ディスクと同じディスクを取ることを勧めているので、彼らはより良く働くので、無知と言います)が同時に私を見捨てたので、私のミラーレイドは私をこんにちはとしました。私の涙を通して..

その後、私はスーパーエキスパートによって保証された4つの冗長ディスクを持つより広い襲撃に頼っていましたが、今回は新しいディスクのファームウェアの欠陥、同じ欠陥を持つ数百のパレット全体が親会社によって認識されましたが、私のデータは非常に多く死亡し、数分以内に頭がディスクに衝突し始めましたと、短時間で、被害は冗長襲撃の回復可能性を超えて広がっていました。より多くの涙を流しました, 約 6 年前..

解決策?

誰も究極の解決策を持つつつ、私は私のデータをバックアップするためのソリューションとして使用するもの、データの3つのコピーを言うことができます:コンピュータ上の1つのローカル、外付けハードドライブ上の2つ、代替日に更新されます。

ディスクの各ブロックは、チップセットとファームウェアのエラーを避けるために、異なるメーカー(一部のブランドは同じチップセットとハードウェアで同じメーカーによって生産されています)の異なるブランドです。

バックアップを最新の状態に保つために何を使用しますか?

ウィンドウとMacの下では、時々更新されたすべてのファイルを覚えていないため、手で更新を避けるために、データのシンクロニシティをチェックするためのいくつかのパッケージがあります。

Macの下で私は、私は、すべてのウェイシンプログラムを使用して、ウィンドウの下で、シンクロンと呼ばれるアプリを使用しています

どちらも、オンプレミス、ネットワーク、またはクラウドの両方で複数のフォルダーを同期する自動化システムを持っています。

編集 2020: Synkron は著者によって更新されていないようで、カタリナの下で正しく動作しません、フリーシンクと呼ばれる Windows、MacOsX と Linux 用の別の興味深い無料製品を提案します。

USB 3.0 … dipende diciamo 2.5 vah…

EU-4306_USB3

 

USB 3.0 una evoluzione dello standard per aumentare la velocità di trasferimento dati di xx volte.

Tutti più felici che per copiare i dati, mettere al sicuro i nostri dati, le fotografie, i filmati, i tempi si riducono in modo notevole.

Il mercato è pieno di periferiche di archiviazione usb 3.0, portatili e fissi hanno praticamente quasi solo porte usb 3.0, un paradiso… quasi …

La teoria dice che lo standard 3.0 ci porta dai 60 mb/s al 640 mb/s quindi parliamo di oltre dieci volte più veloce nel trasferire i dati tra un dispositivo all’altro.

La teoria, ma la pratica?

La teoria è questa, mentre la realtà è ben differente, perchè le vere performance sono di gran lunga superiore all’usb 2.0 ma ci sono spesso colli di bottiglia che non vengono considerati.

  • la velocità del chipset della scheda usb 3.0 del computer
  • la velocità del chipset del controller del supporto dati
  • la velocità del supporto da cui si copiano i dati
  • la velocità del supporto su cui si copiano i dati
  • se il supporto sorgente e origine condividono lo stesso controller il chipset riesce a distribuire il flusso dati in modo uniforme.

Facciamo un esempio pratico : compro il disco esterno USB 3.0 di marca nota XX (considerata la velocità con cui cambiano i modelli e i dispositivi, non ha senso indicare marca e modello, visto che lo stesso modello acquistato più volte conteneva dischi diversi e di velocità differenti), provo a copiare dei dati e lo trovo decisamente lento…
Provo a cambiare la porta del computer, niente; provo a cambiare computer, niente; provo a cambiare la sorgente dei dati, niente… sono un testardo, apro il box del disco (annullando la garanzia, ma pazienza), scopro che il disco contenuto è un 3900 rpm, ovvero un disco robusto, a bassa velocità di rotazione, che per un disco da 2.5 portatile è ottimo perchè si riducono le possibilità di danni in caso di urto e cadute in fase di rotazione, ma che riduce le performance effettive durante la copia.

ora nella maggior parte dei casi, i dischi meccanici singoli non hanno la capacità di saturare la banda del sata o dell’USB 3.0, ma se uso dei raid dove la somma delle performance dei dischi si somma, potrei anche arrivare a raggiungerla. Nella media delle persone, nessuno ha il problema di questo tipo, nè soprattutto si accorge delle differenze.

Chi invece deve maneggiare tanti dati professionalmente (backup dati, backup filmati etc) deve tener conto di diversi fattori tecnici, non solo relativi ma combinati tra di loro, perchè un disco veloce con poca cache può essere superato da un disco poco più lento, ma con maggior cache; la differenza di taglia del disco influisce sulle performance, perchè se i dischi sono più densi a parità di giri offrono un output dati maggiore quindi possono offrire maggior velocità al salire con la taglia.

Le incompatibilità che non esistevano sull’USB 2.0

In un mercato dove tutti fanno a gara ad offrire il prodotto usb 3.0 al prezzo più basso sembra di essere in paradiso, ma…
Non tutti sanno che ci sono incompatibilità più o meno forti tra i diversi chipset dei controller delle schede madri e quelli dei box/nas/dischi esterni.

Dopo aver avuto una serie di problemi con diverse schede madri, che sganciavano diversi dischi, ho fatto un po’ di ricerche e ho scoperto che i diversi produttori di chipset fanno a scaricabarile tra di loro per le responsabilità degli sganci dei supporti e/o problemi di comunicazione tra di loro. Esistono centinaiai di thread nei forum informatici che mettono in evidenza che gli accoppiamenti più a rischio sono quando si collegano i chipset :

– JMICRON JMS539 + NEC/RENESAS D720200
– JMICRON JMS551 + NEC/RENESAS D720200
– JMICRON JMS539 + ETRON EJ168A
– JMICRON JMS551 + ETRON EJ168A

quando si combinano questi chipset il rischio, o la certezza, visto che il comportamento che ne consegue è lineare, è che il dispositivo collegato avrà rallentamenti, sganci ogni 10-15 minuti del dispositivo.

Il palliativo sta nel mantenere aggiornati i driver di entrambi i chipset, disabilitare ogni tipo di risparmio energetico sui dischi e sul sistema relativo ai chipset. Ci sono aggiornamenti firmware sui siti relativi ai produttori di chipset, dove si può sperare di ridurre i problemi.

Perchè è importante sapere quale chipset stiamo usando?

perchè a seconda dei prodotti possiamo avere più chipset sulla stessa macchina, ad esempio la piastra gigabyte che usavo prima aveva due chipset diversi, e con una scheda esterna ho introdotto un terzo chipset non incriminato. L’attuale piastra Asus ha tre chipset diversi usb 3.0 e quindi devo stare attento a quale porta USB 3.0 uso per gli hard disk esterni, su due ho i chipset incriminati, per cui se collego il disco WD mini che non ha il controller problematico, tutto ok, ma se collego i nas (ne ho tre, due da 4 dischi e uno da 8 dischi) devo usare il terzo gruppo di porte USB 3.0, che però sono porte esterne, quindi ho acquistato una basetta esterna per portarle dietro a portata di connettori, altrimenti mi si sconnettono ogni 15 minuti i dischi contenuti nei nas.

Quindi si può concludere che…

lo standard Usb 3.0 ci permette di copiare i dati FINO a 640 mb/s a patto che si copino i dati da un disco collegato su un chipset DIVERSO da quello di ricezione.

Cosa posso fare per ottimizzare il trasferimento dati?

  • usare dischi connessi su chipset e standard differenti, ad esempio dischi interni su sata verso o da dischi Usb 3.0 veloci.
  • usare dischi esterni usb 3.0 su due chipset differenti per evitare che il chipset lavorando sia in ingresso che uscita dati non abbia qualche tipo di rallentamento
  • disabilitare ogni tipo di risparmio energetico su dischi interni ed esterni
  • disabilitare il controllo antivirus sui dati in arrivo dal disco X (solo per dati sicuri)
  • usare software ottimizzati per la copia dati e che usino il parity check per avere la certezza della copia dei dati.


Le lenti Aps-C queste misteriose creature ibride…

Ma quando compro una lente APS-C? ho sempre il crop?

Il crop nasce quando abbiamo un sensore che non copre tutta la circonferenza della lente POSTERIORE, vedi articolo sul crop, mentre quando una lente nasce per APS-C è fatta per coprire correttamente la dimensione del sensore aps-C.

image_circleCome potete vedere nell’immagine a sinistra, quando si realizza una lente aps-c la misura della lente posteriore che focalizza i raggi di luce sul sensore.

Il fatto che nelle lenti APS-C la lente frontale di grandi dimensioni, maggiori del sensore, non significa che la parte posteriore non sia ridimensionata per una corretta focalizzazione, altrimenti non dovrebbe avere senso creare una lente APS-c, farebbero solo lenti FullFrame.

Tutte le case che producono lenti, hanno a catalogo lenti ottimizzate per FullFrame e lenti ottimizzate per APS-C, quindi applicare il concetto di crop delle lenti fullframe alle lenti aps-c potrebbe essere un concetto sbagliato in partenza.

Sempre in questa immagine potete vedere anche la copertura di un sensore cine come quello della BlackMagic Cinema Camera 4k, che è dichiarato come un s35, leggermente inferiore come dimensione all’aps-c, circa mezzo millimetro in larghezza e un millimetro e mezzo in altezza, questo significa che la lente è leggermente abbondante rispetto al sensore, quanto basta per evitare i rischi di eventuali vignettature con un grandangolo più spinto, ma allo stesso tempo non si rischiano fattori di crop che obblighino strani calcoli o acquisti su grandangolari spinti.

Questo fattore dimensionale mi permette di dire tranquillamente che su macchine S35 come la BlackMagic Cinema Camera le lenti di qualità pensate per l’APS-C sono la scelta ottimale come rapporto lunghezza focale – sensore.

Perchè uso il verbo condizionale? perchè aver fatto un po’ di esperimenti pratici con più lenti, ho scoperto che i produttori di lenti vogliono proprio male ai propri utenti… a seconda delle lenti, dello stesso produttore, ci sono lenti aps-c che inseriscono il Crop o no, a seconda di come sono costruite e posizionate i gruppi di lenti all’interno della lente..
Quindi in soldoni … bisogna provare e confrontare le lenti quando si prendono per verificare come e se hanno un fattore di crop.

Un esempio ? L’ottima 17-55 2.8 Canon è una lente APS-C pensata per sensori APS-C ma in realtà è stato solo ottimizzata la lente posteriore per il formato APS-C, mantiene il crop come posizione e gestione di lenti interne, per cui se ponete questa lente in 55mm avremo lo stesso crop come se avessimo messo una lente 55mm full frame…

Per i sostenitori che la lunghezza/angolo focale è determinato solo dalla distanza lenti interna ricordo che la forma diversa delle lenti determina la capacità di raccolta della luce e convogliamento di raggi provenienti da più direzioni, per cui i grandangolari più spinti vengono detti fish eyes non solo per la capacità di lettura angolare ma anche dalla forma che ricorda la cupola dell’occhio di pesce, inoltre se fosse come dicono che è solo quello, mi spieghino per cortesia l’esistenza dei moltiplicatori di focale, che consentono di raddoppiare la focale non allungando realmente della stessa distanza le lenti dal sensore (200mm che diventa 400mm, ma non lo allungo di 20cm il tele), e dei riduttori di focale, che dagli anni 40 esistono sia da mettere davanti alla lente (dalle lenti anamorfiche ai grandangolari aggiuntivi), o quelli come gli speedbooster della metabone che raccolgono le informazioni che non potrebbero esistere.
Rinnovo il concetto che ci sono lenti create per i sensori a misura e lenti tagliate per i sensori a misura, per cui i risultati sono diversi e confermano sia il concetto di crop che di non crop, solo che tecnicamente è più economico tagliare una lente a misura di un sensore o applicare direttamente il crop che introdurre un focal reducer e quindi ottenere la focale reale sia come lunghezza focale (distorsione prospettica) sia come angolo focale (capacità di lettura angolare del campo visivo).


L’importanza dell’ ISO nel digitale

image-quality-and-iso-sensitivityDopo aver chiacchierato con un po’ di persone ho pensato di buttar giù due riflessioni sulla sensibilità dei sensori moderni e sulla ignoranza che dilaga …

Ormai se una camera non riprende al buio con 128.000 iso (ho scritto 3 zeri) sembra che sia inutilizzabile, infatti il cinema si è sempre fornito di pellicole a 128.000 iso… naturalmente…
quando ho detto di aver usato una cinepresa digitale che lavora a 400 iso mi hanno preso per folle, e hanno pensato che parlassi di un prodotto molto vecchio.

Il cinema è fatto di sensibilità e luce, luce che si riceve, che si cattura, che si riflette …
Quando il cinema incontra l’avventura Fitzcarraldo
Se girate documentari, posso capire la ricerca della luce naturale, ma non ricordo tra le pellicole approvate dal National Geographics sensibilità superiori ai 1600 asa, quando si parlava di fotografia, assolutamente 400 per quanto riguardava i documentari… il lavoro veniva rifiutato, perchè non era nei loro standard.

Kodak e Fuji hanno prodotto pellicola cinematografica fino all’anno scorso, ora solo per le copie d’archivio, e non hanno mai fatto pellicole troppo sensibili, perchè le emulsioni più sensibili erano meno nitide, sia per struttura dei grani della pellicola, sia per la lavorazioen durante lo sviluppo. Infatti regola aurea in fotografia è usa sensibilità bassa perchè corrisponde a granulosità fine quindi dettaglio e definizione.

I digitalartisti che sono nati col digitale, e non si sono sforzati di conoscere l’analogico almeno come base di teoria, sono convinti che tutto sia legato alla sensibilità del sensore e della macchina, dimenticando che poi un sensore troppo sensibile, o amplifica digitalmente il segnale, oppure diventa inutilizzabile di giorno, perchè si deve chiudere il diaframma così tanto (creando diffrazione e quindi perdita di nitidezza) o usando filtri ND così spessi da perdere nitidezza e/o causare dominanti a vignettatura laterale che non si potranno mai togliere in post se non con fatiche assurde.

Esempio, con sensore a 400 iso, alle 15 di pomeriggio devo chiudere in situazione media il diaframma a 8-11 per esporre correttamente, oppure usare un ND 16 per togliere gli stop necessari per poter gestire l’esposizione corretta.
Se devo fare delle riprese in orari più serali o notturni sarebbe innaturale vedere sempre e tutto, ma comunque usando ottiche prime più veloci (1.8-1.2) posso lavorare con immagini ottime e dettagliate.

Troppo spesso si spinge per avere native immagini che tra rumore, e distorsioni date dall’amplificazione del segnale diventano innaturali…
Una ottica 50 mm 1.4 a 1600 iso 1/48 fornisce una immagine paragonabile a quella dell’occhio umano medio, come contrasto, luminosità in esterni notturni.

Troppi pensano che il segreto del filmlike sia un uso di tecnologie molto spinte, mentre alle volte il vero segreto è lavorare entro i limiti delle macchine, e saperli gestire al meglio…
Ogni DoP serio sa che se la macchina offre 14 stop di gamma dinamica è meglio usarne 8-9 se va bene, perchè la testa e la coda… come per fare del buon whisky vanno buttate… è il motivo per cui è nato il Log, che oggi si usa più del Raw e con il raw; si prende il meglio della gamma dinamica, lo si rimappa nel range disponibile di registrazione comprimendo tutte le informazioni, ma potendole riespandere a posteriori oltre a recuperare tutta la gamma dinamica si ha una qualità che non si avrebbe mai lavorando con il video in modalità normale.

Un’altra leggenda / mistificazione che nasce ė che gli iso siano solo dei metadata, non è esatto, dipende da camera a camera.

Nella maggior parte delle camere ha un sensore con sensibilità fissa a xxx iso e si registrano queste informazioni nella registrazione del file raw, poi a seconda delle impostazioni della camera, se si è indicato un iso differente dall’iso nativo viene mostrata una immagine rielaborata in funzione delle informazioni dei metadata registrati nell’immagine. Per questo motivo salvare un file raw permette di manipolare l’immagine in postproduzione sfruttando tutte le informazioni originali.

Questo però è valido solo se la registrazione del raw è fatta in modo completo, ovvero parliamo di camere di fascia alta come arriflex o red, mentre nel caso di BlackMagic Cinema Camera esistono si i metadata che indicano quale sia lo scostamento tra gli iso nativi e quelli artificiali, ma esiste una differenza fondamentale su come vengono registrati i dati.

L’iso nativo della bmcc è di 800 iso per la 2,5k e 400 iso per la 4k, mentre gli altri iso sono creati artificialmente facendo un sottocampionamento o un sovracampionamento delle informazioni. Teoricamente possiamo manipolare in post le informazioni, ma nel caso della Bmcc esiste un però…

La bmcc nasce con un ottimo sensore a 16bit, ma registra le informazioni in un file dng raw a 12bit Log, il che significa che dovrebbe registrare tutto il possibile, quando registra a iso nativi, ed è quello che bmd suggerisce per il maggior spazio di lavoro in postproduzione, quando invece lavorano in formato non nativo vengono applicate delle curve al log per prediligere le alte e le basse luci, quindi i 16bit rimappati sul 12bit log viene leggermente spinto nelle due direzioni, quindi in realtà potrebbe essere leggermente meno protetto come gamma tonale sugli estremi.

Ma quindi tutti questi iso in più servono o no?

Difficile dare un’unica risposta, diciamo che dipende da situazione e uso della camera :

PRO iso alti e bassi più ampi:

  • registrando in prores si può avere più spazio di azione per la post perchè si registra una maggior quantità d’informazione nelle zone d’ombra che sarebbero più chiuse, o nelle alte luci
  • avendo iso più alti si può vedere meglio per fare il fuoco
  • avere iso più bassi può essere utile quando non si hanno filtri ND per ridurre la luce

CONTRO iso alti e bassi più ampi

  • registrare a iso troppo alti può causare perdite di definizione e/o rumore eccessivo che rimane “inciso” nelle immagini
  • registrare a iso bassi con il downsampling può clippare le alte luci a seconda dell’algoritmo che esegue il downsampling
  • se si usano senza cognizione di causa si potrebbe limitare l’azione della post

Poi ci sono delle eccezioni, alcune camere sono dotate di un doppio ccd o cmos per la gestione di iso bassi e alti, in questo modo hanno praticamente due iso nativi (nuova panasonic varicam) e in quel caso questo discorso non vale.

bmccMa quindi queste camere BlackMagic Design poco sensibili?

dopo aver fatto un semplice esperimento, bmcc4K affiancata ad una canon 60D, scatti in raw su una e sull’altra, portati gli scatti dentro lightroom, gli scatti a iso nativi a 400 iso della bmcc4K sono stati schiariti in post per raggiungere i dettagli ottenuti con la 60D a 6400 iso raw, il risultato è praticamente lo stesso, solo più rumorose perchè la canon ha una riduzione rumore in camera nativa, ma una volta passata la riduzione rumore otteniamo lo stesso livello di informazione.

Naturalmente c’è un handicap per la bmcc perchè la blackmagic non ci ha mai pensato, che un iso più alto significa anche avere una immagine più luminosa per la messa a fuoco manuale.


Il crop.. ma che paura mi fa …

Quando nacque la fotografia o la cinematografia, i vari utilizzatori usavano le lenti per la loro espressione artistica e tecnica, ma non si preoccupavano del crop e delle sue conseguenze. Oggigiorno sembra che sia un problema insormontabile e soprattutto drammatico.
Facciamo un po’ di chiarezza sui vari discorsi tecnico pratici.

In fotografia la pellicola ha definito uno standard per gli amatori nelle compatte e nelle semi professionali con il formato 24×36 un formato 2×3, mentre i superprofessionisti usavano il formato dei dorsi 6×9 ovvero pellicole a singola lastra di ben 60×90 mm.

Scorrimento Verticale.

Al cinema la pellicola classica si divideva tra :

  • 16mm con un fotogramma di 10.26 x 7.49 mm
  • super16mm con un fotogramma di 7.41 x 12.52 mm sacrificando una delle due perforazioni
  • 35mm con il formato Academy 16 x 22 mm
  • 35mm con il formato 1:85 wide 18,6 x 21.98 mm
  • super 35mm con 18,66 x 24,89 mm (che sfrutta tutta la larghezza fino a bordo perforazione)

Scorrimento Orizzontale

Come si può notare pellicola 35mm fotografica  e pellicola cinematografica condividono solo la larghezza, ma essendo usati in senso perpendicolare uno all’altra non sono assolutamente comparabili.

Oggi nel digitale la fotografia ha creato diversi nuovi formati per risparmiare sia sulle lenti che sui sensori.

  • Il 24 x 36 è formato standard, è stato rinominato FullFrame
  • Il 15,7 x 23,6 è il formato Aps-C, nato nella fascia più economica (che in realtà varia tra le case di qualche mm, ad esempio canon lo riduce a 14,8 x 22,2)
  • il 13,5 x 18 è il formato micro quattro terzi creato dal consorzio Olympus e Panasonic e Zeiss

questo significa che il piano focale dove viene proiettata l’immagine da una lente Fullframe (24x36mm) è più piccolo rispetto e questo comporta una serie di cambiamenti estetico-pratici :

  • se la lente è più grande del sensore, questo ne prende solo una porzione, quindi l’angolo di visione è più ristretto.
  • la luce catturata è inferiore quindi la lente pur essendo veloce (diaframmi aperti) quindi non è in grado di esprimersi al meglio.
  • spesso per catturare un angolo maggiore si usano lenti grandangolari più spinte quando narrativamente non andrebbero usate, quindi la prospettiva è più spinta.

Perchè e quando nasce il problema del crop?

Perchè i produttori (sicuramente per scelta economica) che hanno sviluppato le fotocamere e la telecamere preferiscono tenere un unico mount fullframe e poi montare sopra le stesse ottiche sia davanti a sensori fullframe che più piccoli, iniziando a parlare di questo famigerato crop. Tenendo però come riferimento il cosiddetto FullFrame come crop 0, mentre esistendo formati più ampi come il 6×9, in realtà anche il fullframe ha crop, per essere precisi crop 2.4.

Perchè è temuto il crop?

sensore misurato

sensore misurato

perchè la maggior parte delle persone teme la moltiplicazione della focale e come tale di perdere angolo visivo, quindi dover spingere maggiormente sull’acquisto di lenti grandangolari più spinte pensando di recuperare l’angolo e tutto sia a posto, solo aver pagato per un grandangolare più spinto.

ma non accade realmente se non ci sono differenze molto molto spinte tra i sensori. Ho scritto un articolo con i confronti diretti tra un sensore 4/3 e un s35 con fotografie di confronto.

Cosa è esattamente il crop? e cosa NON è…

Il crop ritaglia la parte d’immagine SUL piano focale, quindi quando si parla di crop si deve pensare che si prende l’immagine originale e si ritaglia solo la parte centrale; parzialmente influenza la luminosità perchè il cono di proiezione dell’immagine di una lente fullframe non viene preso completamente e quindi dato che i raggi non vengono concentrati in modo convergente, quindi anche se la luce raccolta è X, la risultante sarà X/ la percentuale di crop.

Qual’è errore di pensiero più comune?

Spesso legge, equivalente alla lunghezza focale full frame xxx
ERRORE
Il Crop NON PUO’ CAMBIARE LA LUNGHEZZA FOCALE DI UNA LENTE!!! Non cambia la curvatura delle lenti o la distanza interlente interna, ma solo la parte di piano focale RACCOLTO quindi l’angolo focale.
spesso si legge di lenti tipo 12-35 su formato m4/3 (crop x2) come equivalente di un 24-70 su formato Fullframe… ma non si deve parlare di lunghezza focale,  ma di angolo focale.

chiunque pensi che un grandangolare spinto come il 12 e il medio 35 mm possano avere le distorsioni prospettiche di un medio grandandolare 24 e un quasi tele del 70 è un ignorante così grande da non meritare neanche il diritto di scrittura, e invece si leggeva in una pubblicità di Panasonic di qualche mese fa riguardo alla loro ottima lente 12-35 2.8.

Qual’è il più grande errore causato dal crop?

molte persone, tratte in inganno dalla conversione pensano che la moltiplicazione del crop cambi anche la focale e non l’angolo visivo, per cui usano in modo erroneo le lenti e le loro focali.
In fotografia esistono regole ottiche da sempre e non saranno le correzione di post produzione a cambiarle.
Quando si parla di Normali si parla della focale 50mm che si definisce normale perchè corrisponde alla distorsione prospettica dell’occhio umano.
Quando si fotografa con un 50mm si lavora con una lente che se si fotografa guardando con un occhio nel mirino e uno verso la realtà avremo lo stesso tipo di visione.

Esiste una regola molto semplice nella fotografia :

vuoi vedere esattamente come nella realtà? usa il 50mm,
vuoi comprimere le prospettive? sali verso i teleobiettivi.
vuoi dilatare le prospettive? scendi verso i grandangolari.

Il crop ALTERA SOLO l’angolo di visione, ma non può cambiare nè la forma delle lenti interne, nè la loro distanza interasse tra esse.

Alcune case produttrici, come Panasonic, aggiungono una correzione in camera delle immagini per dare l’illusione che l’uso di lenti non adeguate al sensore ma più spinte verso i grandangolari, non creino problemi di distorsione prospettica, peccato che l’algoritmo lavori solo sulla distorsione a barilotto, quindi compensa la distorsione a sfera del supergrandangolare riducendo la distorsione laterale, ma non può alterare la prospettiva, la distanza tra i piani etc, e quindi come tale, si percepisce in modo differente l’immagine.

quindi sia che si fotografi, che si lavori con le immagini in movimento si deve sempre prendere una lente per il risultato ottico prospettico che vogliamo, e solo in casi estremi si va a scegliere una focale più corta solo per catturare una immagine più larga.

quando si usano le ottiche sbagliate i risultati sono evidenti, soprattutto sugli elementi vicini o sui ritratti, dove di solito si usa l’85mm (definita la lente per il ritratto per eccellenza) perchè schiaccia leggermente la prospettiva e rende più piacevole il viso, oltre a sfuocare la parte posteriore per ridurre le distrazioni del background.

La focale fa la differenzaSe si usa un grandangolare il viso risulterà deformato e tondo, gli zigomi gonfiati, il naso deformato, per cui il ritratto sarà più caricaturale che naturale. Sulla foto a sinistra basta guardare solo come si spostano gli occhi rispetto al lato del viso.

Quindi in definitiva?

quando potete scegliere una focale, lo fate per la sua percezione della prospettiva e non per l’angolo visivo, quindi scegliete i classici 35-50-85-135mm per le diverse situazioni cinematografiche.

Quando si passa per lenti grandangolari più ampie dovrebbe essere una scelta voluta per enfatizzare un determinato effetto di spazio e di prospettiva, non per avere un angolo visivo più ampio.
Non a caso chi fotografa con le lenti prime (focale fissa) si muove per cercare l’inquadratura giusta, e nel cinema è noto che spesso i set hanno le pareti mobili, ma una è aperta per indietreggiare e inquadrare anche attraverso la parete fantasma smontabile.

Ma la profondità di campo con il crop?

Sempre con il crop si teme che con la profondità di campo si vada a perdere, memori delle mezze formato in fotografia o del super8 nella pellicola cinematografica amatoriale, ma sono di nuovo errori dettati dalla superficialità di valutazione. Tutto nasce dal fatto che spesso nei sensori piccoli per gestire l’inquadratura si usano lenti grandangolari di cui si esprime l’angolo focale e non la lunghezza focale, forzando la profondità di campo, quindi è più facile avere tutto a fuoco, e più difficile sfuocare, MA…
NOTA BENE tutto questo accade SOLO quando ragioniamo con l’angolo focale e non con la lunghezza focale.

Infatti chi fa questo tipo di ragionamenti da dimostrazione mostrando fotografie simili fatte con stessa lente con sensori diversi, ma essendoci il crop di mezzo non è fisicamente possibile, quindi il sedicente dimostratore per coprire lo stesso angolo focale si è spostato indietro, ma questo viola la regola del confronto, perchè come tutti i fotografi professionisti sanno, uno degli elementi di gestione della profondità di campo è la distanza del soggetto messo a fuoco, quindi se io ho un crop molto forte di una lente tipo un Nocktor 0.95, e per avere lo stesso angolo focale mi sposto indietro di 5 metri dal soggetto è facile che io vadi in iperfocale, quindi non è il sensore che fa sfuocare meno, ma i principi di ottica tradizionali su cui si basa la fotografia, anche se facesse una foto con una 6×6 avrebbe meno sfuocato.

Per confermare tale discorso posso allegare banalmente qualche fotografia fatta con micro 4/3 (sensore con crop 2) che nonostante quello può esprimere sfuocature notevoli senza problema, perchè è la lente che sfuoca, non il sensore….

E chi dice il contrario?

Compressed_perspective_cheat_sheet

poi vengono fuori articoli, come quello che potete vedere sopra, che pensano di provare il contrario, dimostrando ancora più mancanza di buon senso… prendono una immagine di un panorama fatto con un grandangolare e ne confrontano un elemento moooolto lontano con uno stesso scatto fatto con il tele, e pensano di dimostrare che la distorsione prospettica dipenda non dall’ottica ma dalla posizione barra distanza… mentre il tutto è la somma delle due cose.

tra l’altro prendendo la parte centrale dell’immagine la distorsione è ancora meno evidente e quindi ancor più inutile e falso come confronto. Inoltre non spiegano perchè gli elementi col salire della focale si avvicinano tra di loro…
[ironic mode on] forse perchè se vi allontanate voi si avvicinano tra di loro per starvi più vicini… [ironic mode off]

Nikkon 8 mm

fate una foto con questo e vi sfido a prendere una qualunque parte dell’immagine e replicarla con un tele, per quanto piccola la prendiate, la curva di raccolta della luce comporta una distorsione talmente forte da non poter essere fatta corrispondere da nessun fattore di compensazione.

comparazione degli elementi da vicino

comparazione degli elementi da vicino

La distorsione della prospettiva è legata all’angolo che viene coperto dalla lente, quindi dalla forma stessa, maggiore è la curvatura, maggiore è la dilatazione della prospettiva, per cui è normale che se si prende con un grandangolo un elemento lontanissimo esso copre un angolo così stretto della lente che la distorsione prospettica è ridotta o nulla. Ma questo tipo di dimostrazioni non le fanno, perchè non possono, con elementi più vicini al corpo camera, quindi dove si sente una differenza più forte.

Inoltre sfido questi sedicenti esperti a replicarmi con un grandangolare il riposizionamento degli elementi sui piani come i rami dietro la ragazza nella seconda fotografia semplicemente spostando il punto di vista.

Troppo spesso queste affermazioni sono fatte trovando una eccezione alla regola delle focali come le riprese molto distanti degli elementi, dove le caratteristiche differenti tra focali corte e lunghe si riducono, basta prendere elementi vicini qualche metro… e si nota subito come sia impossibile ottenere lo stesso risultato.


Pagina 32 di 40

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!