Carlo Macchiavello

Tutto è possibile

whatsapp il male nascosto…

Ammetto che il titolo è inquietante, ma serviva per catturare la vostra attenzione.

Lo smartphone è uno dei mali dell’attuale società, non per i grandi servizi che ci offrono, ma per la crescente analfabetizzazione informatica che creano.

Purtroppo troppe persone li usano con disinvoltura senza rendersi conto di cosa fanno e come, che nella maggior parte dei casi non è importante, ma ci sono dei problemi nascosti che molti ignorano completamente.

Whatsapp ha sostituito la comunicazione globale tra le persone, sia a livello di messaggistica, sia a livello di scambio file, peccato che per costare praticamente nulla whatsapp comprima e distrugga le informazioni contenute nelle foto e nei video per inviare meno dati possibili.

Troppo spesso mi sento dire “ti mando la foto con whatsapp”… e quando rifiuto e chiedo una email spiegando che whatsapp danneggia le immagini, la persona nicchia, gira intorno, per poi messa sotto pressione magari rivela che non sa come si manda una email dal cellulare o dal tablet…

Ora giusto per esempio pratico di come whatapp distrugge i dati originali…
IMG_0898Fotografia originale scattata da Iphone 4S : 3264×2448 punti per un peso di 2.820 kb

Fotografia spedita via whatup dallo stesso :1600 x 1200 per 231.89 kb

Fotografia originale scattata da S5 samsung : 5312 x 2988 per 3400 kb

Fotografia spedita via whatup dallo stesso :1328 x 747 per 84,43 kb

Fotografia originale scattata da LG G3

Fotografia spedita via whatup dallo stesso : 1600×1200 punti per un peso di 184,54 kb

In questo semplice grafico vedete la differenza di dimensione tra le due, e comprendete come se il peso è diventato un quindicesimo, la perdita di informazioni è drastica…

inoltre il dettaglio e la qualità sono evidentemente persi, basta confrontare una zona con l’equivalente della versione compressa, per notare come le scritte non solo siano più sfuocate e ridotte, ma l’immagine più impastata.

differenzeLa maggior parte delle persone non è interessato a questo tipo di problematiche perchè scambiano le foto giusto per abitudine, le guardano solo sui cellulari, e considerato che il valore medio di 1600 x 1200 è pari o spesso superiore al numero di punti presenti sui display del cellulare medio, nessuno si accorge della compressione.

Però se dobbiamo scambiare delle foto per altri usi, per stamparle, etc etc usare whatsup castra e danneggia i contenuti in modo irreversibile. Se proprio non potete farne a meno, usate il messanger di Facebook, almeno non riduce la risoluzione in modo così aggressivo, ma comprime solo a livello di compressione Jpeg.



Zuppa di codec

tape-soup-capone-3Nel moderno mondo digitale si scatta, si riprende senza preoccuparsi come le immagini si archivino sui telefoni, telecamere, macchine fotografiche, etc. Poi caricandoli direttamente sul web, sui propri cloud, partendo dallo smartphone, alla smartcamera o altro, i file vengono transcodificati in x codec diversi, il che finchè non ci servono, non è un problema, ma quando dobbiamo aprire questi file ed editarli con un programma di editing, potremmo incontrare diversi problemi.

Iniziamo col capire cosa è un codec e cosa è un contenitore:

Il contenitore è la struttura che contiene i file video, che può cambiare a seconda del sistema operativo (sotto windows è comune .avi mentre sotto MacOsX è comune .mov) che favorisce le risorse del sistema nell’aprire il contenuto dei file.

Il codec è il sistema con cui i diversi fotogrammi di un filmato vengono archiviati, a seconda del codec possono occupare più o meno spazio, offrire più o meno qualità, richiedere più o meno risorse CPU per leggere i singoli fotogrammi.

I codec hanno diverse caratteristiche, ma quello che interessa a noi è se un codec è pensato per la cattura e storage o per la lavorazione, quindi editing etc.

I codec classici di registrazione di telecamere e dslr sono codec di cattura, quindi il loro obiettivo è massima qualità, minimo spazio occupato; il problema della decompressione e compressione è relativo perchè questi dispositivi hanno sempre una soluzione hardware per leggere e scrivere questi codec.

Un codec di lavorazione, normalmente detto DI Digital Intermediate è un codec che occupa molto più spazio sul disco, ma preservando la qualità originale permette una lavorazione fluida, semplice all’interno di tutti i programmi professionali.

DI sono codec come Prores, Cineform, DnXHD/HR, GV codec e simili.

Oggi affrontiamo una problematica molto sentita nel mondo moderno, ovvero come convertire le sorgenti in formato X in uno di questi formati di lavorazione.

Per lavorare più comodamente durante e dopo la conversione suggerisco di installare il Quicktime7 sia su Windows che su Mac (per chi pensa che il quicktime X basti, si legga l’articolo sui limiti dello stesso, e tutti i problemi che causa al sistema, dalle preview mancanti alla forzata conversione dei file anche quando non serve).

Quicktime7 per windows si scarica da qui.

Quicktime7 per OsX si scarica da qui.

Codec Cineform per windows e mac si scarica Installando la goPro App da qui.

Codec DnXhD/R Avid per win e mac si scarica da qui.

In questo modo grazie al Quicktime 7 si è in grado di inserire gli altri codec nel sistema in modo più ampio, e grazie a questi ottimi codec DI possiamo convertire il formato X difficile o impossibile da lavorare in un formato pensato per essere lavorato.

indexPer convertire cosa usiamo?

Sia per Windows che per MacOs esistono diverse soluzioni sia Free che a pagamento che leggono e poi convertono i file in altri formati.

Chi acquista la licenza di un prodotto Adobe video ha la possibilità di usare Media Encoder, programma nato e pensato per la conversione dei file video. Al suo interno contiene già sia i preset per Cineform che DnXhD/HR, e anche i codec per la conversione, per cui per convertire uno o più file basta trascinare sopra l’interfaccia, sul preset scelto il o i file che vogliamo convertire e poi attendere…

Il pacchetto è presente identico sia per windows che per mac.

imagesSe fossimo interessati ad una soluzione Free?

Sotto windows un programma interessante è VirtualDub, in particolare aggiungendo alcune plugin gratuite che gli permettono di utilizzare il motore di FFmpeg per la lettura dei file di ogni tipo e codec.

Funziona bene anche con Parallels sotto MacOS, quando sono necessari alcuni tipi di conversioni speciali complicate.

squaredlogo96Un prodotto disponibile sia per windows che mac è Mpeg streamclip, che prevede di leggere moltissimi codec e salvare nei codec presenti nel sistema (compresi Cineform e DnxHd e Prores).

Questo prodotto è particolarmente interessante per la sua capacità di leggere formati web come il formato .flv di flash e similari.

iconSotto MacOs esiste un altro prodotto Free chiamato Media converter, da prendere direttamente dal suo sito, perchè ne esistono diversi con nome simile. Il sito originale è questo media-converter.sourceforge.net

Questo convertitore è basato su FFmpeg, un filo più complesso da usare se si vuole uscire dagli standard perchè prevede di conoscere settaggi etc, ma molto potente, in particolare per la sua capacità di fare il rewrapping, ovvero cambiare il contenitore ai file che potrebbero essere letti direttamente da win e mac, ma è incapsulato in un contenitore poco “editor oriented”. La procedura per usarlo per tale processo la trovate in questo mio articolo.

logoUn altro prodotto molto interessante e comodo per le conversioni disponibile sia sotto Windows, Mac e Linux è Handbrake, sempre basato su FFmpeg, ha un sacco di possibilità di lettura e scrittura di codec, è più semplice per la gestione delle conversioni dei file, e legge anche formati come divx e simili, senza avere il codec installato sul sistema

Anche se molti non comprendono la necessità di convertire i file in un DI, è un processo fondamentale per semplificare i processi di editing, infatti molti pacchetti professionali, Avid per primo, comporta prima del montaggio la conversione in tale formato, poi si può iniziare ad editare il materiale, solo di recente con il concetto dei link AMA si possono montare i file originali senza conversioni, ma solo in determinate condizioni.

Final cut lo stesso discorso, il formato ProRes (anch’esso un DI) fu creato per quello. Edius della GrassValley (nome storico nel video e nella postproduzione hanno i GV Codec; Adobe ha acquisito le licenze di Cineform e DnxHD/Hr da Avid per fornire a Premiere i codec DI migliori, e a breve con la nuova release offrirà anche il codec Prores per entrambe le piattaforme, windows e mac, direttamente, senza richiedere soluzioni di terze parti.

qtE Bug di sicurezza del quicktime per windows?

Ultimamente sto leggendo notizie allarmistiche riguardo ad un teorico bug del quicktime 7 per windows, la verità è che la vecchia versione di Quicktime 7, se si attivavano le estensioni web e java per il web poteva essere usato da hacker per entrare nel computer, ma la release attuale (quella linkata in questo articolo) non solo ha corretto il bug, ed evita l’installazione delle estensioni web se non necessarie.

Personalmente non ho mai avuto problemi neanche con il precedente prodotto.
Utilizzo un principio : la macchina da lavoro NON deve essere connessa a internet, per evitare update automatici di sistema o software che potrebbero in qualche modo danneggiarvi durante un lavoro, i forum sono pieni di persone in panico perchè si è aggiornato il sistema (win o mac) si è aggiornato il programma grazie ai sistemi di aggiornamento intelligente (non si sa però intelligenza di chi, visti i danni che fanno), e il programma o è instabile o non legge correttamente il progetto.

Sia perchè non permetto mai ad un qualunque software o sistema operativo di comunicare all’esterno senza il mio permesso; il concetto è talvolta noioso, perchè si deve confermare al firewall che la comunicazione in ingresso o uscita ogni volta, ma almeno sono sereno che ho ridotto ad un numero vicino a zero le problematiche di questo tipo.


Esposizione, Pellicola vs Digital cosa è cambiato? ma è veramente cambiato qualcosa?

Il superpotere della pellicola

I fautori della pellicola combattono sempre strenuamente sulla qualità inarrivabile della pellicola con il digitale, e spesso hanno ragione su una cosa, che la pellicola offre la qualità. Questo perchè se sei un cane a illuminare o a esporre non viene qualcosa così così come col digitale, ma uno schifo inutilizzabile…

La pellicola ha un’alta tolleranza sulle alte luci, per cui nelle situazioni in cui la luce è tanta, perdona un sacco di errori, ma dalla prima telecamera diffusa nel mondo, la parola d’ordine era… “riprende alla luce di una candela” … da schifo, aggiungerei, ma lo faceva… questo dava l’illusione di fare riprese senza luce, senza usare la giusta illuminazione.
Che poi questo fosse materiale inutilizzabile, ben lontano dal concetto di cinema e immagini di qualità, quello è un altro discorso…

La pellicola ha il merito che insegna a esporre, a non fare le riprese a caso perchè ha un costo molto alto, a non “cercare l’inquadratura” a non “proviamo mentre giriamo” e tutte quelle brutte abitudini nate con analogico e digitale dove i costi sono teoricamente più bassi.

Perchè oggi ci sono tante cineprese digitali e si vedono ancora tante immagini tanto …. digitali?

Partiamo dal fatto che il gusto visivo è cambiato, dalla fine degli anni 90 in poi si sono diffuse molto mode e stili visivi con contrasti molto alti, saturazioni forti, contrasti di colore particolari, e la pessima abitudine di postprodurre troppo colore e immagini invece di stabilire bene in ripresa il materiale.

Partiamo dal fatto che ci sono diverse scuole di pensiero dei Dop, quelli che hanno strenuamente combattuto contro il digitale; quelli che hanno accettato passivamente l’uso delle camere digitali senza conoscerle e poi in post gestirne le risultanti; quelli che hanno studiato i sensori e li hanno confrontati con le pellicole, che si sono fatti il loro DiT personale, con il quale gestiscono il colore.

Tra una telecamera e una cinepresa digitale o la pellicola, ci sono diverse differenze.

Quando si prende una pellicola negativa e la si espone alla luce, più luce cattura e più diventa densa (infatti si chiama negativo per quello), quindi la pellicola ha una maggior tolleranza alla sovraesposizione, perchè più luce più densità, più dettaglio. Mentre meno luce meno densità quindi assenza di dettaglio. E’ esattamente la stessa cosa delle cineprese digitali (Red,Arriflex, Bmd), mentre l’opposto delle telecamere dove la luce se è poca o troppa è sempre un problema perchè hanno la capacità di catturare una gamma dinamica inferiore, ovvero la gamma di sfumature tra luce e ombra.

E’ una abitudine diffusa che nell’esporre una pellicola negativa si esponga 2-3 diaframmi sopra l’esposizione media per avere una immagine più densa di dettagli, perchè il negativo regge molto bene questo tipo di informazioni.

Un sensore di una telecamera o di una DSLR quando viene usata come telecamera invece sono sensori che lavorano in modo più lineare, ovvero possono catturare una scala di luminosità da X a Y, oltre si brucia, sotto è nera. Questo vuol dire che le informazioni nelle ombre saranno più scarse, e spesso nelle luci alte si bruceranno facilmente i dettagli.

Un sensore di una cinepresa digitale si comporta in modo simile alla pellicola, quindi per avere una buona immagine la si deve esporre correttamente sulle ombre, per la maggior parte delle persone non sembra corretto, perchè vedono una immagine molto chiara o in alcuni casi bruciata, ma è come funziona il sensore cinema, o la pellicola negativa. Soprattutto che arriva dalla ripresa a 8 bit delle telecamere o delle DSLR sembra completamente sbagliato riprendere in quel modo, ma è semplicemente il modo corretto con cui esporre una immagine per estrapolare il meglio delle informazioni.

Il discorso è molto semplice:

  • poca luce poche informazioni = rumore
  • molta luce = informazioni buone nelle ombre e il resto si riporta in basso grazie alla miglior tolleranza dei sensori digitali e la registrazione di informazioni ampie di tali camere.

graficaUn’altra differenza importante tra una telecamera e una cinepresa digitale è che le informazioni di cattura sono ad un livello superiore. La più semplice delle cineprese digitali lavora a 10bit contro gli 8 bit delle telecamere classiche. Anche se potrebbe sembrare poca la differenza, significa che invece di avere 256 tonalità luminose per colore ne abbiamo 1024, e la risultante finale è uno scontro tra 16 milioni (16.777.216) di colori contro poco più di un miliardo di tonalità (1.073.741.824), ovvero 67 volte i colori di una telecamera. Avendo così tante informazioni in più abbiamo molte più possibilità di lavorazione sulle immagini anche se portate di più al limite.

Senza considerare che le cineprese digitali possono lavorare anche a 12bit raw, ovvero arrivare a oltre 68 miliardi di colori (68.719.476.736), 4096 volte i colori di una telecamera…

Quando si lavora con le cineprese digitali abbiamo un tipo di sensori particolari, con esposizione molto simile alla pellicola, che in gergo tecnico si chiama ETTR, Expose to the right, perchè esponendo si pone l’istogramma sulla destra per ottenere più densità nella parte centrale spostandola a desta.

A livello tecnico il concetto è semplice, se poca luce offre poche informazioni e quindi o viene fuori la grana pellicola, o viene su il rumore digitale col gain, invece di creare un sensore ultrasensibile (che poi diventa un problema nelle riprese diurne) è più semplice creare un sensore con una maggior sensibilità e gamma sulle luci alte, in modo che esponendo correttamente le ombre, il resto poi si abbassa, e si ottiene una immagine più ricca e pulita.


Filtro ND, cos’è e come si sceglie e/o si usa

I filtri nel mondo Digitale

il fatto che si catturi con sensori digitali ha diffuso la leggenda metropolitana che i filtri non siano più necessari, perchè tanto si fa tutto in post… ironicamente erano nati con la pellicola che aveva una superiore gamma dinamica della maggioranza dei sensori di fotocamere e dispositivi varii, e oggi proprio sui dispositivi più “deboli” si pensa che non servano…

La luce spesso va “addomesticata” perchè troppo dura, troppo morbida, troppo angolata, troppo calda e troppo fredda, troppa in alto e poca in basso e così via…

Neutral-Density-FiltersCos’è un filtro neutro?

Un filtro ND Neutral density, è un filtro neutro lineare o sfumato che riduce la luce entrante nella lente, in modo da ridurre la luce in eccesso. In fotografia si usa per controllare la luce con esposizioni prolungate di diversi secondi, in cinematografia serve a controllare la quantità di luce con diaframma e tempi di scatto fissi.

Mi serve?

se volete controllare la vostra esposizione, e non potete controllare il sole e le nuvole, si…

Per farla breve, alle 17.00 di un giorno primaverile in riva al mare, con 200 iso e 1/48 di otturazione (otturazione cinema) per esporre correttamente la scena dobbiamo chiudere a 22 il diaframma… Non vi dico a mezzogiorno…

E per esporre correttamente il cielo servirà un ulteriore filtro ND4 sfumato per compensare la grande luminosità del cielo rispetto a al mare o al terreno.

Come funziona?

Graduated-ND-filter-effectsIl filtro neutro lineare è un elemento in vetro o resina con una capacità di assorbimento della luce progressiva in funzione della propria numerazione ND 2/4/etc più è alto è il numero e più luce può assorbire.

Il filtro neutro sfumato è un elemento in vetro o resina con una sfumatura dal neutro ad assorbimento pieno, in modo che si possa compensare inquadrature dove il cielo sarà più luminoso della parte in terra.

Filtro fisso o graduale?

In realtà servono entrambi per gli esterni, perchè il cielo spesso sarà molto più luminoso del terreno e quindi serve quello sfumato, mentre se non inquadriamo il cielo servirà facilmente quello “pieno” per compensare l’eccesso di luce.

Esiste una terza scelta, che è una variante del primo filtro, il filtro Nd variabile, un filtro ND con una doppia ghiera, che a seconda di come lo si gira fa passare più o meno luce. Il filtro ND variabile è fatto con una coppia di filtri polarizzatori.

il che significa che se è di scarsa qualità crea un brutto effetto ad X al centro dell’immaginexpGRn, e delle dominanti di vario tipo verso il verde man mano che si aumenta il filtraggio della luce. Se è di buona qualità sarà un ottimo complemento all’esposizione, ma si deve fare attenzione che essendo comunque un polarizzatore andrà a togliere alcuni riflessi sugli oggetti, togliendo parzialmente la tridimensionalità degli elementi.

Un buon filtro ND variabile è il Genustech

Perchè non si può far a meno del filtro ND?

Sia che lavoriamo con una pellicola fotografica di altissimo livello (19stop) o una camera digitale classica (8-14 stop di gamma dinamica), non avremo una camera in grado di catturare tutta la gamma dinamica dalle ombre alle alte luci nel modo corretto, perchè la realtà sarà sempre più “ricca” d’informazioni e dovendo scegliere si finisce col catturare una immagine con meno informazioni di quelle percepite dall’occhio umano, mentre usando un filtro ND sfumato, o un filtro ND classico potremo catturare una immagine più interessante e piacevole.

In fotografia catturando la luce possiamo :

  • dosare la quantità di luce aumentando o riducendo il tempo di scatto, ma questo influenza la cattura degli elementi in movimento, con tempi lenti avremo oggetti mossi, mentre con tempi veloci si congelano nello spazio.
  • dosare la luce aprendo o chiudendo il diaframma, ma questo comporta che entro certi limiti si riduca o si ampli la profondità di campo, quindi chiudendo il diaframma al massimo si estende al massimo la zona di fuoco, che non sempre è ciò che vogliamo.

In Cinematografia catturando la luce possiamo solamente cambiare il diaframma, perchè l’otturazione deve essere per la regola dei 180 gradi (otturazione a farfalla) il valore doppio dei frame al secondo, altrimenti le immagini in movimento saranno stroboscopiche o mosse se si alza il valore.

Come potete immaginare, se volete scegliere il diaframma, e controllare quanta luce entra, l’unico modo è usare dei filtri Neutri che riducano la quantità di luce che arriva al sensore.

Io posso chiudere il diaframma, non mi interessa la dof, posso evitarli?

In generale no…

  1. Se ho un cielo luminoso e lo espongo correttamente vuol dire che sottoespongo tutte le parti medie riempendole di rumore, quindi avrò una immagine di bassa qualità
  2. Se chiudo troppo il diaframma, rischio la diffrazione, che mi fa perdere nitidezza nell’immagine. Il fatto che nel cinema e in fotografia si usino normalmente i diaframmi centrali non è casuale, ma serve sia a non avere una sfuocatura di campo tanto estrema da non tenere i fuochi durante i movimenti e poter catturare il massimo della nitidezza dalle lenti.
  3. In esterni la quantità di luce durante il giorno è spesso troppo alta per la maggior parte degli ISO applicabili in scatto o ripresa, quindi o si lavora a diaframmi chiusi, iso bassi e otturazione alta o si avrebbero immagini sovraesposte… ma l’otturazione alta in ripresa video significa immagini fortemente stroboscopiche.

Ir pollution, questa paura?

fig6_irOk abbiamo detto che i filtri ND sono il bene, ma non hanno punti deboli?
Quando si usano filtri MOLTO FORTI tipo ND16 o si sovrappongono più filtri neutri si può notare il fenomeno chiamato IrPollution, ovvero la sensibilità maggiore dei sensori digitali ai raggi Infrarossi porta a vedere negli elementi scuri un inquinamento cromatico rosso.

Il fenomeno si presenta solo a fortissime filtrature se i filtri ND non hanno il trattamento Ircut o non si è applicato un filtro IrCut alla lente, che tagliando i raggi infrarossi non si presenterà il difetto.

A seconda delle lenti, delle camere usate, ho potuto osservare il fenomeno solo in poche occasioni di filtratura molto fortemente con due ND molto pesanti, ND8 + ND16 e mettendo un buon filtro IRcut il fenomeno spariva, per cui è una preoccupazione relativa, ma si deve sapere di cosa si parla.

A seconda delle camere, Arriflex, BMD, Red etc ci sono frequenze diverse da tagliare, ad esempio le BMD lavorano meglio con un filtro che tagli le frequenze da 680nm in su.


Perchè non si deve comprare una BlackMagic Cinema Camera :-D

bmcNOMolti di noi, acquistato un nuovo giocattolo diventano un piccolo “evangelist”, termine tanto caro al marketing americano per definire quelle persone che impongono un oggetto, uno strumento decantandone lodi così tanto intensamente da farli diventare miracolosi, persino quando non lo sono, o esaltando proprietà e valori che sono presenti negli stessi identici prodotti della concorrenza, ma la loro capacità sta nel far vedere che queste capacità miracolose le hanno solo i loro prodotti, distorcendo la realtà.

Personalmente ho superato quel periodo da almeno 20 anni, a me interessa il risultato, per questo motivo se trovo uno strumento più interessante cambio, non sono legato a marchi o prodotti, nè mi pagano per pubblicizzarli, e anche quando lo ero, lavorando come demo artist, imparai che l’onestà nel presentare punti deboli e punti forti del prodotto mi distinse dagli altri, perchè non volevo imporre il prodotto, ponevo in evidenza la realtà e lasciavo a chi doveva acquistare la scelta, nel tempo ha sempre dato ottimi frutti.

Perchè tutto questo discorso? Perchè essendo passato a Blackmagic come corpo macchina in tanti non comprendono la mia scelta, e oltretutto non ne parlo in modo esageratamente positivo, come se non volessi farne l’evangelist, mentre quelli che conosco devono per forza imporre le loro scelte agli altri… li pagassero almeno… ma fa parte dell’animo umano, è stato addestrato a pagare e non essere pagato per tifare :-PP

Per questo motivo amici e conoscenti utilizzatori delle videoreflex aguzzate le orecchie e leggete tutti i motivi per cui non dovete comprare una Blackmagic Cinema Camera, vi farebbe male, lavorereste scomodi e tutte le vostre abitudini sarebbero sconvolte, e soprattutto usandola poi si inizia a pretendere di più, tutto quello che non siete abituati a fare normalmente.

  1. tranne la pocket Non hanno la batteria intercambiabile, per cui dovete attrezzarvi con una o più batterie esterne, perchè per lavorare ha bisogno di tanta corrente.
  2. NON ha un sensore full frame, quindi normalmente con le lenti fotografiche si deve gestire un minimo di crop, equivalente al formato APS-C.
  3. NON ha il fuoco automatico continuo, per cui si lavora con il follow focus o con i fuochi manuali dopo aver preso il fuoco col bottone focus.
  4. Il formato di qualità più bassa che può registrare è il Prores Proxy, che occupa un sacco di spazio sui dischi, figuriamoci in raw…
  5. La qualità così alta crea file molto nitidi e puliti, quindi si è costretti ad usare lenti di ottima qualità, filtri di qualità e tutta l’attrezzatura va upgradata molto per alzare la qualità.
  6. Si lavora con solo un iso reale, 400 o 800 iso, gli altri sono fittizzi, e pochi, di solito 200-400-800 e alcune hanno anche il 1600 iso, se deve fare come con la pellicola, aggiungere luce, perchè… notizia sconvolgente, la pellicola cinema più sensibile è 500 asa!
  7. I supporti sono SSD ad alta velocità quindi costosi per registrare il girato.
  8. Non si possono cancellare le clip in camera, per evitare frammentazione del disco e cancellazioni errate, come nelle cineprese digitali professionali.
  9. La normalità è girare in raw log, quindi poi per usarlo dobbiamo imparare a sviluppare le immagini e fare un file proxy di lavorazione, pensare di montare direttamente il raw richiede risorse molto molto grandi.
  10. il monitor è fisso sulla camera non orientabile, come la 5d… è un problema…
  11. Il monitor prevede solo uno zoom 1:1 e pochi controlli, quindi fondamentale avere un monitor esterno, per fare fuochi e tutto il resto.
  12. Non ha automatismi di nessun tipo, dobbiamo imparare ad esporre, a fare il fuoco, a sapere come si lavora…
  13. Non si applica il denoise in camera, se esponiamo male e abbiamo rumore dobbiamo toglierlo in post
  14. Ha un corpo massiccio e pesante, quindi va riggata e applicata su cavalletti, bracci e slider di livello più alto per supportare un maggior peso e gestirlo al meglio
  15. Non scatta fotografie, quindi dovete usare una macchina fotografica o vi accontentate di frame estratti dai soli 8.9 mpx raw, come si faceva 5-7 anni fà.
  16. ha un microfono orrido solo per un audio buono per fare il sinc, ma nasce per usare audio esterno, infatti ha due ingressi mono bilanciati per entrare con un audio esterno professionale
  17. non ha un filtro ND integrato, lo si deve gestire esternamente…

insomma un sacco di brutte cose per gestire per chi è abituato alle dslr e alle telecamere… evitatela, poi finite col capire come si girano i film, perchè si deve pensare prima di girare ore di materiale a caso, illuminato male, di fare fuochi a caso che stanno davanti o dietro i soggetti e un sacco di altre cose…

il mio commento è naturalmente ironico, visto che ogni giorno i professionisti lavorano in questo modo per realizzare i film che ci colpiscono ogni giorno, e la maggior parte di questi commenti si adattano anche alle cineprese digitali più blasonate. Il più grande problema delle camere Blackmagic è il basso costo, quindi le prendono persone abituate al run & gun delle dslr o delle telecamere e si trovano di fronte ad una cinepresa, che è un prodotto nato con scopi diversi e finalità diverse di lavoro, che richiede operatività e conoscenze diverse. L’incomprensione che nasce da ciò è spesso causa della cattiva fama delle stesse. La mia riflessione è banale, se le usano su grandi set (e non solo come crash cam) vuol dire che hanno ragione di esistere anche ad alto livello.


Pagina 26 di 39

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!