Tutto è possibile

Tag: sd

12 regole per esser sicuri di avere problemi con i Braw

Da diversi anni ho notato che riscuotono più interesse gli articoli al negativo, probabilmente perchè funzionano come la psicologia inversa, o forse perchè c’è una forma di masochismo insito nella rete nel cercare il negativo invece che il positivo, mah…

Molte volte ho visto e sentito parlare del problema dei file Braw, soprattutto oggi con i file più grandi e con un pensiero troppo … fluido nel gestire supporti e le loro caratteristiche, che poi è una scusa per non seguire le regole 😯 .

Cosa può dare problemi con i file Braw?
  1. La registrazione su un supporto sbagliato, non certificato
    (la certificazione non è un semplice test di velocità, ma significa che bmd o qualche altro testano in molte condizioni diverse l’affidabilità del supporto dal primo all’ultimo byte, troppi elementi possono rompere la vostra catena di velocità e rovinare una ripresa)
  2. Registrazione su supporto frammentato
    (cancellare e scrivere i file da computer o altro)
  3. Registrazione su un supporto non formattato dalla camera
    (non molti sanno o non verificano quanti file nascosti sono scritti da certe marche, perché ovviamente ottimizzano le proprie camere)
  4. Registrazione su supporto con un cavo sbagliato
    (non tutti i cavi sono uguali)
  5. Registrazione su supporto esterno con batteria insufficiente
    (è un problema meno considerato, ma è la causa del 90% dei file corrotti su disco esterno, molte piastre per le batterie esterne hanno una doppia alimentazione 7,4v -12v, assicuratevi di collegarle al pin giusto a 12v).
  6. Registrazione su un supporto non correttamente fissato alla videocamera durante le riprese in movimento
    (usb c è il connettore più debole del mondo, un piccolo movimento può causare la disconnessione di un pin, sufficiente a rovinare la ripresa)
  7. Spegnere la camera senza aspettare che smetta di lavorare sul supporto
    (molte persone spengono la videocamera in modalità play. tornano alla modalità di registrazione e la spengono)
  8. Registrare a un bitrate più alto/una qualità superiore a quella del supporto senza avvisare della mancanza di fotogrammi.
  9. Aprire il supporto da Windows e permettere che chkdsk faccia il suo lavoro per distruggere i dati (più frequente di quanto si pensi, non lasciare mai collegato il supporto esterno a Windows durante il riavvio, chkdsk naque per file molto piccoli, secoli fà, oggi quando agisce su file grandi causa al 99% solo danni)
  10. Abbassamento dell’energia durante la registrazione
    (batteria scollegata o ignorata a fine vita, ricordate che quando la batteria si scarica, la videocamera inizia a ridurre l’energia al dispositivo esterno e successivamente si spegne, questo causa la corruzione del disco Cfast o Usb che chiude i file braw)
  11. Aggiornamento del firmware del supporto
    (a volte la frenetica mania di aggiornare tutto dimentica che tutta la catena si basa sul vecchio stato della catena e aggiornare qualcosa non è mai una buona cosa).
  12. Copia di file senza controllo, oggi abbiamo uno strumento gratuito in Resolve per clonare il contenuto dei nostri file su un altro disco rigido, se non vi piace Resolve c’è un ottimo strumento gratuito chiamato QuineCopy https://www.quine.no/quinecopy.
    Molto spesso i problemi dei file sono relativi alle copie non eseguite correttamente.

E a questo ne aggiungo uno, ma essendo superstizioso non lo chiamo 13

12.5 Uso del filesystem ExFat su file molto grandi.
Ove è possibile, Blackmagic ve lo permette, invece del filesystem ExFat usiamo il HFS+, nato in casa Apple e corrispettivo del più robusto NTFS di Micorsoft. Se usate Windows esiste un driver del costo di 12 euro per leggerlo e scriverlo come se fosse nativo (Paragon HFS+ for WIndows), saranno i soldi meglio spesi della vostra vita.
Il motivo è molto semplice, ExFat era nato per WindowsCE nel 2006, col il limite di pochi GB di dimensione massima (era per dei prodotti tascabili), e poi modificato in seguito per poter formattare e gestire supporti e archivi più grandi, ma…. purtroppo scrivendo file molto grandi questo filesystem è molto più sensibile a errori, a problemi nel recupero dei dati in caso di danni alla struttura del disco etc etc etc.
Quindi se avete la possibilità, evitate quel FileSystem, usiamo NTFS sotto Windows e HFS+ e successivi sotto Mac.

In caso di problemi di corruzione, ma i dati ci sono, un metodo per recuperare i dati è mostrato in questo video :

oppure si possono contattare Aeroquartet

La mia esperienza con BMCC, BMPC4K, Ursa Mini Pro G1, p4k, 2x p6k G1 ha dato, seguendo le regole, quasi zero problemi di file corrotti durante il lavoro 😀

Supporti questi sconosciuti, quanta velocità mi serve?

Troppe volte sento parlare e leggo di problemi di registrazione dei file, sia fotografici che video, associati a bestialità tecniche incredibili, sia perchè c’è tanta disinformazione, sia perchè spesso sono argomenti affrontati con molta superficialità, che causa problemi lavorativamente.

La cosa inquietante è che spesso anche le aziende non sono preparati per rispondere a domande banali, conservo ancora una email del supporto tecnico di una nota Azienda riguardo alla richiesta di un elenco di SD certificate per la registrazione del flusso dati 400mbits della loro camera, l’avranno testata in qualche modo visto che facevano uscire i video dimostrativi, ma nessuno mi sapeva dare elenco di card certificate per ottenere tale risultati, e di sicuro non spendo centinaia di euro in schede inutili per fare i test al posto loro, come suggeritomi dall’assistenza.

Perchè mi serve avere un supporto veloce e cosa accade quando uso un supporto più lento di quello necessario?

Quando stiamo scattando una fotografia, stiamo girando un video, stiamo creando dati che passano attraverso 5 diversi possibili colli di bottiglia:

  • Dimensione buffer interno della camera
  • Controller di registrazione della camera (supporto o no di schede veloci UHS-II etc)
  • Dimensione buffer esterno della scheda (prima della scrittura sulle celle il controller spesso ha un buffer di passaggio per liberare quello della camera)
  • Controller di registrazione della scheda (la gestione delle celle viene fatto da un controller che registra direttamente i dati o spesso li comprime per accelerare il trasferimento).
  • Qualità celle che mantengano la stessa velocità di scrittura per tutte le celle, molti supporti dopo aver riempito in modo casuale la metà delle celle rallentano perchè hanno mappato male i dati e devo “trovare gli spazi liberi”.

Dato che con la scelta della scheda stiamo influenzando buona parte di questi elementi di gestione della velocità di scrittura dei dati, è importante fare la scelta giusta, perchè se il supporto scelto è quello ottimale avremo una serie di vantaggi:

  • registrazione alla massima qualità dei video
  • registrazione al massimo bitrate dei video (non sempre coicide col primo punto, ma ci sono vantaggi e differenze in questo)
  • registrazione di raffiche di fotogrammi più lunghe
  • reattività della macchina a scattare nuovamente dopo aver scattato i primi fotogrammi

Al contrario se il dispositivo non è adeguato possiamo incontrare i seguenti problemi:

  • limiti di durata dei video alla massima qualità/bitrate (dipende dal buffer interno, normalmente si parla di pochi secondi se la scheda non è adeguata), si prevede perchè sempre stesso intervallo.
  • se la scheda è discretamente veloce, possiamo avere interruzioni della ripresa video dopo un tempo X (buffer che si riempe ma non abbiamo feedback può essere anche dopo minuti di registrazione) non prevedibile.
  • tempi di attesa più o meno lunghi dopo lo scatto per attendere che sia scaricato il buffer
  • lo scarico del buffer della raffica richiede secondi e quindi non si può scattare nel frattempo
  • raffiche brevi perchè il buffer della camera si riempe subito
come scelgo la card giusta?

Il primo limite nella scelta delle card sta nel fatto che i produttori spesso offrono dati confusi e tendenziosi per ingannare l’acquirente occasionale, fornendo sigle e indicazioni poco chiare o spesso indicanti solo di parte dei dati:

  • SD Secure Digital fino ad un massimo di 2gb
  • SDHC Secure Digital High Capacity dai 4 ai 32 gb
  • SDXC Secure Digital eXtended Capacity da 64gb a 2 tb
  • Classe 2 scrittura fino a 2 mb/s
  • Classe 4 scrittura fino a 4 mb/s
  • Classe 6 scrittura fino a 6 mb/s
  • Classe 10 scrittura fino a 10 mb/s
  • SD UHS Speed Class-I U1 scrittura garantita a 10 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-I U3 scrittura garantita a 30 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-II U1 e U3 scrittura garantita da 150 mb/s a 312 per tutta la capacità della scheda
  • SD Video Speed Class nuova categoria per la registrazione video con garanzia di prestazione V6 (6 mb/s), V10(10mb/s),V30 (30 mb/s), V60(60mb/s),V90 (90 mb/s)

Spesso quando si vedono le velocità scritte sulle schede si parla delle velocità di lettura, non di scrittura, che non ci interessano per la scrittura dei file in ripresa.

Entrambe sono SDXC Classe 10, U3

la prima legge a 95 mb/s ma V30, quindi scrive a 30 mb/s

la seconda legge a 300 mb/s ma scrive fino a 260mb/s.

Quindi è importante saper leggere le sigle, verificare le vere velocità di scrittura delle schede SD per evitare sorprese durante il lavoro.

cFast l’alternativa?

La CompactFlash Association ha creato una serie di varianti dalle prime Compact Flash, nate per la fotografia e NON USABILI per il video.
Dato che l’abbreviazione è spesso la stessa, cioè CF, specifico in maiuscolo e grassetto perchè sono diverse a partire dalla piedinatura, che potrebbe danneggiare le camere che si aspettano le Cfast.
Le CFast classiche sono basate sul protocollo SATA, e quindi come tali hanno un collo di bottiglia a circa 600mb/s.

Le Cfast sono prodotte da tante aziende e come per gli altri supporti le loro performance dipendono molto dalla qualità delle memorie, dei controller delle memorie, dei buffer di scrittura, dal firmware che ottimizza il passaggio dati.

cFexpress il nuovo avanza

Di recente (2020) sono state introdotte le nuove CFexpress, un nuovo gradino delle performance di lettura scrittura da parte di Delkin, Lexar, ProGrade Digital, SanDisk, and Sony,

Le CFexpress vengono realizzate in tre tipi siglati con le lettere A, B, C e si differenziano per il bitrate di massima.

  • Type A: Velocità fino a 1000MB/s
  • Type B: Velocità fino a 2000MB/s
  • Type C: Velocità fino a 4000MB/s

come scelgo l’ssd giusto?

Oggi diverse camere usano gli ssd per la registrazione dei dati, o tramite adattatori CF2 to Esata trasferiscono i file su SSD. Le stesse regole delle schede SD valgono anche per le CF e gli SSD, anzi ci sono anche più pericoli nascosti, perchè spesso le velocità dichiarate sono farlocche, ovvero ottenute solo tramite trucchi hardware, ma solo nel momento in cui lavorano su un computer, mentre nel momento in cui sono connesse con un sistema di registrazione diretto questi elementi non funzionano.

Troppi utenti trascurano il fatto che dentro gli ssd ci sono dei controller, dei buffer, e spesso trucchi per raggiungere velocità di picco che non saranno mai mantenute durante la registrazione di file continua.

I produttori di ssd spesso cambiano le memorie interne degli ssd senza cambiare le sigle, per cui dischi ssd testati l’anno scorso contengono memorie diverse, meno efficienti, meno rapide di quelle testate in passato.

Inoltre a seconda del controller, del tipo di disco, delle memorie la velocità può essere costante durante il riempimento del disco, oppure mentre si riempe il disco, dopo la metà può essere anche meno del 30% del valore dichiarato.

Ogni disco è una storia a sè, le diverse taglie di un disco offrono prestazioni diverse perchè cambiano i controller, il tipo di memorie, e spesso anche il modo con cui vengono riempiti i dischi, per cui ci possono essere ssd da 256 gb poco efficienti, ma lo stesso disco in taglio da 1 tera è perfettamente utilizzabile e compatibile con le più alte velocità di scrittura.

Ovviamente i produttori di ssd testano gli ssd per usarli nel computer e quindi non è illegale dichiarare determinate performance, perchè su computer possono raggiungere 480 mb/s quando in realtà collegati ad una normale interfaccia sata rendono al massimo 130/140 mb/s costanti, perchè il resto delle performance sono picchi ottenuti con la compressione dati e col trasferimento da un controller all’altro.

Per queste ragioni le liste di supporti certificati sono molto brevi e limitate a determinati marchi, dischi, e taglie particolari di suddetti dischi.

MAI SUPPORRE O FIDARSI DELLE INDICAZIONI TECNICHE

acquistare sempre i supporti certificati dalla casa madre della camera, e/o verificare il supporto prima di un lavoro con riprese multiple, sia con ripresa continua fino a riempire il disco, riprese alternate, accensioni e spegnimenti camera etc etc.

Ho avuto esperienze di dischi che per velocità dichiarate avrebbero dovuto supportare registrazioni raw continue, mentre in realtà faticavano con registrazioni in formati DI di alta qualità perchè erano solo velocità di picco e nulla di costante.

Che bel televisore per vedere le telenovelas …

La schiava Isaura, la prima telenovelas della storia.

Un po’ parafrasando una frase detta da una persona a Cannes, che la digitalizzazione delle pellicole sarebbe capace di trasformare Barry Lyndon in una telenovelas, un po’ perchè oggi tra gli addetti al settore si dice che una certa immagine è “da telenovelas” ho deciso di scrivere due righe a proposito di uno drammi moderni nel vedere un film con una televisione : la rielaborazione delle immagini.

Grazie all’avvento della teorica alta definizione casalinga, parlo di teoria perchè molti canali televisivi trasmettono sui canali hd film da master in definizione standard, oppure solo ogni tanto trasmetto in hd qualcosa, le case di tutto il mondo si sono riempite di brillanti e molto contrastati televisori per vedere telegiornali e ogni tanto anche un film.

La battuta non è causale perchè tutti i televisori moderni, anche e soprattutto se hanno una definizione superiore come il 4k sono pensati principalmente per riprodurre materiale in definizione molto scarsa, e come tale da essere rielaborata perchè altrimenti le “persone sarebbero scontente del televisore”, ho letto la settimana scorsa di una persona che si lamentava della mancanza di definizione di un televisore 4k nel vedere le partite, non su canali dedicati in hd, ma sulla semplice rai SD, e la lamentela continuava dicendo che essendo il televisore 4k tutto doveva essere migliore… e che lo avrebbe cambiato a breve col marchio x che le fa vedere meglio…

è per questo tipo di persone che rappresentano il pubblico medio che ci dobbiamo sorbire immagini orribili quando andiamo a vedere immagini di qualità.

La spiegazione è molto semplice: tarando i televisori per immagini che sono forse un quarto della definizione (trasmissione fhd) o addirittura un sedicesimo della definizione del 4k, i pixel devono essere gonfiati, e quindi come tali si vedrebbero delle immagini sfuocate o di pessima qualità, quindi vanno rielaborate per sembrare migliori. Il concetto andrebbe bene se la manipolazione fosse progressiva e dosata sulla sorgente, ovvero se forniamo al televisore immagini di risoluzioni superiori o adatte alla matrice del televisore questi algoritmi si dovrebbero disabilitare, invece lavorano comunque alterando immagine, colore, contrasto, e addirittura il movimento percepito delle immagini purtroppo non tutti gli algoritmi di rielaborazione sono modificabili o diabilitabili, addirittura ogni produttore nasconde dietro nomi diversi le diverse funzioni e alcuni impediscono la disabilitazione se non sui segnali in ingresso sulle HDMI, per cui anche ricevendo un ottimo segnale 4k da netflix, devo usare un dispositivo con ingresso esterno per evitare che venga manipolato dal televisore rovinandolo.

Ora vediamo all’atto pratico cosa succede e come le immagini vengono alterate.
Qui vediamo la situazione più comune, una immagine nativa 4k vs l’equivalente trasmessa in SD, come trasmettono la maggior parte dei canali oggi nel 2018, se non mi credete andate nelle info del canale sul vostro televisore e guardate lo stream a che definizione viene inviato.

Ricordo che una classica immagine UHD è fatta da 3840 x 2160 pixel, il FHD da 1920×1080 pixel (esattamente la metà in orizzontale e verticale, quindi un quarto), il formato HD è 1280 x 720 pixel, e infine l’SD è solo 720×576 pixel rettangolari, perchè naque in un formato più quadrato e quindi per ottenere una scalatura su matrici moderne oltre che scalato viene distorto in orizzontale.

Come si può notare la differenza tra UHD (4ktv) e il formato Standard visti al 100% è notevole, perchè abbiamo una differenza di sedici volte delle informazioni visibili, quindi ingrandendo il segnale SD si vede in modo evidente la differenza.

Dato che i dettagli non si possono inventare, in queste situazioni non si può fare nulla, tranne masticare le immagini con algoritmi varii per fingere che ci sia contrasto dove non esiste, ma con immagini con dettagli fini come questi, il problema della scarsità di qualità rimane.

Se invece andiamo a lavorare con un pò più di risoluzione, ovvero con il formato HD, già il salto non è così disturbante, e potrebbero lasciare le immagini alla loro natura.

Se potessimo vedere sempre immagini in FHD su televisori FHD o 4k, la scalatura diventa minore e quindi meno evidente, anche se presente.

L’elemento che ci inganna è il fatto che ogni segnale viene processato in più modi e la stessa immagine riceve più trattamenti, dalla cosiddetta clarity che spinge luci e ombre in due estremi, alle maschere di contrasto per rendere più definiti dettagli che non possono essere definiti perchè troppo grossolani, oppure anche se il dettaglio è presente in modo corretto, lo rende artificiale perchè applica la maschera in modo lineare su tutta l’immagine.

quindi nella realtà non vedremmo una immagine in cui ci sono poche differenze tra fhd e 4k, ma vedremmo una immagine rielaborata del FHD creando articialmente difetti e artefatti dove non servono.

Quando vediamo una telenovelas è normale una certa piattezza di luce perchè per risparmiare tempo e non rischiare differenze tra una inquadratura e l’altra si rende molto più piatta e uniforme l’illuminazione, dato che si gira con telecamere la paura di non avere immagini nitide porta ad alzare parametri di nitidezza artificiale in camera, inoltre i sensori delle camere da studio sono tali per cui non si hanno grosse sfumature e differenze tra le diverse colorimetrie del set e i diversi incarnati. In pratica esattamente l’opposto di ciò che si fa con i film per dare il look cinematografico.

Prendiamo una immagine dal bluray di MonsterSquad, un classico teenager movie anni 80 a cui serie come Stranger Things devono tutto, mettiamola su un normale televisore, il risultato nel migliore dei casi sarà come quello che vedete qui sotto, ovvero una versione telenovelizzata dell’immagine originale, con applicata la tecnica della clarity per dare maggior contrasto locale all’immagine,  una maschera di contrasto per definire tutti i dettagli dell’immagine, rovinando completamente l’atmosfera dell’immagine, appiattendo l’immagine dove il direttore di fotografia aveva deciso separando con luce e ombra i due piani. E’ molto evidente se si guarda come vengano fuori gli elementi dalle ombre dietro l’attore, distraendo e comprimendo lo spazio intorno ad esso.

Naturalmente non può mancare una forte riduzione rumore perchè di sicuro tra compressione e trasmissione si creerà rumore che assolutamente non può essere accettato, peccato che venga eliminata spesso in questo modo anche la grana e la struttura della pellicola, oltre ad eliminare il dettaglio fine.

Il dettaglio artificiale dato dalla maschera di contrasto esalta in modo eccessivo i capelli dell’anziano protagonista, ma accentua anche i dettagli fuorifuoco alla sua destra, perchè purtroppo l’algoritmo viene applicato in modo piatto e uniforme ad ogni parte dell’immagine, mentre nella realtà se abbiamo una parte nitida (a fuoco) e una morbida (fuorifuoco) la nitidezza naturale è dosata e distribuita aumentando la sensazione di profondità delle immagini.

Queste tecniche potrebbero aiutare una immagine debole, ma se applicate ad una buona immagine la rendono molto più televisiva e piatta, rovinando il lavoro di un buon direttore di fotografia, e non solo. Inoltre andrebbero dosate inquadratura per inquadratura, area per area con delle maschere, per poter dare un vero contributo all’immagine, invece su qualunque televisore applicano questi effetti in modo piatto su tutta l’immagine rovinando in più punti la resa della fotografia.

Il buon Stu di ProLost, esperto di vfx, colore e immagini ha fatto un ottimo post su come non solo rovinino le immagini a livello colore e contrasto, ma rielaborino anche il movimento e la percezione dello stesso, creando artificialmente fotogrammi superflui, che diventano necessari perchè gli originali essendo stati troppo contrastati hanno perso la loro originale sfuocatura di movimento e sono diventati scattosi… insomma un serpente che si morde la coda…

Chiudiamo il discorso con un paio di immagini pubblicitarie che ci fanno capire come il brutto vizio di manipolare le immagini non è una derivazione moderna, ma da tanti anni abbiamo il problema di poter vedere ciò che i direttori di fotografia hanno pensato in origine, solo che una volta sui tubi con l’immagine analogica le rielaborazioni erano limitate, oggi purtroppo si può massacrare ogni immagine oltre ogni limite della decenza.

https://youtu.be/kBTnOmIXnp4

comunque nel mio post sui formati dell’immagine potete trovare qualche riferimento su come una volta venissero tagliate anche le proporzioni video e selvaggiamente tagliate le inquadrature per adattarle prima al 4:3 poi a rovescio per adattare al 16:9 filmati girati con aspect ratio più vicino al 3:2 (super16mm).

Invece per chi è dubbioso, feci tempo fà un post tra pellicola e digitale, le differenze effettive in ripresa e resa dei due media, sfido tante persone di distinguere al cinema quali sequenze sono girate in pellicola, quali in digitale e poi stampate su pellicola, etc… la maggior parte delle persone non si accorge di come i film contengano una miscelazione ampia di diversi media, analogici, digitali etc.

Sono sicuro che se Kubrick fosse ancora vivo, non solo avrebbe abbracciato il digitale, ma sarebbe stato così cocciutamente testardo da far creare per lui un sistema di check dei proiettori digitali e dei televisori per far vedere correttamente le immagini dei suoi film, cosa tecnicamente fattibile da anni, ma che a quanto pare non sembra interessare a nessuno, e questa non è una mia elucubrazione, ma alle prime di molti suoi film si preoccupava che la proiezione fosse a livello qualitativo eccellente per esaltare il lavoro da lui fatto svolgere, quindi se lo fece per la pellicola, lo avrebbe fatto fare anche per il digitale.

Nota a margine: la schiava Isaura, la prima telenovelas ufficiale della storia della tv era girata in pellicola, quindi ironicamente poco telenovelas come stile visivo.


Le buone abitudini sui Supporti di Memoria



Questo articolo mi è stato ispirato da una recente chiacchierata con un amico che non capiva la mia abitudine di formattare le schede DALLA CAMERA prima di usarle, di non lasciare i video all’interno di schede etc, di non cancellare i file direttamente dalla scheda.

Comprendo che chi non è abituato a macinare video e materiali di ripresa sia una abitudine poco comprensibile, ho pensato che sia un ottimo argomento per un articolo sulle buone abitudini prima di una ripresa, per evitare a tutti esperienze negative derivate da questo fattore.

  1. la formattazione controlla la scheda in caso di danni alle celle.
  2. la formattazione elimina la frammentazione della scheda.
  3. la formattazione evita il rischio di fallire una ripresa, perchè è piena.
  4. avere solo i dati nuovi sulla scheda permette backup veloci e sicuri.
  5. avere solo i dati nuovi permette controlli rapidi e senza errore.
  6. si evitano rischi di perdita dati preziosi.
  7. si evita il furto di tutto il girato ma solo dell’ultimo materiale.
  8. se usata e formattata con camere diverse potrebbero esserci infrastrutture che danneggiano la scrittura.
  9. si eliminano i file che i sistemi operativi scrivono sui supporti.

I supporti digitali per quanto siano di qualità possono avere problemi, rischi derivati dall’inserimento ed estrazione, variazioni di temperatura etc, per cui è importante gestire i nostri preziosi dati nel modo più “error proof” possibile.

Vediamo in dettaglio ognuna di queste motivazioni :

  • Controllo struttura del supporto
    La formattazione di un supporto comporta anche la verifica delle diverse celle, e quindi ci assicura che i dati saranno scritti su celle stabili.
    Ogni supporto può avere difetti dati dalla fabbricazione, dalla lettura scrittura, dal sistema operativo che ha letto i dati della scheda.
  • Frammentazione del supporto
    Nella maggior parte dei casi le schede vengono scritte con dati a velocità medio bassa, quindi comunque anche una lieve frammentazione del supporto data da cancellazioni e scritture dei file non ha un impatto particolare sull’affidabilità del supporto, però… salendo con le caratteristiche del prodotto, la frammentazione diventa un nemico per la scrittura continua dei filmati, portando a perdite di frame o problematiche nella chiusura del filmato.
  • Scheda piena di vecchio materiale
    Spesso vedo schede con materiale di diverse giornate, magari parzialmente cancellato, che occupa prezioso spazio, oltre che poter dare problematiche nella scrittura dei dati, causa la frammentazione, quindi per questa pigrizia si potrebbe perdere la sequenza della vostra vita perchè la scheda è piena, di vecchi filmati. E cancellare dalle camere, quando lo permettono (quelle professionali non lo permettono) porta via un sacco di tempo e frammenta la scheda.
  • Backup semplice e rapido
    Se la scheda contiene solo materiale nuovo il backup si può eseguire rapidamente e con sicurezza, basta fare il backup di tutto il contenuto della scheda, senza rischio di creare copie inutile di altro materiale, senza rischio di sprecare spazio o tempo. Inoltre usando programmi per la produzione dei giornalieri avere nelle schede materiale di più riprese già acquisito è uno spreco enorme di risorse.
  • Verifica Rapida del backup
    Avendo solo quei file sulla scheda, anche lanciare le procedure di verifica del backup è questione di pochi secondi, mentre avendo materiale di più giornate non si potranno usare le procedure automatiche e quindi ci sarà un tedioso e lento processo manuale, che può comportare diversi errori.
  • Evitare perdita di dati
    In caso di danneggiamento della scheda la perdita è relativa solo ai dati recenti e non a tutti i dati contenuti nella scheda. La maggior parte delle persone non immaginano che le schede possano danneggiarsi, soprattutto se messe su GoPro immerse in acqua, portate in aria su Droni a centinaia di metri, o semplicemente perdendo uno di questi oggetti durante le riprese.
  • Evitare il furto dei dati e la relativa diffusione
    Le camere, i droni, sono tutti elementi appetibili dai ladri, e le card spesso restano dentro, “al sicuro” con l’oggetto mentre viene rubato…
    Preoccuparsi di fare il backup e svuotare le schede evita sia la perdita globale dei dati (vedi punto 6) sia la diffusione di dati sensibili (dalle riprese ad altro materiale).
  • Reset delle strutture introdotte dai un brand di camere
    è noto come le card usate su un noto brand fotografico e poi spostate su altro noto brand causano la scrittura corrotta dei file fotografici, formattare prima di usare una card azzera i rischi.
  • Eliminazione dei file aggiunti dai sistemi operativi
    Sia utilizzando MacOsX che Windows i sistemi operativi se trovano un supporto atto alla scrittura iniziano a scrivere diversi dati, cartelle nascoste e alterano la struttura del supporto. MacOsX scrive dei file nascosti per il resourceFork dei dati che legge, diversi file .nomedelfile, se per errore mettere un supporto capiente prova a scriverci le basi per timemachine e altro. Windows inizia scrivendoci le cartelle per il cestino, se cancellate dei file prima li mette li e poi li elimina, altre volte se trova file system come exFat o Fat32 analizza la struttura e se per qualche ragione non gli garba la struttura, la “corregge” se non lo fermate entro 30 secondi (una specie di bomba a tempo) e nella maggior parte dei casi non accade nulla di grave, ma qualche caso sfigato danneggia la struttura dell’MBR causando apparente perdita di dati, che si può ripristinare senza subire un infarto. Comunque tali scritture posso inficiare la gestione della scheda da parte del dispositivo, per cui la formattazione da parte del dispositivo garantisce che sia strutturato e formattato per quello che serve ad esso senza spazzatura al suo interno.

Non a caso sono state inventate diverse utility per gestire i problemi creati dai sistemi operativi, una di queste è SD formatter, potete trovarla gratuitamente sul sito dello sviluppatore .


Powered by WordPress & Theme by Anders Norén

error: Content is protected !!