2017/2018

2016/2017

2015/2016

2014/2015

2013/2014

2012/2013

2011/2012

2010/2011

2009/2010

2008/2009

2007/2008

2006/2007

2005/2006

2004/2005

29.7.09

La solita questione tecnica sul cinema digitale, un aggiornamento

Un momento nerd. Giusto per capire di che stiamo parlando.
Una serie di direttori della fotografia americani, che gli americani si sa con i dettagli tecnici ci vanno in fissa, spiegano che la pellicola è ancora meglio del digitale. Ma invece che ripetere le stesse cose dette per anni finalmente danno una spiegazione nel dettaglio con anche delle previsioni.
Se non lo sapete lo standard attuale di cattura e proiezione digitale è 2K, una sigla che indica la risoluzione 2048 × 1556 a 3 milioni di pixel, nel senso che la maggior parte di apparecchi al mondo è capace di arrivare a questo livello. Sempre di più però si cerca di passare alla risoluzione 4K (4096 × 1714 per 7 milioni di pixel) che al momento è giudicata esageratamente elevata.

Quel che però sottolineano i direttori della fotografia (non è chiaro con quale cognizione di causa, cioè se abbiano fatto esperimenti in materia) è che in realtà la risoluzione in grado di equivalere al livello di dettaglio della pellicola è 8K.
Il punto sarebbe che la pellicola rispetto al resto non solo coglie più dettagli ma ha un'escursione maggiore di chiari e scuri. E questo la rende oggi insostituibile.

Questo ci suggerisce che la pellicola non andrà in pensione presto (com'è anche giusto e come è capitato al bianco e nero) ma secondo me costituisce un ragionamento sbagliato poichè giudica il nuovo mezzo secondo i parametri di quello vecchio (che ci ha messo 100 anni di evoluzione per diventare così).
Si può fare un parallelo simile forse quando si pensa a digitalizzare il vecchio ma se si parla di girare nuovi film non ha senso. Se scelgo il digitale non sarà perchè è meglio della pellicola quanto perchè è diverso da essa.
Chi ha visto un Blu Ray su un televisore Full HD o un film digitale in una sala con proiettore 2K, sa che c'è un livello di dettaglio che prima non si era visto. Certo questo non vuol dire che sia meglio, semplicemente che ci sono parecchie diversità e originalità. Senza contare che una maggiore risoluzione non è necessariamente indice di qualità ma può semplicemente diffondere l'errore su una superficie più ampia.

15 commenti:

frankie666 ha detto...

No aspè non capisco. Ma tutta sta risoluzione della pellicola, che in termini semplici vuol dire che catturi l'immagine su di una griglia con molti più puntini da colorare, com'è che non si percepisce neanche un po rispetto al HD?

Può essere, basandomi sul ultimo tuo paragrafo, che quindi il problema della pellicola è che introduce un maggiore "errore", che in termini semplice e sempre considerando il digitale, aggiunge o toglie qualcosa al valore che memorizzi in ogni pixel? E che per questo si vede peggio del HD?

Cmq, ma su questo non sono ferrato, blu ray e hd sono formati standard con una risoluzione massima fissata, che per quello che ho potuto studiare, è maggiore delle altre, mo non capisco bene com'è che le telecamere sono 4 volte migliori...

Ma ho anche una domanda finale, mi intrighi quando dici "giudicare il nuovo mezzo con i parametri di quello vecchio". Questo da scienziato in erba quale sono, mi fa venire una domanda spontanea: Ok, gp, correttissimo, tuttavia non sapendo bene come giudicare il nuovo mezzo, l'unica cosa sicura che hai sono i parametri che usavi per quello vecchio, per cui per quanto probabilmente non veramente utili, ora come ora sono i migliori strumenti che hai a disposizione.

Chiaramente si potrebbe circostanziare un po di più il discorso, ma in linea di massima mi preme inizialmente far passare l'idea generale.


Fabio ha detto...

Se i direttori della fotografia dicono che la pellicola ha una dinamica superiore io credo ciecamente ai direttori della fotografia, perché quella che possiedono è una professionalità mica da ridere.
E poi le scene buie dei film girati in digitale le abbiamo viste e sono quasi sempre molto rumorose. Il rumore è un difetto, la mancanza di dinamica è un difetto... non è che c'è molto da discuterci attorno. Piuttosto credo che miglioreranno con il passare del tempo, questo sì.


Riguardo a quell'ultima frase pure io come frankie non ho capito bene cosa intendi, dove dici che risoluzione non è per forza qualità.


gparker ha detto...

ci sono dei formati standard e infatti quello che si chiama "digital cinema" (per esempio) equivale al 4K. E' solo un'unità di misura, poi un determinato formato adotta una determinata risoluzione.

La pellicola non solo ha un risoluzione migliore (per quanto risoluzione non è un termine che significa la stessa cosa in analogico e in digitale) ma anche un'ampiezza di cattura migliore, cioè gestisce meglio chiari scuri e colori. Allo stesso modo con il quale il digitale cattura meglio la luce in situazioni di scarsità, cioè con poca illuminazione.
Anche io credo ai direttori della fotografia, mi chiedo solo che esperimenti abbiano fatto.

Riguardo l'errore, il discorso è che aumentare la risoluzione non serve a nulla se non aumenta la qualità del sensore. Per le macchine fotografiche digitali per esempio la differenza tra 5 e 10 megapixel è inesistente, è solo più grande l'immagine non migliore la qualità. Nell'immagine a 10 megapixel c'è solo più errore perchè il sensore comunque ha quella potenza.


frankie666 ha detto...

Ma la qualità HD, consiste solo nell'avere più risoluzione?

Per quanto riguarda i chiaro scuri e la luce non è una questione di lenti?

Chiedo scusa per una volta, so bene che sono in un campo di cui so pochissimo.


gparker ha detto...

no l'HD è tutto.
Cioè è un sistema che migliora la cattura dell'immagine, dunque c'è un'immagine più grande (risoluzione) presa attraverso un sensore migliore (gestione di luce e colori). Le lenti poi possono migliorare ancora o differenziare il tipo di cattura ma sono indipendenti da tutto ciò.

Diciamo che da sola un'immagine a risoluzione maggiore, quindi in sostanza più grande (o con più pixel) non è necessariamente di alta qualità. DEvi immaginare una foto di 10 megapixel vista a grandezza naturale. Vedresti una parte minuscola della foto (che è immensa) e ad oggi quella parte non è "chiara" ma piena di "errore". Quando poi vedi l'immagine intera questo errore non si nota ma la qualità alla fine è come 5 megapixel.

Io mi chiedo se ci sia da fare il medesimo discorso per le differenze 4K e 8K. che è una cosa che non spiegano.


Fabio ha detto...

Riguardo l'errore, il discorso è che aumentare la risoluzione non serve a nulla se non aumenta la qualità del sensore. Per le macchine fotografiche digitali per esempio la differenza tra 5 e 10 megapixel è inesistente, è solo più grande l'immagine non migliore la qualità. Nell'immagine a 10 megapixel c'è solo più errore perchè il sensore comunque ha quella potenza.

Un momento. Io quando parlo di risoluzione chiaramente intendo sempre quella nativa, e quindi quella del sensore.
Quando tu dici che aumentando la risoluzione del sensore non abbiamo un aumento di qualità ti stai riferendo alla faccenda del rumore, dicendo che alla fine questo è tale che la qualità di un 10 Mpx diventa come quella del 5 Mpx. Proprio su questo c'è da discutere, perché il rumore è una cosa abbastanza rognosa e può far sì che con certe immagini la qualità dei 10 Mpx giovi e che con certe altre precipiti ad un livello che ti fa preferire i vecchi 5 Mpx (perché ridurre l'immagine purtroppo non serve molto per l'eliminazione del rumore). E questa è una cosa che dipende dall'immagine non solo nel senso delle condizioni di illuminazione... ma anche del soggetto, che determina la distribuzione di frequenze spaziali (una cosa è un primo piano, una cosa è una folla, una cosa è un paesaggio).

Ma veniamo alla faccenda dell'aumento di risoluzione. Oh, non dimentichiamoci che tale aumento si può ottenere anche aumentando la dimensione del sensore stesso. Nelle macchine fotografiche commerciali l'aumento di risoluzione è una farsa perché si tenta di mantenere fissa la dimensione del sensore, ma in una cinepresa per il cinema non sarà così.
Se con la medesima tecnologia si vuole raddoppiare il fotogramma l'incremento di qualità diventa effettivo, non hai la ricaduta dell'aumento di rumore, almeno non a quei livelli. In questo non vorrei che costituisse un equivoco parlare di "sensore", al singolare. Ricordiamoci sempre che parliamo di griglia di (milioni di) sensori.


gparker ha detto...

per le videocamere non so ed era il punto del post

per le fotocamere invece spesso (ovviamente non c'è la totalità dei casi) minore risoluzione significa meno rumore (a parità d'immagine fotografata ovviamente) poichè il sensore può catturare una certa quantità di dati e se con quei dati ci devo riempire 5 megapixel possono bastare se ne devo riempire 8 i restanti 3 sono riempiti di rumore.


frankie666 ha detto...

ma non hanno una risoluzione massima per garantire la qualita?

Cmq non credo che nel tuo caso gp si tratti di rumore, credo che si tratti di quello che dicevi tu prima una sorta di errore dovuto al dover riempire piu pixel di quanti si possa correttamente fare. Il rumore e quello che introdurrebbe il sensore se non funzionasse perfettamente.


gparker ha detto...

si hai ragione è più corretto dire errore. ma alla fine il risultato è lo stesso del rumore, cambia solo l'origine.

no la qualità è garantita dal formato. Cioè se dico 2K è una garanzia di quale livello sia.


Fabio ha detto...

"credo che si tratti di quello che dicevi tu prima una sorta di errore dovuto al dover riempire piu pixel di quanti si possa correttamente fare. Il rumore e quello che introdurrebbe il sensore se non funzionasse perfettamente."

Guardate che questa faccenda di stabilire un'ipotetica quantità di informazione (in Mpx) che il sensore può catturare "correttamente" (ma cosa è "correttamente", stiamo parlando di uno strumento che misura un segnale, siamo noi a decidere quale Snr consideriamo accettabile) e da ciò evincere che se si tenta di andare oltre allora spunta rumore o errore è una cosa con scarsissima aderenza ai termini corretti.

L'unità che bisogna prendere in considerazione per tutto questo discorso è il singolo elemento fotosensibile della griglia, e solo in second'ordine la griglia nel suo complesso (e quindi a quel punto tiraci in mezzo, anche se indirettamente, le dimensioni dell'immagine in Mpx).
Io come funziona una foto/videocamera digitale dal punto di vista elettronico non lo so, ma in termini di segnali la faccenda sta più o meno così.

Poi non ho capito la distinzione che avete appena fatto, tra rumore ed errore.
La fotocamera è uno strumento di misura, e quindi possiamo anche parlare in generale di "errore". Però, se ci riferisce all'errore indotto dal rumore sui segnali elettrici, in genere si taglia corto e si dice rumore, anche perché ha le caratteristiche del rumore.


frankie666 ha detto...

beh personalmente fa testo la tua ultima frase per me.

L'errore è in generale un concetto matematico con cui si misura la qualità delle approssimazioni (di qualsiasi tipo: funzioni o probabilità). Molto spesso viene definito come lo scarto quadratico medio fra quello che si ottiene e quello che si dovrebbe ottenere. Ovviamente non potendo sapere a priori cosa si dovrebbe ottenere, l'errore assume quasi sempre la forma di una variabile probabilistica, cioè in termini semplici un qualcosa che può assumere vari valori su di cui tu puoi attribuire un grado di fiducia.


Il rumore in termini di teoria dei segnali di modo da rimanere più generale possibile, è invece un qualcosa che si aggiunge al tuo segnale, e che quindi genera ne genera uno nuovo. Il concetto è assolutamente simile, se non identico all'errore, ma il concetto di rumore è proprio ai segnali, per questo mi sembrava corretto distinguerli.

Questo è quello che so io, non ho letto wikipedia per cui mi posso sicuramente sbagliare, inoltre non conosco il "gergo" degli esperti di fotografia, e mi baso solo sulle mie conoscenze matematiche. Tralaltro siamo un tantino OT, ma tanto Parker è a zonzo per l'Italia in villeggiatura per cui non ci si fila manco un pò...


gparker ha detto...

Io non smetto mai di monitorare. Mai.


Fabio ha detto...

@frankie

Io mi riferivo a quando avevi scritto

"Cmq non credo che nel tuo caso gp si tratti di rumore, credo che si tratti di quello che dicevi tu prima una sorta di errore dovuto..."

..e non avevo capito di che tipo di difetto steste parlando. Cioè visivamente che roba è?


Anonimo ha detto...

Buongiorno!
Per me il nocciolo della discussione è un problema fattivo: nel caso si usino macchine da presa e quindi la pellicola, noi abbiamo l'impressione dell'immagine contemporaneamente su tutto il supporto, cioè avviene un'azione chimica nello stesso momento su di una base data (p.es. il 16mm. il 35mm etc... ). Se invece usiamo una telecamera digitale otteniamo la ricostruzione elettronica di un'immagine da parte di un microprocessore più o meno potente secondo le sue capacità. Sono due cose diverse! In una il fotografo controlla la reazione chimica, nell'altro la macchina domina il risultato visivo secondo la propria capacità teconologica. Uno è il cinema, l'altro è il video. Mi sembra strano spendere miliardi per ottenere qualcosa di quasi simile a qualcosa che già esiste! Per me sono due cose diverse.
Un saluto
A.


gparker ha detto...

si i supporti sono differenti, per questo si cambia. Il punto è che la pellicola, che pure si è molto evoluta nel corso degli anni ha margini di miglioramento infinitamente minori rispetto ad una tecnologia digitale.
Il digitale ha una gamma di possibilità molto superiori alla pellicola e se pure non riuscirà mai ad eguagliarne la resa (cosa che comunque dubito) consente una gestione e una manipolazione della luce prima e dell'immagine poi che lo rende un supporto più performante. In più è più economico, il che non guasta.
Poi la pellicola non è necessariamente morta, del resto ancora si fanno film in bianco e nero perchè non dovrebbe essere possibile farne in pellicola ancora per anni?


Creative Commons License
...ma sono vivo e non ho più paura! by Gabriele Niola is licensed under a Creative Commons Attribuzione-Non commerciale-Non opere derivate 3.0 Unported License.