Speciale Il punto sull’HDR

A cura di (Mastelli Speed) del
Spesse volte si parla talmente tanto di un argomento che, difatti, l’attenzione pubblica si sposta dal suo significato intrinseco alla creazione di schieramenti ben definiti, di norma favorevoli o contrari al dibattito. Nell’ambito dei videogiochi, questo meccanismo si applica spesso all’introduzione delle nuove tecnologie che promettono di migliorare in maniera concreta l’esperienza dei giocatori, come ad esempio l’HDR. Cerchiamo allora di compiere un passo indietro, in modo da capire bene di cosa si tratta, e come questa tecnica può incrementare la qualità visiva dei giochi che verranno proposti sul mercato nel prossimo futuro.



Vedo colori nuovi
Per prima cosa, è utile sottolineare la differenza tra l’HDR cui ci si riferisce in ambito fotografico, e quello che invece interessa maggiormente noi giocatori. Nel primo caso, infatti, è possibile parlare di una tecnica che risulta in un processo di cattura e creazione delle immagini dai colori particolarmente vividi. Questa opzione, in effetti, riesce a creare foto d’impatto grazie allo scatto multiplo di fotografie con differenti esposizioni. Nella sua forma base, l’HDR fotografico presente nei comuni smartphone utilizza due varianti, una con esposizione in grado di catturare le luci alte, l’altra dedicata alle luci basse. Combinando le varie immagini, grazie al software della fotocamera oppure in secondo tempo tramite programmi di image editing, è possibile dunque produrre contenuti dalla forte carica visiva. Adesso, invece, veniamo al bello: l’HDR che investe la visione di film, serie tv e videogiochi è un processo legato certamente ai contenuti, ma anche agli apparecchi che hanno il compito di mostrarli. Nel momento in cui si parla di TV pensati per la fruizione di contenuti High Dynamic Range, infatti, vengono immediatamente citati i concetti di contrast ratio (conosciuto in italiano come intervallo di contrasto o rapporto di contrasto) e Wide Color Gamut (WCG). Il primo è spiegabile in maniera semplice: rappresenta l’intervallo compreso tra la luminanza massima e quella minima espresso in nit. L’occhio umano, di per sé, è in grado di percepire livelli di luminanza compresi grossomodo tra quelli presentati da un cielo stellato di notte, e l’esposizione diretta alla luce del sole. Le tecnologie attuali, invece, falliscono nel ricreare un range così elevato: grazie all’HDR, allora, sarà possibile proprio intervenire su questo parametro, aumentando la luminanza soprattutto delle zone più chiare. In questo modo, è possibile avere immagini evidentemente più realistiche, e con un profilo di brillantezza migliore. Accanto a tutto ciò, però, si inserisce una migliore comprensione del gamut. Questo elemento, in poche parole, rappresenta l’insieme dei colori riproducibili da un determinato panello. Ogni schermo, monitor e TV si muove all’interno di un gamut prestabilito, che evidentemente non combacia con lo spazio colore nella sua interezza (parliamo di gamut solo nei dispositivi atti a creare i colori, non a riprodurli, come fotocamere o periferiche simili). Lo standard attuale dei TV Full HD è rappresentato dal Rec. 709, sigla che indica i colori primari (evidentemente rosso, verde e blu) utilizzati dallo spazio colore sRGB. Grazie al Wide Color Gamut, in linea teorica è possibile coprire circa il 77,6% della totalità dei colori, a dispetto del 35,9% dell'attuale spazio colore sRGB. Tutto ciò, in altre parole, significa colori semplicemente mai visti prima sui propri TV, non solo più particolareggiati, ma soprattutto più realistici. Sembra tutto bello e facile? Così non è, perché bisogna fare i conti con altri elementi assai importanti: i pannelli, gli standard produttivi, e i contenuti e l’hardware.



La resa dei bit
L’avvento dell’HDR presuppone dunque l’ampliamento del contrast ratio e del gamut, ma tutto ciò può avere un suo senso solo se supportato da pannelli capaci di riprodurre tutte le sfumature adeguate. Il punto di partenza per capire di cosa stiamo parlando è il concetto di retroillumnazione dei display. Grazie a tecnologie come i quantum dots, o altre soluzioni del genere, è possibile creare dei colori primari puri, in grado di delimitare il gamut del dispositivo e la sua palette cromatica. A questo, va affiancato il modo in cui vengono codificati i segnali, definito in numero di bit per componente cromatica. Una classica codifica a 8 bit comporta 256 livelli per colore primario, da cui si arriva a 16 milioni di colori visualizzabili. Per poter aumentare il numero di tonalità rappresentate, dunque, è necessaria una codifica superiore, e per questo è essenziale che i nuovi TV siano dotati di pannelli almeno a 10 bit, capaci di riprodurre un miliardo di sfumature e quindi di andare oltre lo spazio colore dello standard Rec. 709/sRGB. In questo modo, infatti, è possibile superare il già citato 35,9% dei colori propri dello spazio sRGB, andando fino al 54% dei pannelli a 10 bit (in cui i livelli per colore primario arrivano a 1024). Superando questa soglia, arrivando a 12 bit, è possibile osservare oltre il 76% dei colori presenti in natura, pari a circa 68 miliardi. C’è da dire però che, come nel caso di ogni tecnologia emergente, l’HDR non presenta ancora uno standard del tutto dominante. Al momento, lo scontro sembra essere tra HDR10 e Dolby Vision. La prima alternativa offre supporto ai pannelli a 10 bit, luminosità teorica massima di 4.000 nit, ed è in sostanza la scelta utilizzata nella creazione di Blu-Ray Ultra HD. La seconda, che comporta però maggiori costi, si spinge fino al supporto ai pannelli a 12 bit, luminosità teorica massima che tocca i 10.000 nit, ed una maggiore elasticità teorica. Dolby Vision, infatti, riesce a gestire i contenuti HDR10, anche se al momento la sua diffusione è meno estesa, ed i problemi di visualizzazione di contenuti siano abbastanza diffusi. Di questi scontri tra standard la storia dell’elettronica di consumo è piena, e così come nel caso (ad esempio) di Betamax e VHS, o di Blu-Ray e HD DVD, il tempo ci dirà quali sono le circostanze che spingeranno i produttori da una parte piuttosto che dall’altra. D’altra parte i consumatori già da ora possono cercare di orientarsi in questa sorta di giungla tecnologica grazie alla certificazione Ultra HD Premium, di cui si possono fregiare giù alcuni apparecchi televisivi. Scegliere un TV di questo tipo, vuol dire avere a che fare con un dispositivo con pannello a 10 bit, e capace di supportare lo spazio colore DCI-P3, utilizzato per le produzioni cinematografiche e la creazione di contenuti Blu-Ray Ultra HD. Questo, a sua volta, è incluso all’interno dello spazio Rec. 2020, ad oggi utilizzato scarsamente, ma che rappresenta l’obiettivo per il futuro. Esistono poi dei requisiti relativi al livello di luminanza del nero, inferiore a 0,05 nit, così come di luminosità, pari a 1.000 nit.



Si, ma i contenuti?
Quello che a noi interessa, messi da parte codifiche, gamut, contrast ratio e standard vari (per non parlare di risoluzioni), è capire come tutto ciò influenza la fruizione dei videogiochi. Partiamo con Xbox One S: la più recente console Microsoft consente la fruizione di contenuti HDR nello standard HDR10. Una soluzione, questa, che ha permesso peraltro di limare il prezzo finale, considerati i costi necessari all’implementazione dello standard Dolby Vision. Sugli apparecchi che lo consentono, dunque, i giocatori possono già da ora fruire di titoli in HDR, con tutti i vantaggi visivi che ciò comporta: un contrasto migliore, una brillantezza mai sperimentata prima, ed in generale un aspetto delle aree chiare decisamente più incisivo. L’approccio di Sony, invece, ha previsto l’inserimento di una sorta di HDR tramite l’aggiornamento del firmware delle attuali PlayStation 4. Ci esprimiamo in questo modo perché, evidentemente, i vincoli tecnici della console non permettono di parlare di vero High Dynamic Range; per prima cosa, PlayStation 4 presenta un’uscita HDMI di tipo 1.4b, mentre lo standard HDR10 richiede la versione 2.0 (presente invece su Xbox One S). Questo a causa non tanto del flusso di dati in sé (almeno finché si rimane a risoluzione 1080p), ma per via dei metadati aggiuntivi necessari alla definizione della maggiore dinamicità delle immagini. Quindi, l’unico modo per ottenere qualcosa che si avvicini al risultato dell’HDR è stato quello di agire sul picco di luminosità a livello software, considerato anche lo spazio colore nettamente più limitato determinato dall’utilizzo di codifica a 8 bit. Per questo motivo non c’è bisogno di creare giochi in maniera differente dal passato, almeno per l’attuale PlayStation 4. Per gli sviluppatori non cambierà niente, considerato che sarà la console a gestire in maniera differente l’illuminazione per dare un aspetto simile (ma di sicuro non uguale) a quello di un apparecchio HDR nativo, difatti ricampionando il segnale a 8 bit e andandone ad influenzare la dinamica. D’altra parte, è possibile già da ora sviluppare contenuti videoludici a 10 bit, ma la fatica non sarebbe ricompensata da risultati visibili. Constatati i limiti hardware, i contenuti visualizzabili su PlayStation 4 in ogni caso presenterebbero una dinamica limitata, e soprattutto costringerebbero a compromessi sul piano della risoluzione e del framerate. A voler essere un po’ cattivi (o forse realisti), si potrebbe dire che già ora, a 8 bit, molti titoli trovano difficoltà a proporre un’esperienza Full HD a 60 fps, per cui si può immaginare la situazione con una codifica a 10 bit. Naturalmente, tutto ciò dovrebbe cambiare con l’arrivo di PlayStation 4 Pro, che dovrebbe presentare l’hardware necessario al compito. Volendo divagare, in questo senso può apparire difficile pensare alla possibilità che non esistano differenze –  anche sostanziali –  tra giochi per PlayStation 4 e PlayStation 4 Pro, il cui supporto al 4K peraltro includerà tecniche di rendering supplementari quali come l’upscaling. In ogni caso, tornando all’High Dynamic Range, il messaggio dovrebbe essere chiaro: quello di PlayStation 4 non è considerabile un HDR puro, ma solo una gestione differente della gamma, che diventa così più estesa, pur rimanendo all’interno dei limiti dettati dalla codifica a 8 bit.
Recensione Videogioco IL PUNTO SULL’HDR  scritta da MASTELLI SPEED Sono in molti a paragonare l’importanza dell’arrivo dell’HDR a quella avuta, qualche anno fa, dal supporto all’introduzione della risoluzione Full HD. Il potenziale dato dall’arrivo di una gamma dinamica estesa, e l'introduzione di colori più realistici, nonché di una illuminazione in grado di far emergere in maniera migliore le immagini su schermo, sono sicuramente fattori capaci di scatenare un certo entusiasmo. È altrettanto ovvio, però, come si sia ancora in una fase in cui l’incertezza sugli standard è ancora presente, e la diffusione di TV con pannelli a 10 bit non è ancora capillare. Incuriosiscono anche le strategie di Microsoft e Sony: soprattutto la casa di Tokyo, al momento, offre una sorta di HDR in attesa che PlayStation 4 Pro porti soluzioni più performanti.
Tutto ciò, in ogni caso, senza dimenticarsi di una sana dose di banalità: se è vero che un pannello a 10 bit offre prestazioni migliori di quelli a 8 bit, è anche vero che potenzialmente un gioco per NES può essere ancora più divertente di un prodotto sviluppato oggigiorno. La speranza, allora, è che l’HDR e le altre tecnologie come il 4K – di cui parleremo in un prossimo speciale – costituiscano un contorno meraviglioso e fantastico agli elementi che, però, devono rimanere al centro della scena, ovvero i contenuti.
Scrivi un commento
Per commentare occorre essere utenti registrati.
Se non hai un account clicca qui per registrarti oppure clicca qui per il login.
    Commenti: 25 - Visualizza sul forum
  • Anticogiocatore
    Anticogiocatore
    Livello: 2
    Post: 99
    Mi piace 2 Non mi piace 0
    le ultime 5 righe del commento finale di questo articolo rappresentano in pieno il mio pensiero...purtroppo per noi invece ogni qualvolta si fa un "balzo" tecnologico sia esso a livello di grafica piuttosto che di "potenza" della console sono pochissimi i titoli che vengono poi creati pensando a quello che "diverte" piuttosto che a quello che il giocatore vedra' su schermo...cmq complimenti per questo articolo davvero utile a mio dire...
  • fabdragonball
    fabdragonball
    Livello: 5
    Post: 1203
    Mi piace 1 Non mi piace 0
    Originariamente scritto da sky77

    Io ho un LG 65ug870v ed ho quell'opzione abilitata in hdmi 1 e 2 , ma pur usando 2 cavi hdmi 2.0( uno dei quali uscito con la one s) la console non mi fa flaggare l'opzione HDR , nei dettagli poi mi dice di tornare indietro ed abilitarla. Ho letto le info di supporto e la microsoft dice che ultra hd deep colour è uno dei sinonimi di HDR, ma....[/Q Per come lo capita io il depp color ha suo modo è una specie di hdr mi viene da pensare
    sky77;25644169]Io ho un LG 65ug870v ed ho quell'opzione abilitata in hdmi 1 e 2 , ma pur usando 2 cavi hdmi 2.0( uno dei quali uscito con la one s) la console non mi fa flaggare l'opzione HDR , nei dettagli poi mi dice di tornare indietro ed abilitarla. Ho letto le info di supporto e la microsoft dice che ultra hd deep colour è uno dei sinonimi di HDR, ma....[/Q Per come lo capita io il depp color ha suo modo è una specie di hdr mi viene da pensare
  • sky77
    sky77
    Livello: 7
    Post: 382
    Mi piace 0 Non mi piace 0
    Originariamente scritto da fabdragonball

    Io ho una tv (lg uf6407)agosto 2015 la tv nelle sue opzioni ha una funzione chiamata "ultra hd deep color" e una volta attivata la tv funziona a 4k a 60hz, vuol dire che la mia tv in se ha già l'hdr incorporato? qualcuno mi può dare una spiegazione? Grazie
    Io ho un LG 65ug870v ed ho quell'opzione abilitata in hdmi 1 e 2 , ma pur usando 2 cavi hdmi 2.0( uno dei quali uscito con la one s) la console non mi fa flaggare l'opzione HDR , nei dettagli poi mi dice di tornare indietro ed abilitarla. Ho letto le info di supporto e la microsoft dice che ultra hd deep colour è uno dei sinonimi di HDR, ma....
  • Yondaime
    Yondaime
    Livello: 3
    Post: 705
    Mi piace 0 Non mi piace 0
    ho fatto un casino con il quote, sul forum si visualizza correttamente. scusate.
  • Yondaime
    Yondaime
    Livello: 3
    Post: 705
    Mi piace 0 Non mi piace 0
    Originariamente scritto da aaston

    La tecnica di scattare più foto a diverse esposizioni per avere un'immagine finale con una gamma dinamica maggiore della singola foto è UNA tecnica per ottenere un'immagine ad non ci siamo capiti, io parlo di foto intendendo il risultato finale, per varianti della stessa immagine intendo il plot a schermo di quel raw, non la foto. intendo dire che se abbiamo dei raw, ovvero la registrazione grezza del flusso dati, generiamo un'immagine per ognuno di essi che poi con un operazione software ci permette di tradurre in un valore finale il dato che comporrà la foto. la differenza è che in fotografia con questo sistema tu non sei interessato a come lavora il software e ti basi sul risultato visivo, in un motore di rendering è il motore che calcola un dato a prescindere e poterlo fare con uno spazio maggiore gli permette un'approssima migliore del calcolo che sta andando ad effettuare. spero sia più chiaro ciò che intendevo e dove a mio avviso stia la differenza fondamentale tra le due cose...se tu hai controllo sai benissimo capire quanta differenza possa esserci o meno, se tu non ce l'hai non puoi a prescindere stabilire che il motore non tragga beneficio da possibilità di operare con volumi di dati diverse.
    aaston;25644010]La tecnica di scattare più foto a diverse esposizioni per avere un'immagine finale con una gamma dinamica maggiore della singola foto è UNA tecnica per ottenere un'immagine ad non ci siamo capiti, io parlo di foto intendendo il risultato finale, per varianti della stessa immagine intendo il plot a schermo di quel raw, non la foto. intendo dire che se abbiamo dei raw, ovvero la registrazione grezza del flusso dati, generiamo un'immagine per ognuno di essi che poi con un operazione software ci permette di tradurre in un valore finale il dato che comporrà la foto. la differenza è che in fotografia con questo sistema tu non sei interessato a come lavora il software e ti basi sul risultato visivo, in un motore di rendering è il motore che calcola un dato a prescindere e poterlo fare con uno spazio maggiore gli permette un'approssima migliore del calcolo che sta andando ad effettuare. spero sia più chiaro ciò che intendevo e dove a mio avviso stia la differenza fondamentale tra le due cose...se tu hai controllo sai benissimo capire quanta differenza possa esserci o meno, se tu non ce l'hai non puoi a prescindere stabilire che il motore non tragga beneficio da possibilità di operare con volumi di dati diverse.
  • Yondaime
    Yondaime
    Livello: 3
    Post: 705
    Mi piace 2 Non mi piace 0
    Originariamente scritto da aaston

    Continuo quindi a non capire tutto questo discorso sull'HDR, mi sa tanto di fuffa per i non addetti ai lavori.
    ma si, siamo d'accordo anche su questo. è tutto marketing. però il punto fondamentale secondo me è "è necessaria la tv 4K HDR? no, non lo è" però per ovvie ragioni l'evoluzione dei pannelli va verso risoluzioni maggiori, gamma più estesa, migliroamento di refresh e/o tecniche per migliorare le immagini in movimento, riduzione di ghosting, contenimento/riduzione di lag e ritardi vari. non dobbiamo correre a comprare la tv nuova perché se no i giochi faranno schifo ed è il punto forte del marketing odierno...ma di sicuro sono due fattori che con la normale evoluzione del mezzo diventeranno sempre più comuni(a meno di essere direttamente superati da alternative che venderanno meglio), com'è in ogni ambito.
  • aaston
    aaston
    Livello: 6
    Post: 492
    Mi piace 0 Non mi piace 0
    Originariamente scritto da Yondaime

    si ma siamo d'accordissimo su questo. semplicemente quel che intendevo dire è che la differenza fisica può esserci, poi appunto come e quanto possa essere rilevante o percepibile è un discorso a parte e dipende sia dalle componenti chiamate in causa che dal frame plottato a schermo. l'hdr in ambito fotografico però è un concetto che un po' si discosta, tu vai ad esporre a stop diversi per sfruttare la massima gamma dinamica registrabile ottenendo delle varianti della stessa immagine da sovrapporre per poi generare un unica immagine risultata estraendo tutti i dettagli sia in ombra che alte luci e mezzi toni altrimenti irregistrabili con una esposizione singola...quindi si, a te finisce per essere utile in post produzione quando decidi di mettere mano in una certa maniera alla tua fotografia, ma di base non stai lavorando con un segnale ampliato, quanto invece con più segnali registrati separatamente da utilizzare a tuo piacemento. in questo caso invece parliamo di un motore di gioco che genera secondo regole matematiche un output avendo modo di lavorare con una mole di dati maggiore, e quindi l'approssimazione della scena fatta dal motore sarebbe meno imprecisa, se mi passi il termine(è come voler calcolare il pi greco a 1 decimale considerandolo 3.1 o poterlo calcolare a 7 decimali 3.1415926, per approssimazione su una circonferenza disegnata su un foglietto ottengo praticamente lo stesso risultato, se sto calcolando la circonferenza di un pianeta la discrepanza tra i due calcoli può invece essere enorme)...alla fine della suonata significa semplicemente che verrà passato questo segnale più affidabile(per citare l'hi-fi che si usava un tempo)ad una televisione che dovrebbe essere capace di rappresentarlo, sempre ribadendo che la differenza poi non è detto che sia marcatamente evidente, almeno non in ogni situazione e/o in maniera costante e/o a prescindere e/o per l'occhio di tutti. in questo caso la situazione a mio avviso risulta più simile alla differenza che passa tra registrare un flusso audio non compresso a 192mila Hz ed un mp3 44100Hz a 96k, anche laddove potremmo non essere in grado di notare la differenza il primo segnale sarebbe sempre e comunque "migliore" sia per capacità di campionamento sia eventualmente come oggetto su cui operare.
    La tecnica di scattare più foto a diverse esposizioni per avere un'immagine finale con una gamma dinamica maggiore della singola foto è UNA tecnica per ottenere un'immagine ad alta gamma dinamica. Chiariamoci, con alta gamma dinamica intendiamo la gamma dinamica visibile dal nostro occhio (come ho detto, circa 20 stops o poco più). La tecnica sopracitata è tutt'ora usata ma è nata quando i sensori digitali avevano ben pochi stops, ora con la combinazione di immagini RAW che arrivano tranquillamente a 16-bit e sensori che DI BASE riescono a vedere 16-18 stops di gamma dinamica (che è quanto fanno anche le cineprese più usata in ambito cinematografico, ovvero la Arri e la RED) si riesce tranquillamente ad arrivare ad un risultato HDR senza effettuare più esposizioni. Dopodiché, questa immagine HDR posso visualizzarla tranquillamente in un monitor a 8-bit. Vederla in un monitor a 10-bit non cambia QUASI NULLA. Per questo il discorso che fai sull'interpolazione dei colori in realtà non ha molto senso, poiché la differenza di resa dei colori da 8 bit in su (quindi che siano 10, 12, 14 o 16 bit e via dicendo) è praticamente indistinguibile. Quello che può cambiare è quanto il pannello renda i neri veramente neri e quanto luminosi renda i bianchi, quindi le sue statistiche in nits, non quante sfumature di colore mi possa riprodurre.
  • Yondaime
    Yondaime
    Livello: 3
    Post: 705
    Mi piace 1 Non mi piace 0
    Originariamente scritto da aaston

    Guarda, lavoro da anni in ambito video e fotografia per cui so perfettamente come funziona la gamma dinamica e la profondità colore Quello che voglio dire è che i 10-bit su un pannello non è che siano inutili, ma non sono certo in grado di fare tutta questa differenza. Come ho detto, ci vuole un occhio veramente esperto (salvo casi particolari di immagini fatte apposta per testare i limiti della profondità colore) per vedere la differenza tra un'immagine a 8 e 10 bit. Gli 8 bit, con i loro 16 milioni di colori, sono sufficienti per rappresentare praticamente tutte le sfumature visibili dall'occhio umano. A cosa serve una profondità di colore maggiore? Nella post-produzione! In una macchina fotografica o in una cinepresa è praticamente essenziale avere immagini superiori agli 8-bit con le quali lavorare, poiché sono molto più "malleabili" grazie alle migliaia di sfumature diverse di colore anziché le sole 256 fornite dall'8-bit. Esempio: riprendo un cielo chiaro con delle nuvole chiare. Ad occhio nudo le vedo, perché il nostro occhio ha una gamma dinamica molto elevata (si stima superiore ai 20 stops). Un sensore consumer dalla poca gamma dinamica (6-8 stops) e a 8-bit, vedrebbe solo il bianco, senza distinzioni fra cielo e nuvole. Un sensore più avanzato, con una buona gamma dinamica (12-16 stops) e soprattutto a più di 8-bit, è in grado di registrare quella differenza di luminosità proprio grazie alla profondità colore maggiore (tutte quelle sfumature che nell'8-bit si perdono tra il 254 e il 255). Informazioni che poi, in post-produzione, posso recuperare e arrivare ad un'immagine molto simile a quella che il mio occhio è in grado di vedere. Il mio output finale sarà comunque un'immagine a 8-bit, la profondità colore maggiore mi è servita appunto per il processo di post-produzione dell'immagine, non per la sua visualizzazione finale. Per questo dico che i 10-bit sono praticamente solo marketing, in fase di fruizione non servono a molto (se non per alcuni casi abbastanza estremi).
    si ma siamo d'accordissimo su questo. semplicemente quel che intendevo dire è che la differenza fisica può esserci, poi appunto come e quanto possa essere rilevante o percepibile è un discorso a parte e dipende sia dalle componenti chiamate in causa che dal frame plottato a schermo. l'hdr in ambito fotografico però è un concetto che un po' si discosta, tu vai ad esporre a stop diversi per sfruttare la massima gamma dinamica registrabile ottenendo delle varianti della stessa immagine da sovrapporre per poi generare un unica immagine risultata estraendo tutti i dettagli sia in ombra che alte luci e mezzi toni altrimenti irregistrabili con una esposizione singola...quindi si, a te finisce per essere utile in post produzione quando decidi di mettere mano in una certa maniera alla tua fotografia, ma di base non stai lavorando con un segnale ampliato, quanto invece con più segnali registrati separatamente da utilizzare a tuo piacemento. in questo caso invece parliamo di un motore di gioco che genera secondo regole matematiche un output avendo modo di lavorare con una mole di dati maggiore, e quindi l'approssimazione della scena fatta dal motore sarebbe meno imprecisa, se mi passi il termine(è come voler calcolare il pi greco a 1 decimale considerandolo 3.1 o poterlo calcolare a 7 decimali 3.1415926, per approssimazione su una circonferenza disegnata su un foglietto ottengo praticamente lo stesso risultato, se sto calcolando la circonferenza di un pianeta la discrepanza tra i due calcoli può invece essere enorme)...alla fine della suonata significa semplicemente che verrà passato questo segnale più affidabile(per citare l'hi-fi che si usava un tempo)ad una televisione che dovrebbe essere capace di rappresentarlo, sempre ribadendo che la differenza poi non è detto che sia marcatamente evidente, almeno non in ogni situazione e/o in maniera costante e/o a prescindere e/o per l'occhio di tutti. in questo caso la situazione a mio avviso risulta più simile alla differenza che passa tra registrare un flusso audio non compresso a 192mila Hz ed un mp3 44100Hz a 96k, anche laddove potremmo non essere in grado di notare la differenza il primo segnale sarebbe sempre e comunque "migliore" sia per capacità di campionamento sia eventualmente come oggetto su cui operare.
  • aaston
    aaston
    Livello: 6
    Post: 492
    Mi piace 0 Non mi piace 0
    In sostanza, molto più che i bit sono i valori in nits dello schermo che contano (quanto nero è il nero, e quanto bianco è il bianco).
  • aaston
    aaston
    Livello: 6
    Post: 492
    Mi piace 0 Non mi piace 0
    Il fatto è che la gamma dinamica dipende sempre dalla sorgente che produce l'immagine, se il pannello nel quale la si visualizza è a 8 o 10 bit non cambia praticamente nulla. Io posso fare una foto con una gamma dinamica di 20 stops (praticamente pari a quella dell'occhio umano), e riprodurre correttamente tutte le differenze che esistono tra il nero più nero e il bianco più bianco su uno schermo a 8-bit. Allo stesso modo, posso fare una foto con una macchina da 5 stops di gamma dinamica e riprodurla su uno schermo a 10-bit, e non ne otterrò certo un miglioramento. 8-bit di profondità colore sono pienamente sufficienti per riprodurre tutto quello che il nostro occhio può vedere, l'unica cosa che può cambiare è il livello di luminosità raggiungibile dal pannello, non la sua profondità colore. Anche se una sorgente video è a 10bit e viene riprodotta da una pannello a 10bit, se tale pannello non possiede una luminosità e un livello dei neri adeguato (il bianco è troppo spento), vedrò un'immagine nettamente peggiore di un flusso video a 8-bit su un pannello a 8-bit dotato di luminosità maggiore. Continuo quindi a non capire tutto questo discorso sull'HDR, mi sa tanto di fuffa per i non addetti ai lavori.
  • aaston
    aaston
    Livello: 6
    Post: 492
    Mi piace 2 Non mi piace 0
    Originariamente scritto da Yondaime

    come tratta l'articolo ci sono vari fattori che entrano in gioco, ma semplificando all'estremo il concetto tu hai che un punto è dovuto ad una terna RGB, se questa è a 8 bit hai da 0 a 255 livelli per canale (quindi 256x256x256 siccome i tuoi colori sono le combinazioni dei valori da 0 a 255 su ognuno di essi, quindi i 16 milioni e rotti di colori), se tu hai un segnale 10 bit e sei in grado di rappresentarlo fisicamente avrai da 0 a 1023 valori per canale(quindi 1024x1024x1024 da cui l'oltre 1 miliardo di colori di cui è teoricamente capace, cui fa riferimento l'articolo). poi quanto e come questo sia significativo e realmente applicato, e quanta differenza possa fare...è estremamente vincolato al segnale stesso, anche a 8 bit se pasticcio male una foto o un frame posso far uscire immagini con banding e/o posterizzate pur avendo una palette notevole. il discorso di luminosità da bianco a nero è per estensione applicabile a tutti i colori proprio perché il bianco e il nero sono le "terne" 0x0x0 e 255x255x255(o rispettivi valori di riferimento per segnali "espansi"), guadagni colori perché avrai quello stesso numero di livelli su ogni terna. poi chiaramente, come sottointendevo poco sopra, bisogna vedere quanto il pannello è buono e la capacità fisica di rappresentare i valori. teoricamente poi, lato sviluppo, se un motore grafico è capace di restituire un output esteso allora per l' HDR farò in modo di inviare quel segnale in uscita anziché il segnale standard, quindi il frame sarà renderizzato nativamente calcolando valori in quello spazio, se il motore che uso non ne è in grado o faccio il magheggio e ci estrapolo via software valori "inventati" ricampionando in qualche modo o butto fuori direttamente il segnale standard (e a quel punto il pannello o plotta in output il segnale 8 bit oppure effettua lui stesso un magheggio software con cui "inventa" i valori ricampionando il segnale, con il rischio di artefatti e/o incoerenze che potrebbero peggiorare la resa anziché migliorarla o rallentando il lavoro per effettuare un calcolo più preciso e capace di restituire qualcosa di gradevole).
    Guarda, lavoro da anni in ambito video e fotografia per cui so perfettamente come funziona la gamma dinamica e la profondità colore Quello che voglio dire è che i 10-bit su un pannello non è che siano inutili, ma non sono certo in grado di fare tutta questa differenza. Come ho detto, ci vuole un occhio veramente esperto (salvo casi particolari di immagini fatte apposta per testare i limiti della profondità colore) per vedere la differenza tra un'immagine a 8 e 10 bit. Gli 8 bit, con i loro 16 milioni di colori, sono sufficienti per rappresentare praticamente tutte le sfumature visibili dall'occhio umano. A cosa serve una profondità di colore maggiore? Nella post-produzione! In una macchina fotografica o in una cinepresa è praticamente essenziale avere immagini superiori agli 8-bit con le quali lavorare, poiché sono molto più "malleabili" grazie alle migliaia di sfumature diverse di colore anziché le sole 256 fornite dall'8-bit. Esempio: riprendo un cielo chiaro con delle nuvole chiare. Ad occhio nudo le vedo, perché il nostro occhio ha una gamma dinamica molto elevata (si stima superiore ai 20 stops). Un sensore consumer dalla poca gamma dinamica (6-8 stops) e a 8-bit, vedrebbe solo il bianco, senza distinzioni fra cielo e nuvole. Un sensore più avanzato, con una buona gamma dinamica (12-16 stops) e soprattutto a più di 8-bit, è in grado di registrare quella differenza di luminosità proprio grazie alla profondità colore maggiore (tutte quelle sfumature che nell'8-bit si perdono tra il 254 e il 255). Informazioni che poi, in post-produzione, posso recuperare e arrivare ad un'immagine molto simile a quella che il mio occhio è in grado di vedere. Il mio output finale sarà comunque un'immagine a 8-bit, la profondità colore maggiore mi è servita appunto per il processo di post-produzione dell'immagine, non per la sua visualizzazione finale. Per questo dico che i 10-bit sono praticamente solo marketing, in fase di fruizione non servono a molto (se non per alcuni casi abbastanza estremi).
  • amdm
    amdm
    Livello: 0
    Post: 0
    Mi piace 1 Non mi piace -1
    ma perché invece di spiegare cose che si trovano su internet non date voce agli utenti, dite a chifa i giochi di migliorare le ai dei nemici o che vogliamo più impegno mei porting, ecc... voi al meno ci arrivate spesso a contatto e potete parlarci. ps: che illuso sperare nella propaganda al inverso
  • Vanon
    Vanon
    Livello: 4
    Post: 242
    Mi piace 1 Non mi piace 0
    C'e un elemento che non state rendendo in considerazione, che invece (per lo meno in ambito professionale) e molto importante: chroma subsampling! Va bene aumentare i bit per avere meno color banding, ma se poi il bluray me lo ritrovo pieno di macroblocchi sai che voglia mi viene di prendere un 4K.... meglio aspettare l'HDMI 2.1 per l'HDR con metadati dinamici e (magari) risoluzione 4K con subsampling 4.4.4 oltre i 30 fps!
  • Leviathandark
    Leviathandark
    Livello: 7
    Post: 913
    Mi piace 1 Non mi piace -1
    Originariamente scritto da Pepin

    le TV con hdr diventeranno "comuni" tra qualche anno, ovvero quando uscirà una PS5; la funzionalità inserita nella xone S, lascia il tempo che trova, sarà usata da pochissime persone
    Criticare l'ottima funzionalità di Xbox One S mi fa pensare che sei solamente il solito Fan della Sony che non ha alcun tipo di imparzialità, ne obiettività . Stessa cosa quando criticavi Forza Horizon 3, uno straordinario gioco di corse ma che infastidisce chi aspettava GT Sport pensando sia un gioco nettamente superiore solo perché esclusiva Sony...ma che così non è, oltre ad essere stato rinviato a non si sa quando .
  • Yondaime
    Yondaime
    Livello: 3
    Post: 705
    Mi piace 1 Non mi piace 0
    Originariamente scritto da aaston

    A quello che ho capito del pannelli HDR, sono "semplicemente" più luminosi degli altri, offrendo quindi più gamma dinamica (neri più neri, bianchi più bianchi). Tutta la questione dei colori a mio parere è abbastanza sul lato marketing, i 10-bit (miliardi di colori) contro gli 8-bit (milioni) sono informazioni utili nella post-produzione di un'immagine, ma alla fine l'occhio umano non vede molto al di là degli 8-bit (solo un occhio esperto riesce a notare la differenza tra un'immagine a 8 e 10 bit). Certo, i limiti degli 8-bit ogni tanto si vedono, soprattutto quando creano del banding che il 10-bit risolverebbe (quell'effetto di "bande" dove il colore dovrebbe essere omogeneo, su sfumature molto morbide), ma non fa certo tutta questa differenza (e te lo dico da possessore di monitor a 10-bit). L'HDR, ricordiamoci, non serve ad avere immagini dai colori più "vividi" o "vivaci", ma semplicemente a rendere un'immagine più reale, ovvero come il nostro occhio vede la realtà nelle sue sfumature di luce (la gamma dinamica altro non è che questo, la capacità di un occhio / sensore di distinguere quante più differenze di luminosità).
    come tratta l'articolo ci sono vari fattori che entrano in gioco, ma semplificando all'estremo il concetto tu hai che un punto è dovuto ad una terna RGB, se questa è a 8 bit hai da 0 a 255 livelli per canale (quindi 256x256x256 siccome i tuoi colori sono le combinazioni dei valori da 0 a 255 su ognuno di essi, quindi i 16 milioni e rotti di colori), se tu hai un segnale 10 bit e sei in grado di rappresentarlo fisicamente avrai da 0 a 1023 valori per canale(quindi 1024x1024x1024 da cui l'oltre 1 miliardo di colori di cui è teoricamente capace, cui fa riferimento l'articolo). poi quanto e come questo sia significativo e realmente applicato, e quanta differenza possa fare...è estremamente vincolato al segnale stesso, anche a 8 bit se pasticcio male una foto o un frame posso far uscire immagini con banding e/o posterizzate pur avendo una palette notevole. il discorso di luminosità da bianco a nero è per estensione applicabile a tutti i colori proprio perché il bianco e il nero sono le "terne" 0x0x0 e 255x255x255(o rispettivi valori di riferimento per segnali "espansi"), guadagni colori perché avrai quello stesso numero di livelli su ogni terna. poi chiaramente, come sottointendevo poco sopra, bisogna vedere quanto il pannello è buono e la capacità fisica di rappresentare i valori. teoricamente poi, lato sviluppo, se un motore grafico è capace di restituire un output esteso allora per l' HDR farò in modo di inviare quel segnale in uscita anziché il segnale standard, quindi il frame sarà renderizzato nativamente calcolando valori in quello spazio, se il motore che uso non ne è in grado o faccio il magheggio e ci estrapolo via software valori "inventati" ricampionando in qualche modo o butto fuori direttamente il segnale standard (e a quel punto il pannello o plotta in output il segnale 8 bit oppure effettua lui stesso un magheggio software con cui "inventa" i valori ricampionando il segnale, con il rischio di artefatti e/o incoerenze che potrebbero peggiorare la resa anziché migliorarla o rallentando il lavoro per effettuare un calcolo più preciso e capace di restituire qualcosa di gradevole).
caricamento in corso...
SCREENSHOTS
SpazioGames.it - Testata giornalistica registrata presso il Tribunale di Monza dal 22/02/2008 con autorizzazione n.1907
© 1999 - 2012 GALBIT SRL TUTTI I DIRITTI RISERVATI - P.IVA 07051200967
Spaziogames.it utilizza i cookie per assicurarti la miglior esperienza di navigazione. Se desideri maggiori informazioni sui cookie e su come controllarne l'abilitazione con le impostazioni del browser accedi alla nostra Cookie Policy.