HDR-teknologi er nå så utbredt at populære strømmetjenester som Amazon Prime, Disney+ og Netflix har begynt å støtte HDR-innhold. Faktisk, hvis du skulle se etter en ny TV eller skjerm i dag, ville du bli overrasket over hvordan nesten alle produkter har HDR på spesifikasjonslisten.
Som reiser spørsmålet: hva er HDR egentlig? Hvordan fungerer HDR, og hvordan er det sammenlignet med vanlig SDR?
Hva er SDR?
Standard Dynamic Range (SDR) er en videostandard som har vært i bruk siden CRT-skjermer. Til tross for markedssuksessen til HDR-skjermteknologi, SDR er fortsatt standardformatet som brukes i TV-er, skjermer og projektorer. Selv om det ble brukt i gamle CRT-skjermer (og faktisk er hemmet av begrensningene til CRT-teknologi), er SDR fortsatt et akseptabelt format i dag. Faktisk bruker det store flertallet av videoinnhold, enten det er spill, filmer eller YouTube-videoer, fortsatt SDR. I utgangspunktet, hvis enheten eller innholdet ikke er vurdert som HDR, bruker du sannsynligvis SDR.
Hva er HDR?
High Dynamic Range (HDR) er den nyere standarden for bilder og videoer. HDR ble først populært blant fotografer som ønsket å eksponere en komposisjon på riktig måte med to motiver med en forskjell på 13 stopp i eksponeringsverdi. Et så bredt dynamisk område ville tillate riktig eksponering for virkelige scener som tidligere ikke var mulig med SDR.
Nylig ble HDR introdusert for filmer, videoer og til og med spill. Mens SDR-innhold ga overblåste himmel, utydelige svarte og båndproblemer under scener med høy kontrast, HDR skildrer disse scenene realistisk med et mer ekspansivt fargerom, fargedybde, og luminans.
Bredere fargerom, større fargedybde og høyere luminans gjør HDR bedre enn SDR – men hvor mye?
Sammenligning av HDR vs. SDR
Hvis du noen gang har vært på markedet for en skjerm, har du sannsynligvis lagt merke til visse spesifikasjoner som sRGB, nits og cd/m2, og 10-biters farger. Disse spesifikasjonene er for fargerom, luminans og fargedybde. Alle disse spesifikasjonene er det som gjør levende, godt blandede og tilstrekkelig eksponerte motiver inne i et bilde.
For bedre å forstå forskjellen mellom HDR og SDR, la oss sammenligne de to gjennom deres fargeskala, lysstyrke og fargedybde. La oss starte med fargespekteret.
Fargeskala
Et fargespekter er et teoretisk spekter av farger som kan fremstilles digitalt. For å representere alle mulige farger som øynene kan se, bruker industrien det som er kjent som CIE 1931 kromatisitetsdiagram. Dette diagrammet er standarden som forskjellige fargerom sammenlignes med. SDR bruker et fargerom kalt Rec 709 og HDR med Rec 2100. Trekanten representerer hvor mye plass de bruker gjennom illustrasjonen nedenfor:
Som du kan se, er fargerommet som brukes av HDRs Rec 2100 betydelig større enn det til SDRs Rec 709.
Med det store fargerommet til HDR, vil filmskapere og ulike innholdsskapere ha et betydelig større spekter av grønne, røde og gule farger for nøyaktig og kunstnerisk å skildre arbeidet sitt. Dette betyr at seere som ser på HDR vil se mer levende farger, spesielt i grønne, gule, røde og alt mellom dem.
Når det gjelder SDR, siden fargerommet har proporsjonale mengder primærfarger, kan fargeister fortsatt skildre arbeidet sitt vakkert, om enn med betydelige begrensninger.
Lysstyrke
Du har sett fargespekteret fremstilt i 2D som det som ble brukt tidligere. Imidlertid er hele CIE 1931-fargerommet faktisk et 3D-diagram. Den tredje dimensjonen av diagrammet representerer den oppfattede lysstyrken til fargen. Lysstyrke, sammen med metning, er det som endrer kvaliteten på fargen mennesker er i stand til å se.
En skjerm som kan sende ut høyere mengder luminans er mer i stand til å modifisere alle nyanser 2D-fargebildet representerer og kan dermed vise mer farge som er synlig for menneskelige øyne. Luminansen måles i nits eller candela/m2.
SDR er i stand til å sende ut 100 nits eller 100 cd/m2. Derimot kan HDR10 (den vanligste HDR-standarden) gi ut opptil 1000 nits. Dette betyr at å se i HDR10 kan tillate seerne å se flere varianter av primær- og sekundærfarger.
Fargedybde
Selv om de menneskelige øynene ser alt i analogt, må digitale skjermer etterligne disse analoge lysbølgene i digitale biter for at prosessorer kan gjenskape dem. Disse bitene av digital informasjon er kjent som fargedybde eller fargebiter.
Det menneskelige øyet bruker persepsjon for å se forskjellige farger. Digitale skjermer bruker fargedybde eller bitdybde for å instruere en piksel om hvilken farge som skal vises. Jo mer en piksel kan blinke, jo flere farger kan den vise.
SDR kan vise 8-bits farge, noe som betyr at en piksel kan vise én primærfarge i 256 varianter. Siden det er tre primærfarger, kan et 8-bits panel vise maksimalt 16 777 216 fargenyanser.
For å sette det i perspektiv, kan det menneskelige øyet bare skille rundt 10 millioner farger. Dette betyr at SDR er svært i stand til å vise farger våre menneskelige øyne kan se, og det er grunnen til at 8-bits farger fortsatt er standarden for visuelle medier i dag.
Derimot kan HDR10 gjøre en fargedybde på 10-biter, noe som tillater maksimalt 1,07 milliarder fargenyanser!
Imponerende, men siden det menneskelige øyet bare kan skille rundt 10 millioner farger, er ikke en 10-bits fargedybde overkill? Kan du i det hele tatt se forskjellen?
Ja, det kunne du absolutt! Men hvordan?
Folk kan oppfatte flere farger med en 10-bits dybde fordi det menneskelige øyet ikke oppfatter fargenyansene likt.
Hvis du ser på CIE 1931-kromaticitetsskalaen (bildet over), kan du se at det menneskelige øyet kan se mye mer grønt og rødt enn blått. Selv om en 8-bits fargedybde kan maksimere all blåtonen øynene dine kan oppfatte, kan den ikke gjøre det samme med rødt, og spesielt med grønt. Så selv om du vil se omtrent det samme spekteret av blåtoner i 8 og 10-bit, vil andre primære farger som røde og grønne farger vises mer på et system som bruker en 10-biters fargedybde.
Fordeler og ulemper med HDR og SDR
HDR og SDR er to standarder som brukes i visuelle digitale medier. Å bruke en standard fra en annen vil ha sine gater og svakheter. Her er en tabell som viser deg hvordan den ene sammenlignes med den andre:
Når det gjelder farge og skjerm, er HDR bedre enn SDR på alle måter. Det gir betydelige forbedringer i fargerom, luminans og fargedybde. Så hvis du har sjansen til å se filmer, se bilder eller spille spill i HDR, bør du alltid gjøre det – men kan du det?
Problemet med HDR er at de fleste forbruksmedier ikke er HDR-kompatible. Ofte vil visning av HDR-medier på en SDR-skjerm gjøre seeropplevelsen din verre enn å se den på et vanlig SDR-panel.
Et annet problem er at de fleste HDR-enheter bruker HDR10, som er løst standardisert, mens markedsføringen stort sett er enhetlig. For eksempel finner du HDR10-logoen slått på et subpar-panel som ikke kan yte så godt som 1000-nits-panelet som vises i HDR10-annonser.
Selv om SDR gir de vanlige visningsstandardene og ikke kan konkurrere med HDR når den fungerer, er dens brukervennlighet, kompatibilitet og lavere kostnad grunnen til at mange fortsatt foretrekker å bruke det.
Du trenger både HDR og SDR
Nå som du vet forskjellen mellom SDR- og HDR-standarder, blir det åpenbart at HDR er den klare vinneren når det kommer til å se på underholdende innhold. Dette betyr imidlertid ikke at du bør slutte å bruke SDR. Sannheten er at SDR fortsatt er den bedre standarden å bruke når du ikke ser på eller spiller av HDR-spesifikt innhold.
Hvis du kjøper en ny skjerm, vil det være lurt å investere i et dyrere HDR-kompatibelt panel da det lar deg se både HDR- og SDR-innhold. Siden SDR-innhold ser dårlig ut i HDR10, kan du alltid slå av HDR når du ser på, spiller eller ser på SDR-innhold og -applikasjoner.
Forhåpentligvis gir det deg en ide om hvor stor innvirkning HDR har på bordet. Selv om SDR fortsatt kommer til å være måten du nyter forskjellig innhold på, er det bare et spørsmål om tid før HDR får bedre støtte. Da vil det sannsynligvis være den fremtidige standarden alle bruker.