Fråga:
Vad betyder det när en TV "stöder HDR"?
Ivo Beckers
2015-09-17 17:56:32 UTC
view on stackexchange narkive permalink

Jag är lite förvirrad över hur HDR (på TV) fungerar. Så som jag ser det används flera bilder av samma ram för att skapa en bild som visar bättre detaljer i ramar med svagt ljus och högt ljus.

Varför måste TV: n göra något om detta? Borde inte alla filmer som har HDR förbehandlas på det här sättet så att den resulterande filmen ser ut som den borde? Eller betyder HDR på TV verkligen att dessa flera bilder per bildruta är tillgängliga för TV: n och TV: n räknar ut hur man kombinerar dem?

Be inte om ursäkt för att du ställde en fråga!
För vad det är värt: [Är frågor om begrepp som "liknar" dem i fotografering på ämnet?] (Http://meta.photo.stackexchange.com/questions/4876/are-questions-about-concepts-which -liknar-de-i-fotografering-på-topi / 4877 # 4877)
Fem svar:
Octopus
2015-09-17 23:34:54 UTC
view on stackexchange narkive permalink

HDR-TV är (ännu) en annan standard för videoöverföring. Färgområdet är bredare (se rec 2020 vs rec 709) men det är också upplösningen. Standarden ska vara bakåtkompatibel vilket innebär att du bara kommer att se fördelarna med det bredare spektret om du har en TV som stöder den, men om du inte gör det kommer du fortfarande att kunna se strömmen i det smalare spektret. Standarden kommer nödvändigtvis att utöka den bandbredd som krävs för att bära eller sända signalen.

HDR-TV (rec 2020) definierar också två pixelupplösningar (4K och 8K pixelbredder) som är högre än standard HD-TV upplösning som är närmare 2K pixlar bred. Standarden är i sin linda och kommer sannolikt att utvecklas genom flera generationer innan den mognar. Granskare är vanligtvis imponerade av det utökade omfånget och har sagt att HDR-TV är en mycket mer märkbar förbättring av kvalitet än enbart högre upplösning.

HDR-TV ger UHDTV-färgskala som visas i bifogad bild. I huvudsak kokar det ner till att bitdjupet är 8 bitar per färgkanal för rec 709 och antingen 10 eller 12 bitar per färgkanal för rec 2020).

enter image description here

UPPDATERING /

Från och med juli 2016 har en annan standard gått in i branschen (rec 2100). Rec 2020 och rec 2100 har båda samma breda färgskala (WCG) och det är vanligtvis de extra färgerna som antyds när HDR nämns. Det blir dock mer förvirrande än så.

Både rec 2020 och rec 2100 stöder bildhastigheter från 23.976 till 120 och endast progressiva ramar, aldrig sammanflätade vilket du kanske känner till. Detta är ytterligare en förbättring jämfört med rec 709 som bara var upp till 60p.

Rec 2020 definierar endast 2 upplösningar 4K (3840x2160) och 8K (7680x4320), medan rec 2100 också definierar 2K (1920x1080), vilket ger bredare färgskala till vad vi redan kallar HD.

Signalformaten för rec 2020 inkluderar RGB och YCbCr, medan rec 2100 också definierar ett tredje format, ICtCp som ger en förbättrad färgåtergivning. Speciellt definierar rec 2100 två optiska överföringsfunktioner som skiljer sig från rec 2020; perceptuell kvantisering (PQ) och Hybrid Log-Gamma (HLG).

Jag är inte säker på när detta hände men det verkar som att rec 2020 hänvisas till dessa dagar (åtminstone på Wikipedia) som standard dynamiskt omfång (SDR) och rec 2100 är högt dynamiskt område (HDR), men eftersom UHDTV "HDR" TV-apparater fanns före lanseringen av rec 2100 är det möjligt att din "HDR" -uppsättning stöder rec 2020 och inte rec 2100.

Dessutom kan både rec 2020 och rec 2100 representera samma färger inom triangeln i CIE 1931-kromatiseringsdiagrammet som visas ovan, vad som är annorlunda är den optiska överföringsfunktionen och gammarampen, så med andra ord, funktionen som konverterar signal till färg är annorlunda.

Är det förvirrande nog?

Du bör nog klargöra att du menar "färgupplösning" här och inte pixelupplösning
@hobbs, faktiskt är det verkligen pixelupplösning som också är en del av förbättringen. Jag har försökt klargöra det inom svaret.
Du har rätt, jag är nog för hård; Jag tror dock att resten av informationen om kontrastförhållande är relevant.
Hur kan jag sedan se färgerna utanför den beige triangeln på min icke-UHDTV?
@Octopus Vänta, verkligen? Jag antar att min 1920 x 1280 bildskärm är UHDTV-kompatibel, då. Jag måste Google hur det skulle se ut på en sämre bildskärm. Jag antar att det är därför färgerna utanför den svarta triangeln ser identiska ut som de längs kanten, men färgerna längs de svarta kanterna ser annorlunda ut än de längs beige.
James Snell
2015-09-17 19:31:38 UTC
view on stackexchange narkive permalink

Det här är en av de många gånger när termer / akronymer tillämpas av olika målgrupper på olika saker.

Du hänvisar till bildkompositionering och tonmappning för att överskrida det normala sensorområdet som HDR. Elektronikindustrin använder den för att hänvisa till HDMI HDR-specifikationen som möjliggör större bitdjup - bortsett från formuleringen bakom förkortningen finns det inget samband mellan de två.

Brandon
2015-09-18 00:23:19 UTC
view on stackexchange narkive permalink

Svaret från James Snell är ganska allvarligt felaktigt för att säga att foto och display HDR inte är relaterade. De refererar båda till exakt samma sak: högre bitdjup. När du skapar en HDR-bild använder du flera exponeringar för att skapa en sann HDR-bild som har ett högre bitdjup än vad en vanlig skärm kan reproducera. På grund av denna begränsning tonmarkerar du normalt den faktiska HDR-bilden ner i det låga dynamiska området på en normal skärm.

Vad en HDR-skärm tillåter är att visa HDR-bilden inbyggt utan tonmappningssteget (förutsatt att skärmens bitdjup är större än eller lika med bildens). medan du på en normal skärm egentligen bara kan se en simulerad HDR-bild.

tl; dr HDR = högre bitdjup i båda sammanhang. Det är inte en annan innebörd alls.

Det enda riktigt korrekta svaret så vitt jag kan säga!
Jag håller med om att HDR vanligtvis refererar till högre bitdjup, men många HDR-bilder vi ser online idag är, som du säger, tonkartade för att simulera högre bitdjup. När det gäller HDR TV är den varken förbehandlad eller genererad i TV: n från flera ramar som OP föreslår, utan snarare kräver TV: n en signal som spelades in i HDR-format.
Välkommen ny användare. Bara så att du vet, vi har en kommentarruta för att svara på svar. Hade du använt det skulle du ha hänvisats till http://photo.stackexchange.com/questions/7623/what-is-hdr-photography?rq=1 där det mest upprösta och accepterade svaret helt instämmer i din definition och är ganska tydligt att HDR som * fotografisk * akronym handlar om komposit- / tonkartprocessen.
Problemet med vad du säger är att du förvirrar skillnaden mellan vad en HDR-bild _is_ och metoden med hur man skapar. En HDR-bild är en bild med ett högre bitdjup (om du vet vad termen "dynamiskt omfång" refererar till tekniskt är det bara ett uttalande om definition). Det är korrekt att den vanligaste metoden för att _ skapa_ en HDR-bild gör det genom att komponera LDR-exponeringar, men mekanismen är inte produkten. Den typ av svar du försvarar motsvarar att du blir frågad vad en bil är och säger att det är monteringsbandet.
Brandon, OP är den som förvirrar processen att skapa en HDR-bild och vad HDR som koncept verkligen betyder. James påpekade korrekt för OP att det han kallade "HDR" och vad TV-tillverkare kallar "HDR" är två olika saker. Det är sant att det som OP kallade HDR faktiskt bara är en metod för att skapa en HDR-bild, men det är där ditt förtydligande måste vara. Och en annan anmärkning - att specifikt ropa ut någon annans svar är något som aldrig kommer att tas bra på StackExchange.
Ska du inte säga ett ord om skärmens ljusstyrka? [se min relaterade fråga] (http://photo.stackexchange.com/questions/69433/would-a-standard-luminosity-max-200-cd-hdr-tv-make-sense)
@JPhi1618 Jag håller definitivt med om att OP startade med den initiala förvirringen mellan metoden och produkten, men sedan fortsatte svaret den förvirringen genom att i huvudsak stödja den som korrekt och säga att termen HDR betyder helt olika saker mellan bildtagning och bildvisning. Jag försökte svara på det konceptet i allmänhet, men du har dock rätt, jag borde uttryckligen ha uppmärksammat den förvirring som uppstod i OP i mitt svar.
(Och när det gäller att nämna det andra inlägget är den enda anledningen till att jag gjorde det på grund av den något konstiga regeln som hindrar en ny användare från att skriva en kommentar till ett inlägg, men tillåter dem att skriva inlägg på högsta nivå, så det var det enda sättet jag hade för att svara på det för närvarande topprösta inlägget vid den tiden)
"Det som en HDR-skärm tillåter är att visa HDR-bilden inbyggt utan tonmappningssteget (förutsatt att skärmens bitdjup är större än eller lika med bildens), medan du på en normal skärm egentligen bara kan se en simulerad HDR-bild. " Jag * tvivlar starkt på att någon TV kan visa en 32-bitars flytpunktskarta.
@JamesSnell Den frågan / svaret är ganska svag med en mycket smal definition av * High Dynamic Range *, som fanns länge före digital fotografering, mycket mindre 32-bitars flytande bildfiler från exponerade inom parentes. För ett annat (lika uppröstat) perspektiv, se: [Vad är skillnaden mellan "Fake HDR" och verklig, hakparentes HDR?] (Https://photo.stackexchange.com/q/80591/15871)
Joshua Kolden
2015-09-19 02:30:27 UTC
view on stackexchange narkive permalink

HDRI vs HDR för TV

Det korta svaret är att termerna har väsentligen olika betydelse, både tekniskt och subjektivt. HDR för TV är dock inte bara en marknadsföringsperiod, och jag kan inte tänka mig en mer lämplig term för vad HDR-kompatibla TV-apparater erbjuder.

Bakgrund

Jag började arbeta. med bilder med högt dynamiskt omfång för filmproduktion på Digital Domain baserat på arbetet av Greg Ward Larson och Paul Debevec redan 1999. Jag tror att jag var den första som utvecklade en process för att tända CG med HDR-bilder i realtid med förbehandlade sfäriska inblandningar av HDR-miljökartor (pojke som är full i munnen) . Om jag minns rätt gjorde Paul en uppsättning om HDR i realtid 2001, så det var förmodligen ett antal människor som gjorde liknande saker runt den tiden. Samma år 2001 gjorde jag en panel om framtidens färg på SIGGRAPH med Roger Deakins ursprungligen, men Allen Daviau fyllde i sista minuten när Deakins drogs in på "A Beautiful Mind". På panelen var också Neil Robinson (då från ILM) och Beverly Wood från Deluxe Laboratories. Så jag har varit inblandad i HDR som ursprungligen definierades från ganska nära början, och jag har haft möjlighet att lära av några otroligt begåvade människor.

Eftersom det gäller användningen av HDR för TV-apparater och moderna konsumentdistributionskanaler Jag har nyligen haft möjlighet att samarbeta med Jenz Merrill som ansvarar för HDR-pipelinen för Amazon Instant Video som är den första kommersiella HDR-leveransen, och jag är också bra vänner med Thad Beier som är chef för Imaging Platform Workflow på Dolby Labs.

Även om jag inte är direkt involverad i arbetet på Amazon eller Dolby Labs, och bara för att vara tydligt att de är olika arbetsflöden, jag har sett vad som görs och jag kan säga att resultaten är spektakulära.

Ett exempel från "Mozart i djungeln"

Jag har nyligen sett en del av det arbete som Amazon har gjort på Technicolor, och det är vackert. I färgpaketet hade Technicolor en HDR-skärm bredvid en vanlig HD-skärm, båda kalibrerade perfekt och båda såg vackra ut. Särskilt ett skott från "Mozart in the Jungle" sticker ut. Skottet finns i ett bibliotek och på den perfekt kalibrerade studiokvaliteten HD bildskärm är det vackra, varma färger, fantastisk komposition, allt som allt ett fantastiskt skott. Men på HDR -monitorn är det hisnande.

Här är varför:

En mycket bra HD-tv kan vanligtvis ge upp till 400 ljusstyrka (en nit motsvarar en candela eller ljus per kvadratmeter). Jag tittar på den här webbsidan på en MacBook Pro Retina-skärm med full ljusstyrka och recensioner säger att det handlar om 300 nits. Jag fick höra att HDR-skärmen som jag såg på Technicolor var 1100 nits! Inte bara procentandelar ljusare men nästan 4 gånger ljusare än min MacBook pro, och nästan 3 gånger ljusare än en topp på linjen HD-tv.

Ännu mer dramatiskt är det faktum att denna extra ljusstyrka inte kostar att öka ljusstyrkan i de mörka områdena i bilden. Detta kallas korrekt dynamisk ilska, inte bara ljusstyrka eller kontrast.

Det är svårt att verkligen internalisera skillnaderna mellan skärmarna utan att se dem sida vid sida, för det handlar inte bara om att visa mer exponeringsbredd i bilden. Du kan göra det på valfri skärm med vilken ljusstyrka som helst genom att komprimera det dynamiska området till det visningsbara området. En HDR-bildskärm visar mörka delar av ramen som böcker i en bokhylla i skugga med en mycket likartad total ljusflöde som en HD-bildskärm, och ett ljust element som en vit vägg också vid en mycket liknande övergripande ljusflöde som HD-skärmen. Vad som är annorlunda är att HDR-skärmen kan fortsätta i båda riktningar.

HDR i TV

Tillbaka till skottet från "Mozart in the Jungle". Mellan bildskärmarna ser de mörka böckerna ungefär likadana ut och de ljusa väggarna ser ungefär ut, men glasmålningsfönstret i bakgrunden är helt annorlunda. På HD bildskärmen blommar fönstret till ljus överexponering och ser ut precis som du förväntar dig genom att skjuta i ett mörkt rum med ett ljust fönster. HDR -skärmen träffar dock ljusstyrkan och mer, och visar de vackra färgerna på stativfönstret genom att inte krossa ljusstyrkan i ett visningsområde utan genom att bokstavligen mata ut mer ljus. Vid upp till 1100 nit är färgerna på det stativfönstret explosiva.

När jag satt i det rummet med de olika bildskärmarna som visar samma bild, var glasmålningen på HDR-skärmen överlägset ljusaste i rummet och färgerna otroliga. Ovanpå detta är de mörkaste elementen i bilden i bokhyllans skuggor några av de mörkaste sakerna i rummet, men färgerna och detaljerna syns fortfarande. Det är en fantastisk sak att se.

HDR för TV är inte en teknisk förbättring som ser ut som skit som hög bildhastighet och rörelseutjämning, eller ett nummerspel som är mer eller mindre överflödigt för bilder i TV-storlek som 4k mot 2k. HDR som faktiskt högre ljusflöde, är en verklig förbättring både kreativt och tekniskt.

HDR i Imaging (HDRI)

Så vad är skillnaden? Skillnaden är att det sätt på vilket vi använde HDR för att fånga och manipulera bilder ursprungligen huvudsakligen var avsedda att spela in absoluta ljusvärden utanför alla koncept för visningsbarhet. Det är de sekundära effekterna av den fångsten som är synliga. Till exempel förmågan att använda en bild som en ljuskälla i en cg-rendering eftersom ljuskällorna som fångas i HDR-bilden spelas in med sina faktiska värden och i rätt proportion till det reflekterade ljuset i bilden som väggar och golv.

Skillnaden mellan ljuskällans ljuseffekt och en reflektionsyta som en vit vägg är vanligtvis många storleksordningar. Även en HDR-TV på 1100 nit är oförmögen att representera dessa intervall bokstavligen i de flesta fall, och det är tveksamt om du vill ha det. Vad som visas är den ytterligare breddgraden som har varit en del av bilden hela tiden, inklusive och särskilt film, men som inte kan visas i slutresultatet utan att det påverkar bildens "utseende" negativt, vilket minskar kontrasten. Detta ger oss latitud för efterbehandling för att flytta exponeringen upp och ner och justera färgen utan för många artefakter i ljusa eller mörka områden.

Som det är fallet med skottet från "Mozart in the Jungle" HDR-tv och nya standarder som REC 2020 för tv och P3 för digital film levererar mer av det som redan fångats i den utökade latitud (axel och läkning) för filmen eller sensorn som används. Till skillnad från HDRI kräver inget av detta en signifikant annorlunda fångningsprocess. Även om DP och direktörer definitivt vill börja ta hänsyn till det. Typ av på ett liknande sätt som HD hade en inverkan på makeupavdelningen.

Hur man utvärderar en HDR-TV

Scener med låg kontrast, till exempel karaktärer som pratar i ett normalt upplyst interiörbild ska visas nästan identiskt även i jämförelse sida vid sida (ge eller ta total ljusstyrka). Bilder som detta kan visa förbättrad färg på en HDR-tv men skillnaderna är vanligtvis för subtila för att märka. Scener med synliga ljuskällor eller dramatisk färganvändning; dagens exteriör med himmel, nattklubbscener med neon- och scenbelysning, nästan vad som helst av David Fincher, alla kommer att se dramatiskt annorlunda ut på HDR-TV-apparater, men inte för att kontrasten har skruvats upp, kontrasten bör se ungefär ut som en bra HD-tv, mörker och ljus går bara längre.

Befintligt (REC 709) -innehåll bör i allmänhet se ut mellan HD- och HDR-tv. Om de inte gör det är något fel med installationen av en eller båda. Inläggsfärgen måste göras om för att inkludera det extra intervallet, och bara det visar upp den verkliga effekten av HDR-tv.

SailorCire
2015-09-17 19:19:20 UTC
view on stackexchange narkive permalink

* sniffa * Jag luktar en marknadsföringstaktik.

Så, låt oss börja med HDR: vad är det? En HDR-bild handlar om att öka den dynamiska kontrasten i en bild och därmed antalet stopp. Det finns olika sätt att fånga detta, men du kan söka på webbplatsen efter det.

Så vi har vår HDR-bild, vad gör vi nu med den? Vi behöver något slags medium för att presentera det, annars gör det oss inget bra. LCD-skärmar har bara ett visst kontrastförhållande och kommer bara att visa så många stopp.

Vad den här TV: n annonserar är att den går utöver konkurrenternas kontrastförhållanden och möjliggör att fler stopp syns.

Det är en gimmick, men om du gör mycket bildspel kan det vara värt det.

Omgivande ljus, 3D, Böjd, 4K ... nu HDR - Jag undrar vilken värdelös guff de kommer ut med nästa år? - Jag har en 5 år gammal HD-plasma och har ännu inte hittat någon anledning att ändra det !! Jag vill fortfarande ha en lukt-o-syn.
Kan vara ett nytt buzzword kopplat till den befintliga gimmicken i bakgrundsbelysta LCD-skärmar (kontra kantbelysta) som varierar belysningsnivån i olika delar av skärmen för att fejka ett högre kontrastförhållande än LCD direkt kan uppnå.
@DigitalLightcraft din plasma har mer exakta svarta (om jag minns rätt) ... mer av en anledning att inte ändra den.
faktiskt, enligt den nya OLED-tekniken, GÖR du ljus per pixel, snarare än att blockera det, som LCD, så tekniskt sett är kontrastförhållandet oändligt :-)
@DigitalLightcraft Jag skapade min egen abilight och att titta på filmer med det är fantastiskt. Jag skulle aldrig betala extra för en TV med den, men mannen är den cool! Böjda TV-apparater är ett skämt, 3D gör bara ont i mitt huvud och 1080p vs 4K är omärkligt för det mänskliga ögat vid någon rimlig skärmstorlek och betraktningsavstånd. Men ambilight är fantastisk!


Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 3.0-licensen som det distribueras under.
Loading...