Estoy un poco confundido acerca de cómo funciona HDR (en TV). A mi modo de ver, se utilizan múltiples imágenes del mismo marco para crear una imagen que muestra mejores detalles en áreas con poca luz y mucha luz del marco.
¿Por qué la televisión tiene que hacer algo al respecto? ¿No deberían preprocesarse todas las películas que tienen HDR de esta manera para que la película resultante se vea exactamente como debería? ¿O HDR en TV realmente significa que estas múltiples imágenes por fotograma están disponibles para el televisor y el televisor descubre cómo combinarlas?
terminology
hdr
Ivo Beckers
fuente
fuente
Respuestas:
La respuesta de James Snell es bastante incorrecta al decir que la foto y la pantalla HDR no están relacionadas. Ambos se refieren exactamente a lo mismo: mayor profundidad de bits. Cuando crea una imagen HDR, utiliza las exposiciones múltiples para crear una imagen HDR verdadera que tiene una profundidad de bits mayor que la que puede reproducir una pantalla normal. Debido a esta limitación, normalmente hace un mapa de tonos de la imagen HDR real en el espacio de bajo rango dinámico de una pantalla normal.
Lo que permite una pantalla HDR es mostrar la imagen HDR de forma nativa sin el paso de mapeo de tonos (suponiendo que la profundidad de bits de la pantalla sea mayor o igual que la de la imagen), mientras que en una pantalla normal solo puede ver un Imagen HDR simulada.
tl; dr HDR = mayor profundidad de bits en ambos contextos. No es un significado diferente en absoluto.
fuente
HDR-TV es (aún) otro estándar de transmisión de video. La gama de colores es más amplia (ver rec 2020 vs rec 709 ) pero también lo es la resolución. Se supone que el estándar es compatible con versiones anteriores, lo que significa que solo verá los beneficios de la gama más amplia si tiene un televisor que lo admite, pero si no lo hace, aún podrá ver la transmisión en la gama más estrecha. El estándar necesariamente expandirá el ancho de banda requerido para transportar o transmitir la señal.
HDR-TV (rec 2020) también define dos resoluciones de píxeles (4K y 8K de ancho de píxeles) que son más altas que la resolución estándar de HD-TV que está más cerca de 2K píxeles de ancho. El estándar está en su infancia y probablemente evolucionará a través de varias generaciones antes de que madure. Los revisores suelen estar impresionados con la amplia gama y han dicho que HDR-TV es una mejora de la calidad mucho más notable que la resolución más alta sola.
HDR-TV proporciona la gama de colores UHDTV como se muestra en la imagen adjunta. Esencialmente, se reduce a una profundidad de bits de 8 bits por canal de color para rec 709 y 10 o 12 bits por canal de color para rec 2020).
ACTUALIZAR
A partir de julio de 2016, otro estándar ha entrado en la industria (rec 2100). Rec 2020 y rec 2100 cuentan con la misma amplia gama de colores (WCG) y, por lo general, los colores adicionales están implícitos cuando se menciona HDR. Sin embargo, se vuelve más confuso que eso.
Tanto rec 2020 como rec 2100 admiten velocidades de fotogramas desde 23.976 hasta 120 y solo fotogramas progresivos, nunca entrelazados con los que puede estar familiarizado. Esta es otra mejora con respecto a la rec 709 que solo era de hasta 60p.
Rec 2020 solo define 2 resoluciones 4K (3840x2160) y 8K (7680x4320), mientras que rec 2100 también define 2K (1920x1080), lo que brinda una gama de colores más amplia a lo que ya llamamos HD.
Los formatos de señal para rec 2020 incluyen RGB e YCbCr, mientras que rec 2100 también define un tercer formato, ICtCp que proporciona una representación de color mejorada. En particular, rec 2100 define dos funciones de transferencia óptica que son diferentes de rec 2020; cuantificación perceptiva (PQ) y Hybrid Log-Gamma (HLG).
No estoy seguro de cuándo sucedió esto, pero parece que hoy en día se hace referencia a rec 2020 (al menos en Wikipedia) como rango dinámico estándar (SDR) y rec 2100 es rango dinámico alto (HDR), pero desde la televisión UHDTV "HDR" los conjuntos existían antes del lanzamiento de rec 2100, es posible que su conjunto "HDR" admita rec 2020 y no rec 2100.
Además, tanto rec 2020 como rec 2100 pueden representar los mismos colores dentro del triángulo del diagrama de cromaticidad CIE 1931 que se muestra arriba, lo que es diferente es la función de transferencia óptica y la rampa gamma, en otras palabras, la función que convierte la señal en color es diferente.
¿Es eso lo suficientemente confuso?
fuente
Esta es una de esas muchas veces cuando los términos / acrónimos son aplicados por diferentes audiencias a diferentes cosas.
Se refiere a la composición de imágenes y el mapeo de tonos para exceder el rango estándar del sensor como HDR. La industria electrónica lo está utilizando para referirse a la especificación HDMI HDR que permite una mayor profundidad de bits, aparte de la redacción detrás del acrónimo, no hay relación entre los dos.
fuente
HDRI vs HDR para TV
La respuesta corta es que los términos tienen un significado sustancialmente diferente, tanto técnica como subjetivamente. Sin embargo, HDR para TV ciertamente no es solo un término de marketing, y no puedo pensar en un término más apropiado para lo que ofrecen los televisores con HDR.
Antecedentes
Comencé a trabajar con imágenes de alto rango dinámico para la producción de películas en Digital Domain basadas en el trabajo de Greg Ward Larson y Paul Debevec en 1999. Creo que fui el primero en desarrollar un proceso para iluminar imágenes generadas por computadora con imágenes HDR en tiempo real usando convoluciones esféricas preprocesadas de mapas de entorno HDR (chico que tiene la boca llena). Si no recuerdo mal, Paul hizo un artículo sobre HDR en tiempo real en 2001, por lo que probablemente había varias personas que estaban haciendo cosas similares en ese momento. En el mismo año, 2001, hice un panel sobre el futuro del color en SIGGRAPH con Roger Deakins originalmente, pero Allen Daviau completó el último momento cuando Deakins fue llevado a "A Beautiful Mind". También en el panel estaban Neil Robinson (entonces de ILM) y Beverly Wood de Deluxe Laboratories. Así que he estado involucrado con HDR como se definió originalmente desde muy cerca del principio, y tuve la oportunidad de aprender de algunas personas increíblemente talentosas.
En lo que respecta al uso de HDR para televisores y canales de distribución de consumidores modernos, recientemente tuve la oportunidad de trabajar con Jenz Merrill, quien está a cargo de la tubería HDR para Amazon Instant Video, que es la primera entrega comercial de HDR, y yo ' También soy buen amigo de Thad Beier, director de flujo de trabajo de la plataforma de imágenes de Dolby Labs.
Aunque no estoy directamente involucrado en el trabajo en Amazon o Dolby Labs, y solo para que quede claro que son flujos de trabajo diferentes, he visto lo que se está haciendo y puedo decir que los resultados son espectaculares.
Un ejemplo de "Mozart en la jungla"
Recientemente he visto parte del trabajo que Amazon ha realizado en Technicolor, y es hermoso. En la suite de colores, Technicolor tenía un monitor HDR junto a un monitor HD estándar, ambos calibrados perfectamente, y ambos se veían hermosos. Se destaca una toma en particular de "Mozart en la jungla". La toma está dentro de una biblioteca y en el monitor HD de grado de estudio perfectamente calibrado , es hermoso, colores cálidos, excelente composición, en general, una toma fantástica. Sin embargo, en el monitor HDR es impresionante.
Este es el por qué:
Por lo general, un televisor de alta definición muy bueno puede emitir hasta 400 nits de brillo (una liendre es equivalente a una candela o potencia de vela por metro cuadrado). Estoy viendo esta página web en una pantalla Retina de MacBook Pro con brillo completo y las revisiones dicen que son alrededor de 300 nits. ¡Me dijeron que el monitor HDR que vi en Technicolor tenía 1100 liendres! No solo porcentajes más brillantes, sino casi 4 veces más brillantes que mi MacBook pro, y casi 3 veces más brillantes que un televisor HD de alta gama.
Aún más dramático es el hecho de que este brillo adicional no tiene el costo de aumentar el brillo de las áreas oscuras de la imagen. Esto se conoce correctamente como ira dinámica, no simplemente brillo o contraste.
Es difícil internalizar realmente las diferencias entre las pantallas sin verlas una al lado de la otra, porque no se trata simplemente de mostrar más latitud de exposición en la imagen. Puede hacerlo en cualquier pantalla con cualquier brillo comprimiendo el rango dinámico en el rango visualizable. Un monitor HDR muestra elementos oscuros del marco como libros en una estantería en la sombra con una salida de luz general muy similar a un monitor HD, y un elemento brillante como una pared blanca también con una salida de luz general muy similar a la del monitor HD. Lo que es diferente es que el monitor HDR puede seguir funcionando en ambas direcciones.
HDR en TV
Volver a la foto de "Mozart en la jungla". Entre los monitores, los libros oscuros se ven casi iguales y las paredes claras se ven casi iguales, pero la vidriera en el fondo es completamente diferente. En el monitor de alta definición, la ventana florece en una sobreexposición brillante que se ve exactamente como lo que esperaría al disparar en una habitación oscura con una ventana brillante. El HDR monitor de embargo que golpea el brillo y más, mostrando los colores de la ventana de vidrio de soporte no por aplastamiento de la luminosidad en un rango visualizable sino por, literalmente, dar salida a más luz. Con hasta 1100 liendres, los colores de esa ventana de vidrio son explosivos.
Mientras estaba sentado en esa habitación con varias pantallas que mostraban la misma toma, la vidriera del monitor HDR era con mucho la cosa más brillante de la habitación, y los colores eran increíbles. Además de esto, los elementos más oscuros en esa imagen en las sombras de las estanterías son algunas de las cosas más oscuras de la habitación, pero los colores y detalles aún son visibles. Es algo asombroso de ver.
HDR para TV no es una mejora técnica que parece una basura como la alta velocidad de fotogramas y el suavizado de movimiento, o un juego de números que es más o menos superfluo para imágenes de tamaño de TV como 4k vs 2k. HDR como salida de luz realmente más alta, es una mejora real tanto creativa como técnicamente.
HDR en imágenes (HDRI)
Entonces, ¿cuál es la diferencia? La diferencia es que la forma en que usamos HDR para capturar y manipular imágenes originalmente tenía la intención principal de registrar valores de luz absolutos fuera de cualquier concepto de capacidad de visualización. Son los efectos secundarios de esa captura los que son visibles. Por ejemplo, la capacidad de usar una imagen como fuente de luz en una representación cg porque las fuentes de luz capturadas en la imagen HDR se registran con sus valores reales y en la proporción adecuada a la luz reflejada en la imagen, como paredes y piso.
Típicamente, la diferencia entre la salida de luz de una fuente de luz y la de una superficie de reflexión como una pared blanca es de muchos órdenes de magnitud. Incluso un televisor HDR de 1100 nit es incapaz de representar estos rangos literalmente en la mayoría de los casos, y es dudoso que lo desee. Lo que se muestra es la latitud adicional que ha sido parte de la imagen todo el tiempo, incluida y especialmente la película, pero que no se puede mostrar en el resultado final sin tener efectos negativos en el 'aspecto' de la imagen, como reducir el contraste. Esto nos da latitud de procesamiento posterior para mover la exposición hacia arriba y hacia abajo y ajustar el color sin demasiados artefactos en áreas brillantes u oscuras.
Como es el caso con la toma de los televisores HDR "Mozart in the Jungle" y los nuevos estándares como REC 2020 para TV y P3 para cine digital están entregando más de lo que ya se capturó en la latitud extendida (hombro y cura) del película o sensor utilizado. A diferencia de HDRI, nada de esto requiere un proceso de captura significativamente diferente. Aunque, los DP y los directores definitivamente querrán comenzar a tenerlo en cuenta. De manera similar, la HD tuvo un impacto en el departamento de maquillaje.
Cómo evaluar un televisor HDR
Las escenas con bajo contraste, como los personajes que hablan en una toma interior normalmente iluminada, deben aparecer casi idénticas incluso en una comparación de lado a lado (dar o tomar brillo general). Las tomas como esta pueden demostrar un color mejorado en un televisor HDR, pero las diferencias generalmente serán demasiado sutiles para notarlas. Escenas con fuentes de luz visibles o uso dramático del color; exteriores de día con cielo, escenas de clubes nocturnos con luces de neón y escenario, casi cualquier cosa de David Fincher, todo se verá dramáticamente diferente en los televisores HDR, pero no porque el contraste se haya aumentado, el contraste debería parecer más o menos lo mismo que un buen Televisor de alta definición, las sombras y las luces van más allá.
El contenido existente (REC 709) debería verse generalmente igual entre los televisores HD y HDR. Si no lo hacen, algo está mal con la configuración de uno o ambos. El color de la publicación debe rehacerse para incluir el rango adicional, y solo eso muestra el poder real de los televisores HDR.
fuente
* olfateo * Huelo una táctica de marketing.
Entonces, comencemos con HDR: ¿qué es? Una imagen HDR se trata de aumentar el contraste dinámico en una imagen y, por lo tanto, el número de paradas. Hay diferentes formas de capturar esto, pero puede buscarlo en el sitio.
Entonces tenemos nuestra imagen HDR, ¿ahora qué hacemos con ella? Necesitamos algún tipo de medio para presentarlo, de lo contrario no nos sirve de nada. Las pantallas LCD solo tienen una cierta relación de contraste y solo mostrarán tantas paradas.
Lo que anuncia este televisor es que va más allá de las relaciones de contraste de los competidores y permite que se vean más paradas.
Es un truco, pero si haces muchas presentaciones de diapositivas, entonces valdrá la pena.
fuente