¿Cuál es la diferencia entre "HDR falso" y HDR de exposición real entre paréntesis?
La única diferencia es qué tan amplia o estrechamente decides definir el término Imágenes de alto rango dinámico (HDR). ¿Utiliza el término más amplio, ya que históricamente se ha utilizado durante más de 150 años para referirse a las técnicas utilizadas para mostrar una escena con un rango dinámico más alto que el rango dinámico del medio de visualización? ¿O insiste en una definición muy estrecha que utiliza técnicas que solo han existido durante un par de décadas para argumentar que la única definición legítima de HDR es una versión de mapa de tonos de 8 bits de un mapa de luz de coma flotante de 32 bits creado por combinando múltiples exposiciones entre corchetes? Eso es practicamente todo.
HDR, ya que el término se usa comúnmente hoy en día, es solo una forma de imágenes de alto rango dinámico (HDRI) que ha estado ocurriendo desde al menos la década de 1850.
Gustave Le Gray tomó múltiples exposiciones a diferentes valores de exposición para crear paisajes marinos que utilizaron el cielo brillante de una placa de vidrio negativa y el mar y la costa más oscuros de otra.
El sistema de zonas al disparar y desarrollar y el mapeo de tonos realizado en el cuarto oscuro a mediados del siglo XX fue elevado a una forma de arte por Ansel Adams y otros, ya que utilizaron tiempos de revelado y esquivando y quemando impresiones para reducir el rango dinámico total de un escena de lo que los papeles fotográficos que estaban usando eran capaces de mostrar.
En el ámbito de la fotografía digital, existen múltiples técnicas utilizadas para representar una escena con un alto rango dinámico utilizando un medio, como un monitor de computadora o una impresión, que no es capaz de un contraste tan grande entre las partes más brillantes y más oscuras de una escena. como la escena misma contiene. Lo que muchas personas quieren decir cuando dicen que HDR es solo una de esas técnicas entre muchas.
Aunque lejos de ser el único legítimo, el entendimiento más común hoy en día del término HDRes lo que surgió de las ideas introducidas por primera vez en 1993 que dieron como resultado una teoría matemática de imágenes expuestas de manera diferente del mismo tema publicado en 1995 por Steve Mann y Rosalind Picard. Crea un mapa de luz de alto rango dinámico a partir de múltiples imágenes digitales expuestas a diferentes valores utilizando solo operaciones de imagen global (en toda la imagen). El resultado es a menudo una 'imagen' de coma flotante de 32 bits que ningún monitor o impresora es capaz de reproducir. Luego se debe asignar el tono reduciendo el contraste general al tiempo que se preserva el contraste local para que se ajuste al rango dinámico del medio de visualización. Esto a menudo conduce a artefactos en las transiciones entre áreas de valores altos de luminancia y áreas de valores bajos de luminancia. (Incluso cuando abre un archivo 'crudo' de 12 bits o 14 bits en su aplicación de fotografía en la computadora, lo que ve en la pantalla es una representación de 8 bits del archivo crudo demosaiced, no el monocromático real filtrado por Bayer 14 archivo de bits. A medida que cambia la configuración y los controles deslizantes, los datos 'en bruto' se reasignan y se procesan nuevamente en 8 bits por canal de color).
Cuando las técnicas descritas por Mann y Picard se aplicaron por primera vez en las principales aplicaciones de imágenes a nivel del consumidor, esas aplicaciones generalmente requerían que las imágenes estuvieran en formato jpeg. Un poco más tarde, si desea ser realmente exótico, puede encontrar un programa que le permita usar TIFF. A menudo, los usuarios toman un solo archivo sin formato, crean una serie de archivos JPEG a partir del archivo único con algo como -2, 0, +2 de exposición / diferencias de brillo y luego los combinan usando el programa HDR. Incluso un archivo sin formato de 12 bits puede contener tanto rango dinámico como una serie de jpegs -2, 0, +2. Un archivo sin formato de 14 bits puede contener la información equivalente a la de una serie de archivos JPEG -3, 0, +3. Recientemente, la mayoría de las aplicaciones HDR basadas en la creación de mapas de luz de punto flotante permitieron el uso de datos de archivos sin formato como punto de partida.
En el uso más amplio de los términos HDR (o HDRI ), también se incluyen otros procesos que no involucran mapas de luminancia de 32 bits y la necesidad de mapeo de tonos. Combinar diferentes áreas de diferentes exposiciones de la misma escena, ya sea a través de un 'cortar y pegar' físico como lo hizo Le Gray hace más de 150 años o mediante modernas aplicaciones de imágenes digitales que usan capas, es una forma. Otras técnicas, como Exposición Fusión o Mezcla Digitaldigitalmente realice ajustes globales de una manera que no requiera el mismo tipo de mapeo de tonos que un mapa de luz de coma flotante de 32 bits. Como se mencionó anteriormente, muchas de las técnicas utilizadas en el cuarto oscuro para producir impresiones de películas expuestas en el siglo XX fueron un medio para mostrar escenas con un rango dinámico muy amplio utilizando papel fotográfico que tenía la capacidad de un rango dinámico más bajo que la película negativa solía capturar la escena. Lo mismo es cierto de estas variadas técnicas digitales.
Incluso convirtiendo un archivo sin procesar de 14 bits, donde los datos para cada píxel solo tienen un valor de luminancia pero no colores reales, y el uso de algoritmos de demostración para interpolar un valor de color rojo, verde y azul de 8 bits por canal de color para cada píxel en los diferentes valores de luminancia de píxeles adyacentes que se filtran usando una máscara Bayer con patrones alternos de rojo, verde y azul se puede considerar HDRI , especialmente cuando se aplican curvas de tono de forma irregular a los valores RGB resultantes.