¿Cuál es la diferencia entre "HDR falso" y HDR de exposición real entre paréntesis?

10

Cuando comencé a repasar mis habilidades de fotografía de paisajes, me encontré con el problema polarizador (juego de palabras) de la fotografía HDR. Más específicamente, me encontré con una publicación de blog bien escrita titulada " Is a Lightroom HDR" Effect ", Really HDR? ". Para citar la publicación:

Vi esta publicación el otro día en 500px (enlace: http://500px.com/photo/8023755 ) y me hizo preguntarme. El fotógrafo, José Barbosa (cuyo trabajo creo que es fabuloso por cierto), escribió "No HDR" al lado de su foto. Pero la foto (al menos para mí) parece una foto HDR. (...) Cavé un poco en los metadatos de su foto y vi un montón de trabajo de pincel de ajuste realizado con Clarity (Básicamente, el control deslizante del efecto HDR en Lightroom). Y en los comentarios en la publicación de 500px, el fotógrafo mismo escribió "procesamiento en Lightroom y Viveza 2". (...)

Mi punto (y una pregunta para usted) es si HDR (eso no es realmente HDR), ¿sigue siendo HDR? ¿No se ha convertido simplemente HDR en un efecto? Un poco como Black & White o el efecto de procesamiento cruzado. ¿Todavía necesitamos 3 o 5 o 7 fotos entre corchetes que se procesaron en un programa como Photomatix, para clasificar una imagen como una foto HDR oficial? ¿O es HDR simplemente el efecto de resaltar más detalles en las sombras y los reflejos (y quizás un poco de aspecto arenoso / surrealista)?

Parece que tengo la misma pregunta que el autor: ¿Cuál es realmente la diferencia entre estos efectos "falso hdr" añadidos a través de, digamos, el ajuste de claridad de lightroom, junto con una recuperación de sombra / resaltado en oposición al HDR "real" que involucra exposiciones entre paréntesis en + / - n EV? ¿Hay ruido adicional en el método "falso"? ¿Hay alguna diferencia (notable) en absoluto? En una nota similar, ¿hay alguna razón para tomar una imagen hdr si solo podemos usar la recuperación de sombra / resaltado para exponer uniformemente toda la escena?

rubikscube09
fuente

Respuestas:

22

¿Cuál es la diferencia entre "HDR falso" y HDR de exposición real entre paréntesis?

La única diferencia es qué tan amplia o estrechamente decides definir el término Imágenes de alto rango dinámico (HDR). ¿Utiliza el término más amplio, ya que históricamente se ha utilizado durante más de 150 años para referirse a las técnicas utilizadas para mostrar una escena con un rango dinámico más alto que el rango dinámico del medio de visualización? ¿O insiste en una definición muy estrecha que utiliza técnicas que solo han existido durante un par de décadas para argumentar que la única definición legítima de HDR es una versión de mapa de tonos de 8 bits de un mapa de luz de coma flotante de 32 bits creado por combinando múltiples exposiciones entre corchetes? Eso es practicamente todo.

HDR, ya que el término se usa comúnmente hoy en día, es solo una forma de imágenes de alto rango dinámico (HDRI) que ha estado ocurriendo desde al menos la década de 1850.

Gustave Le Gray tomó múltiples exposiciones a diferentes valores de exposición para crear paisajes marinos que utilizaron el cielo brillante de una placa de vidrio negativa y el mar y la costa más oscuros de otra.

El sistema de zonas al disparar y desarrollar y el mapeo de tonos realizado en el cuarto oscuro a mediados del siglo XX fue elevado a una forma de arte por Ansel Adams y otros, ya que utilizaron tiempos de revelado y esquivando y quemando impresiones para reducir el rango dinámico total de un escena de lo que los papeles fotográficos que estaban usando eran capaces de mostrar.

En el ámbito de la fotografía digital, existen múltiples técnicas utilizadas para representar una escena con un alto rango dinámico utilizando un medio, como un monitor de computadora o una impresión, que no es capaz de un contraste tan grande entre las partes más brillantes y más oscuras de una escena. como la escena misma contiene. Lo que muchas personas quieren decir cuando dicen que HDR es solo una de esas técnicas entre muchas.

Aunque lejos de ser el único legítimo, el entendimiento más común hoy en día del término HDRes lo que surgió de las ideas introducidas por primera vez en 1993 que dieron como resultado una teoría matemática de imágenes expuestas de manera diferente del mismo tema publicado en 1995 por Steve Mann y Rosalind Picard. Crea un mapa de luz de alto rango dinámico a partir de múltiples imágenes digitales expuestas a diferentes valores utilizando solo operaciones de imagen global (en toda la imagen). El resultado es a menudo una 'imagen' de coma flotante de 32 bits que ningún monitor o impresora es capaz de reproducir. Luego se debe asignar el tono reduciendo el contraste general al tiempo que se preserva el contraste local para que se ajuste al rango dinámico del medio de visualización. Esto a menudo conduce a artefactos en las transiciones entre áreas de valores altos de luminancia y áreas de valores bajos de luminancia. (Incluso cuando abre un archivo 'crudo' de 12 bits o 14 bits en su aplicación de fotografía en la computadora, lo que ve en la pantalla es una representación de 8 bits del archivo crudo demosaiced, no el monocromático real filtrado por Bayer 14 archivo de bits. A medida que cambia la configuración y los controles deslizantes, los datos 'en bruto' se reasignan y se procesan nuevamente en 8 bits por canal de color).

Cuando las técnicas descritas por Mann y Picard se aplicaron por primera vez en las principales aplicaciones de imágenes a nivel del consumidor, esas aplicaciones generalmente requerían que las imágenes estuvieran en formato jpeg. Un poco más tarde, si desea ser realmente exótico, puede encontrar un programa que le permita usar TIFF. A menudo, los usuarios toman un solo archivo sin formato, crean una serie de archivos JPEG a partir del archivo único con algo como -2, 0, +2 de exposición / diferencias de brillo y luego los combinan usando el programa HDR. Incluso un archivo sin formato de 12 bits puede contener tanto rango dinámico como una serie de jpegs -2, 0, +2. Un archivo sin formato de 14 bits puede contener la información equivalente a la de una serie de archivos JPEG -3, 0, +3. Recientemente, la mayoría de las aplicaciones HDR basadas en la creación de mapas de luz de punto flotante permitieron el uso de datos de archivos sin formato como punto de partida.

En el uso más amplio de los términos HDR (o HDRI ), también se incluyen otros procesos que no involucran mapas de luminancia de 32 bits y la necesidad de mapeo de tonos. Combinar diferentes áreas de diferentes exposiciones de la misma escena, ya sea a través de un 'cortar y pegar' físico como lo hizo Le Gray hace más de 150 años o mediante modernas aplicaciones de imágenes digitales que usan capas, es una forma. Otras técnicas, como Exposición Fusión o Mezcla Digitaldigitalmente realice ajustes globales de una manera que no requiera el mismo tipo de mapeo de tonos que un mapa de luz de coma flotante de 32 bits. Como se mencionó anteriormente, muchas de las técnicas utilizadas en el cuarto oscuro para producir impresiones de películas expuestas en el siglo XX fueron un medio para mostrar escenas con un rango dinámico muy amplio utilizando papel fotográfico que tenía la capacidad de un rango dinámico más bajo que la película negativa solía capturar la escena. Lo mismo es cierto de estas variadas técnicas digitales.

Incluso convirtiendo un archivo sin procesar de 14 bits, donde los datos para cada píxel solo tienen un valor de luminancia pero no colores reales, y el uso de algoritmos de demostración para interpolar un valor de color rojo, verde y azul de 8 bits por canal de color para cada píxel en los diferentes valores de luminancia de píxeles adyacentes que se filtran usando una máscara Bayer con patrones alternos de rojo, verde y azul se puede considerar HDRI , especialmente cuando se aplican curvas de tono de forma irregular a los valores RGB resultantes.

Michael C
fuente
5

En mi opinión, es tan simple como esto: una foto HDR es una foto en la que intentas mostrar los detalles en cada parte de una escena con un alto rango dinámico. Después de todo, eso es lo que el nombre "HDR" dice por sí mismo.

Ahora, ¿qué es un alto rango dinámico? Es cuando las partes sombreadas de la imagen son mucho más oscuras que las partes brillantes de la imagen. Históricamente, uno tomaría múltiples fotos con diferentes exposiciones para capturar los detalles en cada parte de la escena, porque las cámaras no tenían la capacidad de capturar un alto rango dinámico. Hoy en día, la cámara puede capturar fácilmente 14 paradas de exposición (lo que significa que el detalle en el tono más oscuro es 2 ^ 14 veces menos luz física que los tonos más brillantes que la cámara puede capturar) (por ejemplo: la Nikon D750 tiene 14.5 paradas de rango dinámico ) Esto es mucho, y en más situaciones que antes, lo suficiente como para lograr el mismo efecto de una "foto HDR" con múltiples exposiciones. En resumen, las cámaras han mejorado en la captura de grandes rangos, y por lo tanto, la necesidad de múltiples fotos de diferentes exposiciones ha disminuido, pero eso no hace que no sea HDR. Para concluir, la foto en 500px que vinculaste es definitivamente una foto HDR, ya que puedes ver que puedes ver muchos detalles en todas las partes de la imagen para una escena con originalmente mucho rango dinámico.

Martijn Courteaux
fuente
1

si solo podemos usar la recuperación de sombra / resaltado para exponer uniformemente toda la escena

Esto depende del rango dinámico de la escena que está intentando capturar y del rango dinámico que el sensor puede capturar.

Si apenas obtiene detalles en las sombras cuando expone para no soplar los reflejos, necesita múltiples exposiciones.

Si puede obtener suficientes detalles en las sombras (con niveles de ruido mínimos o aceptables) y al mismo tiempo preservar los reflejos, puede estar satisfecho con la captura y el ajuste de una sola foto.

D. Jurcau
fuente
0

Mi respuesta será una especie de forma práctica y experimental de obtener la comprensión.

  1. Vaya al lugar como la ciudad con el edificio y la calle donde puede mirar el sol o el cielo en el día soleado directamente, o para ir al lugar donde, por ejemplo, hay un bosque y también puede ver el sol o el sol. cielo.

  2. Mire (usando sus propios ojos) los edificios o los árboles.

  3. Mire hacia el cielo o de cerca al sol (más bien no mire directamente al sol).

Puedes observar cómo se adaptan los ojos. Puedes ver tanto los árboles como el cielo.

  1. Tome su cámara cuando tenga la opción de visualización en vivo, puede encenderla.

  2. Enfoca tu cámara en los mismos puntos que habías mirado.

Verá que la cámara no puede efectivamente en una y la única exposición obtiene la vista del cielo y los objetos más oscuros. Incluso si filmará la escena con una especie de configuración de exposición promedio, hay lugares que serán negros y algunos blancos (poco saturados y sobresaturados). Incluso si intenta reducir o aumentar localmente la exposición en el software especializado (hay muchos), no habrá forma de obtener la forma y los colores de los blancos y los negros.

Es la realidad. Los sensores actuales no son tan avanzados como los ojos. Por cierto, por el bien de la técnica, también es una característica deseada, que se utiliza en fotografía de clave baja y clave alta.

Continuemos el experimento.

  1. Si puede tomar un par de fotos para obtener más información y luego fusionarlas en el software HDR más tarde, combinará toda la información de todas las fotos.

  2. Lo mejor es tomar más imágenes con un paso EV más pequeño, cuando la escena es estática. Si hay objetos en movimiento, habrá una especie de compensación entre el menor número de disparos y el paso EV.

Dependiendo de la situación, puede disparar desde 3 imágenes +/- 1EV o 3 con + / 2EV hasta 9 o más disparos +/- 0.5EV o incluso +/- 2EV.

También es importante cómo haces el cambio EV. Básicamente, la forma más popular es aumentar o disminuir el tiempo de obturación. Con algunos límites, uno puede usar cambios ISO para obtener lo mismo, pero con valores ISO altos, las imágenes son más ruidosas. Cambiar la apertura hace que las imágenes sean difíciles de combinar, y los efectos son interesantes (diría que artísticos o conceptuales). Por supuesto, uno puede usar filtros ND, para extender su propio rango EV: intente usar algunos filtros extremos como ND 3.0.

Finalmente, cuando el conjunto de imágenes está bien preparado y con una gama realmente amplia de EV, el resultado HDR será sorprendente y no hay forma de falsificarlo desde una sola imagen, ya que la imagen única definitivamente tendrá menos información.

Comentarios finales.

Este tipo de escena se puede capturar con el filtro de gradiente, pero HDR es más general, especialmente cuando el borde entre los lugares claros y oscuros no es lineal.

Recomiendo usar trípode para cualquier experimento con HDR :-).

Seweryn Habdank-Wojewódzki
fuente
0

Hay una idea errónea de "HDRI"

Una imagen de alto rango dinámico tiene más rango dinámico que una imagen normal. Parecía una explicación bastante floja, pero eso es lo que es.

Aquí hay algunas animaciones que hice explicando qué es un Hdri: http://www.otake.com.mx/Apuntes/Imagen/EnviromentMaps/Index.html#HighDynamicRangeImages

La idea errónea es que una parte del proceso de manipulación de estas imágenes, llamada mapeo de tonos, es lo mismo que la imagen Hdri en sí. No lo es. Una imagen de Hdri realmente contiene más información. Soleados exteriores e interiores oscuros juntos.

Para poder ver esa información nuevamente en un monitor normal, la imagen Hdr tiene que ser "remapeada". Una imagen mapeada de tonos tiene un tipo específico de contraste. No es un contraste general sino un contraste en zonas adyacentes. Ahora puede ver nubes contrastadas e interiores oscuros contrastados, por ejemplo.

El punto es que puedes tomar una foto normal (sin corchetes involucrados) y mapearla por tonos, para que puedas tener el aspecto "hdri".

Aquí hay 3 brotes. Uno es mapeado por tonos de un conjunto de 3 fotos entre corchetes (HDRI real pero ahora mapeado por tonos en una imagen de 8 bits)

El segundo es un tono mapeado de una sola sesión.

El tercero es solo el disparo único normal, pero mueve mucho los niveles, para revelar información adicional sobre el cielo que no vimos antes.

El punto es que una foto normal se puede manipular, esquivar y quemar para lograr una apariencia similar y contrastada en una foto.

Aquí están las fotos originales entre corchetes. La utilizada para (2) y (3) es la Ev0:

Alguna información está oculta allí. Pero cuando se procesa puede quedar en bandas, porque tiene información limitada en los píxeles. Para evitar las bandas, es mejor si tiene más información, más niveles de tonos claros y más niveles en sombras ... Es por eso que tomó las imágenes entre corchetes.

El punto es similar a esta publicación: ¿Cuál es el punto de capturar imágenes de 14 bits y editar en monitores de 8 bits? Más niveles de información es mejor en la edición de imágenes.

Rafael
fuente