¿Por qué mi cámara es tan indulgente con la exposición exagerada cuando se dispara en RAW?

15

Descubrí que mi cámara (Sony A99) es muy indulgente en términos de sobreexposición al disparar en RAW. Con eso quiero decir, que puedo sobreexponer por una parada más o menos y cuando llegue a casa para el procesamiento posterior, puedo subexponerlo y recuperar todos los detalles.

Por supuesto, esto no funcionaría en JPEG. No hay datos más allá del área más a la derecha del histograma. Pero no es lo mismo con RAW, los datos vuelven mágicamente al histograma. ¿Por qué? ¿La cámara me reserva un área del histograma en caso de que me equivoque? Si es así, ¿no significa esto que se pierde algo de latitud si disparara correctamente (perfectamente expuesto)?

Además, ¿por qué solo está disponible para sobreexposición? Pero no subexposición? No creo que pueda extraer detalles de las áreas negras trituradas.

erotsppa
fuente

Respuestas:

30

Este es uno de los beneficios que obtienes al disparar sin procesar.

No puede recuperar detalles resaltados o sombreados de un JPEG porque tiene 8 bits de profundidad de color por componente de color, 1 y está mapeado para que el valor de píxel más bajo se interprete como "negro" y el más alto sea "blanco". Simplemente no hay nada debajo del negro o encima del blanco. Los creadores de JPEG hicieron esto porque 8 bpc son adecuados para que los humanos perciban una imagen a todo color adecuadamente expuesta. 2 El ojo humano tiene un rango dinámico mayor que el que permite JPEG, pero no puede ver ese rango completo todo el tiempo. 3

La mayoría de las cámaras con capacidad sin formato son capaces de capturar al menos 10 bpc. 12 bpc + es muy común, y 14 bpc + es posible con los mejores sensores. El truco es, ¿cómo hacer uso de este rango dinámico adicional? Existen varios espacios de diseño para encontrar una solución:

  • Captura y visualización de rango completo

    El medidor de exposición de la cámara podría intentar capturar tanto rango dinámico como sea físicamente posible, y podría intentar mostrarlo todo en la pequeña pantalla en la parte posterior de la cámara. Su software de procesamiento sin procesar también podría intentar mostrarle todo el rango dinámico en el archivo de imagen en la pantalla. Al guardar un JPEG, la cámara podría mapear este rango dinámico completo de la manera obvia, descartando efectivamente los bits menos significativos del sensor.

    Nadie hace esto. 4 4

    Si toma una foto de un arbusto retroiluminado al atardecer, la cámara podría intentar capturar a las hormigas negras en la sombra gris oscura bajo el denso follaje verde oscuro al mismo tiempo que captura los detalles de las manchas solares en el disco solar.

    Las cámaras no hacen esto porque la imagen resultante se vería como barro rayado. Los ojos humanos no tienen el rango dinámico para ver las hormigas y las manchas solares al mismo tiempo, por lo que los cerebros humanos no esperan ver tales cosas. 5 Tampoco tenemos tecnología de visualización lo suficientemente buena como para reproducir una imagen físicamente correcta. 6 6

  • Rebanada desde el medio

    En cambio, la cámara podría simplemente poner su noción de exposición "correcta" justo en el medio del rango, y extraer el JPEG de 8 bits y la vista previa de la pantalla desde el medio del rango. Si su cámara tiene un sensor de 12 bits, podría darle un rango de ajuste de exposición de ± 2 paradas, ya que cada 1 bpc se traduce en 1 parada, en términos fotográficos.

    No creo que sea un mal camino, pero no daría las imágenes más agradables. Las compañías de cámaras que hicieron esto no venderían muchas cámaras.

  • Punto negro y curva gamma

    Un plan mucho mejor es elegir un nivel de brillo en la imagen para llamar al negro 7 y luego elegir una curva gamma para reasignar los datos brutos del sensor en ese rango de 8 bpc.

    Con este método, la cámara y el software de procesamiento sin procesar pueden optar por dejar algunos de los datos sin procesar fuera del rango asignado, de modo que el archivo de imagen sin procesar codifique más negro que negro y más brillante que blanco. Esta es la región de la que está sacando cuando su software de procesamiento sin procesar recupera detalles de luces o sombras.

No existe una autoridad universal que exija qué método utilizar, e incluso si existiera, hay mucha variación en la tecnología existente y aún hay mucho más espacio para una mayor variación. Por ejemplo, los DNG con pérdida utilizan un espacio de color de 8 bpc, pero la forma no lineal en que los datos de la imagen de entrada se asignan a los valores de salida, todavía tiene un poco de rango dinámico para trabajar fuera del rango de visualización normalmente visible.


Notas al pie:

  1. 8 bpc también es llamado "24 bits" por aquellos que prefieren considerar los tres canales necesarios para la imagen en color juntos.

  2. En cualquier momento, el ojo humano tiene menos rango dinámico que el que obtiene de 8 bpc. La única razón por la que utilizamos incluso esa cantidad de bits por canal es que a las computadoras les gusta manejar datos en fragmentos de 8 bits, al igual que las pantallas digitales. Cualquier valor que una variante de 7 bpc o 9 bpc de JPEG pueda tener es eliminado por décadas de inercia histórica que nos empuja a mantenernos con 8.

  3. Si tus ojos pudieran usar su rango dinámico completo todo el tiempo, no tendrías que entrecerrar los ojos por un momento al caminar afuera de una casa con poca luz al mediodía, o al encender la luz de la cama al despertar en la oscuridad.

  4. No tengo dudas de que esto se ha intentado varias veces en laboratorios de investigación. Incluso no me sorprendería saber que el software se ha puesto a disposición del público que hace esto. Si quisiera ser exactamente correcto, tendría que reescribir esa oración a algo menos contundente como "Nadie ha tenido éxito comercialmente en la producción de software o hardware que presente imágenes utilizando este método".

  5. Esta es parte de la razón por la que es difícil hacer un buen HDR .

  6. Y si tuviéramos esa tecnología, no podría mirar el sol en la imagen reproducida, más de lo que podría hacerlo mientras toma la imagen.

  7. O blanco, si lo prefieres. Realmente no importa. Puedes trabajar las matemáticas de cualquier manera.

Warren Young
fuente
1
Aún mejor, el Sony A99 tiene un sensor Exmor, que esencialmente no tiene ISO. Es decir, tirar o empujar una exposición unas pocas paradas en la publicación tiene esencialmente el mismo efecto sobre el ruido que cambiar el ISO en la cámara por la misma cantidad de paradas.
Chinmay Kanchi
3
¡La respuesta actualizada es excepcional!
Lea el perfil
Fascinante. Si disparo RAW y luego importo a Lightroom, ¿estoy utilizando automáticamente los datos sin procesar completos cuando realizo mis ajustes con los diversos controles deslizantes, o necesito involucrarme más con las opciones avanzadas?
Dibujó
Ocasionalmente, un fabricante de cámaras inventará una nueva variante cruda extraña que tiene "características" que no se corresponden con las características del software de procesamiento en bruto de terceros, lo que le obliga a usar el software propio patentado para usar la nueva función. Adobe ha agregado características a Lightroom y ACR para acomodar tales errores varias veces que yo sepa, y probablemente haya hecho mucho más que no he notado. Como regla general, no necesita sentirse excluido de nada realmente importante con Lightroom.
Warren Young
@ AndrewHeath Sí. Cuando filmo sin flash en interiores con mi Canon, a menudo obtengo ventanas blancas en la imagen predeterminada inicial y en la versión jpeg de la cámara, pero luego deslizo "reflejos" hacia abajo y de repente veo todos los verdes en el jardín exterior y el cielo azul.
Michael Nielsen
5

El histograma que muestra su cámara se basa en la vista previa de JPEG en la cámara generada cuando guarda un archivo RAW. En la vista previa, los datos se han ido y no se pueden recuperar. Sin embargo, la información todavía está allí en el archivo RAW.

La mayoría de las cámaras usan cerca de 12 a 14 bits por canal de color, pero el estándar JPEG solo permite 8 bits por canal. Cuando muestra su archivo RAW en su computadora, la pantalla también está limitada a 8 bits por canal de color. Lo mismo está sucediendo en su computadora que sucede en la pantalla de vista previa de la cámara y en el histograma. Al cambiar la exposición en el procesamiento posterior, cambia qué ocho de los 12-14 bits por canal de color se muestran realmente en el monitor. Al ajustar las curvas de tono, incluso puede exprimir más de ese rango dinámico en solo 8 bits.

Michael C
fuente
3

El rango dinámico es la diferencia entre la parte más oscura y más brillante de una imagen. Los archivos JPEG deben representar cada color con 8 bits de información donde, en bruto, pueden usar más bits (por lo tanto, más valores posibles).

Hay dos opciones sobre cómo la cámara puede resolver la diferencia en profundidad de bits. Puede representar una variación menor para cada valor (pasos más pequeños) o puede representar un rango dinámico más amplio. También podría hacer alguna combinación en el medio.

Para las cámaras que tienen un amplio rango dinámico para el sensor, el JPEG normalmente se enfocará alrededor de solo una parte del rango dinámico para proporcionar gradientes suaves con un número limitado de valores posibles. Sin embargo, el archivo sin formato cubrirá el rango dinámico completo del sensor y, por lo tanto, puede almacenar información que de otro modo estaría fuera del rango para el JPEG (porque excede el valor máximo de 8 bits).

Ese margen adicional en el archivo RAW le permite cambiar los puntos hacia abajo en el rango que puede expresarse mediante un JPEG que produce manualmente más tarde a través de una utilidad RAW.

AJ Henderson
fuente
0

¿Línea de fondo? Está preguntando acerca del uso de la asignación completa de rango dinámico de su cámara, que, de hecho, excede lo sugerido por el ancho del marco de histograma ajustado a JPEG de su A99.

Aquí hay un tutorial publicado en UglyHedgehog que aborda ese problema preciso.

http://www.uglyhedgehog.com/t-372364-1.html

Dave
fuente