¿Cómo aumenta el software la exposición en el posprocesamiento?

9

¿Alguien sabe de algún algoritmo o puede explicar matemáticamente cómo se ejecuta el brillo (EV) en el procesamiento posterior? ¿Ajusta el nivel de brillo / RBG / contraste para cada píxel? ¿Se relaciona con el histograma?

¿Cuáles son los aspectos técnicos de la compensación de exposición para una imagen subexpuesta en el procesamiento posterior?

EDITAR: En esta pregunta aquí, se publicó un enlace. Tiene ejemplos de cambio de EV y se mueve hacia la izquierda / derecha. En la respuesta de Matt Grumm, afirma que cada píxel se "multiplica" (lo que en mi opinión indica que el histograma se mueve hacia arriba / abajo).

¿Alguien puede explicar por qué este es el caso? (Ese EV cambia de izquierda a derecha)

BBking
fuente
¿Quiere restringir esta pregunta a esos productos particulares de Adobe, o está interesado en los ajustes de exposición en el procesamiento posterior en general?
Lea mi perfil el
posible duplicado de ¿Qué significa iluminar una imagen?
Itai
2
Lo he leído dos veces y todavía me parece una pregunta bastante confusa. ¿Podrías reformular para eliminar algunas de las partes más discursivas y enfocarte claramente en tu pregunta central?
Mark Whitaker
@mattdm Sí, en general. Itai un poco no realmente. :) Mark Whitaker lo hará. (Me dijeron que no puedo en más de una persona)
BBking
@ Mark Whitaker ¿Ya lo he dejado más claro?
BBking

Respuestas:

6

Sé que todos nos entusiasmamos por tener cámaras digitales, pero el hecho es que no . Tenemos cámaras analógicas que tienen un formato de salida digital (y muchos circuitos digitales que tampoco están directamente relacionados con la imagen).

Cada vez que una señal analógica se convierte en una señal digital, introduce ruido de cuantización. Es decir, es muy poco probable que la señal que entra en la conversión coincida exactamente con el valor del número digital que sale del otro extremo; piense en ello como errores de truncamiento o redondeo.

Cuando realiza el procesamiento posterior en un archivo de imagen digital, el ruido de cuantización que agrega la cámara se "procesa". No importa con qué profundidad de bits esté trabajando en la publicación, los datos con los que está trabajando tienen componentes de ruido analógico (bueno, cuántico) (ruido térmico y de disparo, distorsión del amplificador, etc.) y el ruido de cuantificación de la salida de la cámara. La calidad de los datos base no es perfecta, por lo que cualquier cálculo realizado en los datos defectuosos dará como resultado un resultado defectuoso. GIGO , como dicen.

En la cámara, por otro lado, tienes la oportunidad de amplificar (o atenuar) la señal analógica antes de la cuantización. Eso no ayuda en absoluto con el ruido en el dominio analógico, pero sí reduce el ruido de cuantificación a un nivel de brillo dado .

Digamos que tiene un valor analógico de 4.4 whatchamacallits. Si dispara con ISO 100, nuestra cámara hipotética "digital" lo convertirá a un valor digital de exactamente 4. Si elige aumentar la exposición aparente en la publicación, se queda atascado trabajando con el 4, que está truncado. Si aumenta el ISO en la cámara (en menos de una parada completa), ese 4.4 se amplificará mediante un circuito analógico antes de que se convierta en digital, y puede dar como resultado un valor digital 1-mayor que los cálculos de procesamiento totalmente digital. Puede que una diferencia de un solo bit no parezca mucho, pero cuando comienza a acumular todos los errores en el proceso, un píxel dado puede estar muy lejos de los valores que debería tener. Eso es el ruido.

(También existe el hecho de que la cámara "conoce" sus propias características de respuesta y puede tenerlas en cuenta en el procesamiento. Lightroom, por ejemplo, no hace sustracción de ruido del sensor específico de la cámara, basado en ISO. Las cámaras pueden , aunque no todos lo hacen )


fuente
Gracias Stan Sí, hay todo tipo de ruido en una imagen fotográfica. Entonces, si ajusta el EV en PP, también amplifica ese ruido. Así como el ISO amplifica cualquier ruido.
BBking
2
El aumento de ISO y EV amplifica el ruido, pero creo que lo que dice Stan es que ajustar el ISO hacia arriba en la cámara es mejor que aumentar la exposición en el procesamiento posterior (porque esencialmente está amplificando la señal antes de que se introduzca el ruido de cuantización en el A / D paso).
seanmc
4

¿Es esta la fórmula que estás buscando?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

Lo que básicamente significa que para cada canal (de cada píxel) de los datos RGB, multiplíquelo por 2 ^ EV y luego recórtelo al valor máximo para sus datos. Para el color de 8 bits, RGBmax será 255, para el color de 16 bits será 65535, etc.

EV aquí es EV relativo, por lo que EV + 2.0 multiplicará (aclarará) cada píxel por un factor de cuatro y EV-2.0 dividirá (oscurecerá) cada píxel por un factor de cuatro.

La fórmula en sí no depende del histograma, pero si necesita decidir qué valor de exposición usar para ajustar de manera óptima la imagen, entonces se realizaría algún tipo de estadística a partir del histograma para calcular el EV.

Pulpo
fuente
1
Creo que los valores RGB ya representan el brillo percibido, por lo que su fórmula es incorrecta. Sería correcto para los valores medidos por el sensor (que es casi lineal, vea la respuesta de Matt) pero no para los valores RGB ya convertidos. (Pruebe lo que sucede si aplica su fórmula).
Szabolcs
@Szabolcs, pensé que el OP estaba pidiendo un algoritmo para hacer la compensación EV en el procesamiento posterior, ¿no? Admito que la pregunta no me queda del todo clara, pero están pidiendo matemáticas.
Pulpo
¡Gracias por tu respuesta! ¿Tiene un enlace para esas fórmulas para que pueda examinarlo más de cerca?
BBking
1
@ Octopus Sí, pero mi punto era que su fórmula es incorrecta si se aplica a los valores RBG . Los valores RGB se calculan a partir de los datos brutos del sensor tomando el logaritmo del valor bruto (nuestra percepción es aproximadamente logarítmica) y luego reescalando el resultado linealmente (que corresponde a establecer el punto negro y el punto blanco). (Además de algunas otras cosas que Matt ha mencionado). Por lo tanto, su fórmula es correcta cuando se aplica a los valores de píxeles sin procesar, pero es incorrecta para los valores RGB. Si realmente intentas llevar a cabo la transformación de una imagen en la práctica, verás lo que quiero decir.
Szabolcs
Tome un archivo sin procesar, extraiga los datos dcrawcon el -4interruptor para asegurarse de que no realizará la transformación del registro en sí, luego intente realizar una conversión sin procesar básica usted mismo y aplique una compensación de exposición durante el proceso.
Szabolcs
3

Nota: la pregunta fue editada ya que la respuesta de Stan a esto aborda lo que efectivamente es una pregunta diferente:

¿Alguien sabe de algún algoritmo o puede explicar matemáticamente cómo se ejecuta el brillo (EV) en el procesamiento posterior? ¿Ajusta el nivel de brillo / RBG / contraste para cada píxel? ¿Se relaciona con el histograma?

¿Cuáles son los aspectos técnicos de la compensación de exposición para una imagen subexpuesta en el procesamiento posterior?

Puede ser tan simple como multiplicar todos los valores de píxeles (por ejemplo, el brillo, el contraste no es un término que se aplica a píxeles individuales) y aplicar un desplazamiento. Si se hace después de la demostración, simplemente multiplique los valores rojo, verde y azul por el mismo factor.

El proceso de compensación de la exposición es un poco más complejo en el contexto de la conversión RAW, ya que los sensores de la cámara son dispositivos inherentemente lineales, mientras que la mayoría de los convertidores RAW aplican una curva de tono no lineal para tratar de emular la curva S contrastante que obtienes con la película.

Por lo tanto, el mejor momento para compensar la exposición es antes de que esto se aplique. Básicamente, esto significa utilizar la función EC de su convertidor RAW, no esperar hasta que haya exportado Photoshop, ya que la curva no lineal seguramente ya se habrá aplicado para entonces.

La situación es aún más compleja ya que algunos convertidores RAW * usaron perfiles de color "retorcidos", lo que hace que el matiz / saturación se asigne a diferentes valores dependiendo de la intensidad. Esto se hace para producir colores más agradables a expensas de la precisión, y puede afectar los resultados de la compensación de exposición.

Algunos convertidores RAW también ofrecen herramientas para recuperar reflejos y aumentar las sombras. Estos realizan ajustes locales (es decir, tienen en cuenta mucho más que los valores de píxeles individuales). Si desea conocer los detalles de estos algoritmos, probablemente tendrá que esperar y esperar que un desarrollador de Lightroom aparezca aquí.

* cuando digo "algunos convertidores RAW" básicamente estoy hablando de Lightroom / ACR, ya que es el único que he estudiado, otros convertidores RAW avanzados probablemente hacen algo similar.

Matt Grum
fuente
Por lo que sabes, ¿puedes demostrar cómo multiplicar el valor RGB da como resultado un mayor brillo? Como en, ¿una estructura de píxeles tiene valores de color y brillo? Hasta donde yo sé, también puedes multiplicar un valor de píxel para cambiar su color. Me gusta la curva S en. Sé que estoy preguntando específicamente sobre un píxel individual, pero entiendo más sobre la participación de una imagen en su conjunto. Entiendo que la interpolación también está involucrada.
BBking
1
Los archivos RAW de @BBking contienen solo valores de intensidad (brillo), cada píxel tiene un filtro de color, por lo que tiene intensidades alternadas de rojo, verde y azul. Como los sensores de la cámara son dispositivos lineales, escalar los valores grabados da casi el mismo resultado que exponer el sensor por más tiempo. Después de las imágenes de demostración se pueden almacenar en varios formatos de color, el más común es RGB, donde en cada píxel se registra la cantidad de luz roja, verde y azul. Multiplicar cada uno de estos valores por el mismo factor aumenta el brillo, multiplicar cada valor por una cantidad diferente cambia el color.
Matt Grum
'Como los sensores de la cámara son dispositivos lineales' ... Para ser pedantes, los sensores de la cámara son 'casi lineales' como ([ya lo señaló]) ( photo.stackexchange.com/a/33986/6294 ). (Pensé que valía la pena mencionarlo, ya que el OP también está interesado en la formulación matemática del problema). En teoría, un buen algoritmo podría tener en cuenta la respuesta típica del sensor, incluso si funciona solo con valores RGB.
Alberto
@Alberto sí, ese es un buen punto, debería haber dicho "aproximadamente lineal", pero como mi comentario ya tenía 598 caracteres, habría tomado más de 600 y habría necesitado dividirlo en dos comentarios;)
Matt Grum,
3

Matemáticamente, el brillo de una matriz (imagen) se ve afectado en general al actuar sobre el valor de la función CIE L * del tono del píxel. Es una relación aritmética. Sumar, restar, multiplicar y dividir.

Nuevamente, matemáticamente, una matriz de transformación (numérica) se agrega a la matriz existente en pp. Estas pueden hacerse selectivamente al sujeto o a la matriz general (imagen).

Buena exposición y mala exposición son términos arbitrarios, siempre que el rango de iluminancia del sujeto se encuentre dentro del rango útil del sensor de la cámara. El rango de sujeto puede ser amplio o estrecho hasta el extremo.

Nota: El histograma es una ayuda visual que representa la distribución relativa de las iluminancias en la imagen. Es lineal. No tiene nada que ver con la exposición, la relación recíproca de intensidad y tiempo, que siempre se representa logarítmicamente.

Stan
fuente
2

¿Cuáles son los aspectos técnicos de la compensación de exposición para una imagen subexpuesta en el procesamiento posterior?

El simple aumento de todos los valores en una imagen aumentará todos los valores en una cantidad igual. Esta respuesta "lineal" es peculiar de las imágenes digitales.

No percibimos las cosas de esa manera y la imagen resultante parecerá antinatural.

La imagen analógica (emulsión de película) parecía más natural ya que la respuesta de una emulsión fotográfica se parece más a la respuesta del sistema visual humano. Se hicieron referencias a una curva en forma de "S". Esa característica forma de "S" es una respuesta analógica.

La compensación por la diferencia entre nuestra respuesta visual humana proporcional y la respuesta digital lineal invita a varios medios para armonizar la diferencia estéticamente.

Debe haber una forma efectiva de proporcionar una compensación proporcional por la diferencia. Ese es el tecnicismo.

Stan
fuente