¿Por qué mi cámara dibuja laberintos en mis fotos?

8

En las fotos donde está presente el destello de la lente, mi Nikon D7000 está dibujando extraños artefactos con aspecto de laberinto. Aquí hay un ejemplo.

La primera imagen es una captura de pantalla de una pequeña parte de la foto original con zoom 2: 1 en Lightroom.

La segunda imagen es la misma foto con el contraste, la claridad y el enfoque de Lightroom al máximo para hacer que el patrón de laberinto sea más visible.

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

Esto afecta solo a algunas de las fotos que presentan destello de lente. Aquí, por ejemplo, el destello de la lente está presente y las condiciones de luz están muy cerca de la primera foto, pero no hay un patrón de laberinto, solo el ruido habitual (captura de pantalla de una parte de una foto a 1: 1 con contraste, claridad y nitidez) Al máximo):

ingrese la descripción de la imagen aquí

Notas:

  • Puedo ver este patrón solo en algunas de las fotos cuando el sol está en el marco o casi en el marco.

  • Está presente con cualquier lente que probé.

  • La foto real se tomó con f / 8, ISO 200, 1/640 s. También he visto este patrón en fotos tomadas con ISO 100.

  • La foto está en formato RAW, por lo que este no es un artefacto JPEG.

¿Que es eso? ¿Cómo lo evito?

Arseni Mourzenko
fuente
3
La naturaleza de los artefactos me hace pensar que está sucediendo en el paso de demostración, pero no hay nada inusual en la matriz de filtros de color de la D7000 que provoque algo así. ¿Supongo que no podrías proporcionar una muestra RAW?
hobbs
3
Tengo que decir que si está buscando este nivel de zoom en una imagen y está buscando problemas, los encontrará. Y luego las exageras, por ejemplo, afilando. ¿Pero realmente ves estas cosas en una impresión? ¿Realmente importan o simplemente estás haciendo tu propia vida más difícil preocupándote por ellos? Lo que está haciendo sería como tomar un microscopio para examinar un negativo de película y quejarse de que el grano es visible.
StephenG
@hobbs: aquí hay una muestra RAW: drive.google.com/file/d/0B3keqY_6PUhwTjRJSXJYdU1UQUE/… . No es esa imagen exacta que publiqué en mi pregunta (ya que eliminé el RAW desde entonces), sino la que tomé unos segundos después y que presenta exactamente el mismo patrón.
Arseni Mourzenko
@StephenG: Nunca dije que me preocupara por esos patrones. Tengo curiosidad sobre su origen, dada su forma inusual; Afortunadamente, hice la pregunta y aprendí algo nuevo de las excelentes respuestas.
Arseni Mourzenko

Respuestas:

5

Todo lo que está viendo en la pantalla no son datos sin procesar. Los datos de imagen sin procesar son valores lineales de luminancia monocromática y nada más. Cualquier cosa que muestre más de un color es el resultado de la aplicación que está utilizando para ver la imagen que traduce los valores de luminancia en bruto en curvas de luz con corrección gamma y la aplicación de demostración para crear colores interpolados y reducirlo a 8 bits para enviar a sus 8 monitor de bits.

Si ve los mismos datos sin procesar utilizando una aplicación que utiliza diferentes algoritmos de demostración y corrección de gamma, verá diferentes patrones que pueden ser más o menos regulares que los que obtuvo con cualquier aplicación que estuviera utilizando para verlos arriba.

Los patrones que ves en la primera imagen también están presentes en la segunda. Simplemente no están tan extendidos ni tan uniformes. Mire cuidadosamente el área de transición entre el área muy clara y muy oscura cerca de la esquina superior izquierda. Están ahí. Su primera imagen solo tiene mucha más área donde hay valores tonales medios que son todos del mismo tono y están siendo empujados hacia arriba (píxeles más brillantes) o hacia abajo (los píxeles más oscuros) por el algoritmo de procesamiento.

Cultivo 4X
Un recorte 4 veces mayor de tu segunda imagen

Cultivo 8X
Un cultivo ampliado 8X de un área cerca del centro superior del cultivo anterior. ¿Observa los patrones de 'escalón' a lo largo del área diagonal de contraste?

Cuando aumenta el contraste, hace que la curva de respuesta a la luz sea más pronunciada y se amplifican las pequeñas diferencias de brillo en los tonos medios. En efecto, está obligando a todos los píxeles a ser muy oscuros o muy claros sin demasiado espacio intermedio.

Es solo una suposición, pero mi presentimiento es que las líneas oscuras en la primera imagen son los píxeles más influenciados por los píxeles azules filtrados y las líneas más claras son los píxeles más influenciados por los píxeles rojos y verdes filtrados. Tenga en cuenta que los tres valores de color para cada píxel generalmente se interpolan durante la demostración. Esto se debe a que parte del espectro visible completo atraviesa los tres filtros de diferentes colores de una máscara Bayer . Algunos de los píxeles verdes filtrados entre dos píxeles de color azul se están volviendo más oscuros. La mayoría de los píxeles verdes se tiran con los rojos hacia el encendedor. Eso explicaría por qué las líneas de color más claro son generalmente de dos píxeles de ancho y las líneas más oscuras son de un solo ancho de píxel.

Cuando casi toda la luz en un área determinada es cercana al mismo color (en términos de croma), lo único que el algoritmo de demostración tiene para diferenciar un píxel del siguiente es el brillo. La llamarada del velo causada por el sol hace que el brillo de un píxel al siguiente sea más uniforme de lo que sería de otro modo. Esto podría explicar el fenómeno de líneas rectas más largas de píxeles más oscuros y claros en lugar de una distribución más aleatoria como se ve en la mayoría de la segunda foto.

Michael C
fuente
7

Los artefactos del laberinto son del algoritmo demosaicing.

Ver http://www.ruevski.com/rawhistogram/40D_Demosaicing/40D_DemosaicingArtifacts.html

Y la discusión de DCB aquí: https://rawpedia.rawtherapee.com/Demosaicing

Relacionado ¿Cuáles son los pros y los contras de los diferentes algoritmos de demostración de Bayer?


fuente
Buena captura, ese problema de "diafonía de canal verde" se ve exactamente igual. Tengo entendido que (debido a los caprichos del diseño del sensor) la mitad de los píxeles verdes terminan más fuertemente correlacionados con el rojo, y la mitad terminan más fuertemente correlacionados con el azul, y cuando todo se agita, algunos algoritmos lo interpretan como de alta frecuencia. Contenido de luma, más o menos.
hobbs
Esta es exactamente la razón por la que solicité un raw: esperaba ejecutar la imagen de OP a través de algunos algoritmos alternativos :)
hobbs
4

Para confirmar el análisis de ben rudgers, tomé el archivo NEF que proporcionó y lo ejecuté a través de RawTherapee.

Aquí hay una ampliación de un cultivo similar sin ajustes y el algoritmo de demostración "asombro" predeterminado:

asombro

Esto es lo mismo con el algoritmo "DCB":

dcb

Y esto es lo mismo con el algoritmo "VNG4", que se sabe que es resistente a la diafonía verde, pero en general un poco menos agudo:

VNG4

El área del problema es bastante ideal para sacar a relucir este problema: los valores en los canales rojo y azul son muy diferentes (el azul es casi cero, el rojo es similar al verde), hay parches de bajo detalle (los artefactos son más evidentes sin detalle real que los cubre), y esta parte de la foto está cerca de una esquina, donde la luz llega al sensor en un ángulo más bajo, lo que hace que sea más probable que ocurra la diafonía.

Traté de hacer otra imagen usando el modo de demostración "ninguno", para ilustrar la diferencia de valor entre los píxeles verdes rodeados de rojos y los píxeles verdes rodeados de azul, pero no pude lograrlo :)

hobbs
fuente