¿Sería útil un algoritmo de demostración para blanco y negro?

11

Dado que el objetivo principal del demosaicing es recuperar el color con la mayor precisión posible, ¿habría alguna ventaja para un algoritmo demosaic "solo en blanco y negro"? Es decir, en lugar de recuperar primero el color y luego convertirlo a blanco y negro, ¿podría ser mejor convertir el archivo RAW directamente a blanco y negro?

Estoy particularmente interesado en la calidad de la imagen (por ejemplo, rango dinámico y nitidez). En una nota relacionada, ¿qué algoritmos comunes de demosaicing son más adecuados para la conversión en blanco y negro?

Lars Kotthoff
fuente
2
El color es un factor intrínseco de una imagen RAW creada a partir de un sensor bayer de color. El problema para convertirlo a escala de grises es que solo tiene luminancia para un solo color dado en cualquier píxel dado. Realmente no importa si solo trata cada píxel como un valor de luminancia, o si lo trata como un valor de color, cada píxel solo representa aproximadamente 1/3 de la luminancia total que fue incidente en el píxel en el momento de la exposición. "Demosaicing" es realmente innecesario para las imágenes en escala de grises, sin embargo, para obtener imágenes ideales en escala de grises, desearía usar un sensor de escala de grises ... ¡ sin el bayer en absoluto!
jrista
1
En cuanto a qué algoritmos de demostración son ideales para la conversión en blanco y negro cuando se usa una cámara a color ... Diría que la forma más simple, su interpolación cuádruple estándar. Muchos otros algoritmos de demostración más avanzados están diseñados para minimizar el color muaré y otros artefactos relacionados con el color. Si lo único que le importa es el blanco y negro, la interpolación estándar de 2x2 píxeles conservará la mayor cantidad de detalles.
jrista
2
@jrista No estoy seguro de por qué una interpolación ingenua conservaría más detalles que uno de los algoritmos más avanzados que intentan distinguir entre los cambios de brillo e intensidad. En cualquier caso, los artefactos de color también pueden aparecer en imágenes en blanco y negro, dependiendo de cómo se realice la conversión.
Matt Grum
1
Bueno, supongo que lo estoy basando principalmente en AHDD, que tiende a suavizar los detalles. Al menos, la implementación en Lightroom produce resultados ligeramente más suaves que el algoritmo utilizado por Canon DPP, que produce resultados muy nítidos y precisos de un algoritmo de demostración más simple (aunque supongo que no es tan simple como su 2x2 básico).
jrista
La "comparación de los métodos de demostración de color" (Olivier Losson, Ludovic Macaire, Yanqin Yang) entra en muchos detalles sobre diferentes algoritmos de demostración. No se trata solo de decodificar el color, los mejores algoritmos tienen en cuenta toda la información circundante para obtener los mejores resultados en cada píxel. No estoy convencido de que un decodificador dedicado en escala de grises pueda funcionar mejor.
Mark Ransom

Respuestas:

8

No hay forma de convertir un archivo RAW directamente a blanco y negro sin recuperar primero el color, a menos que su convertidor tome solo uno de los conjuntos de píxeles R, G, B para producir una imagen. Este enfoque daría como resultado una pérdida sustancial de resolución.

Para no perder la resolución al convertir a blanco y negro, debe usar todos los píxeles RG y B, lo que implícitamente significa que se deben realizar cálculos de color, en ese momento también puede usar uno de los algoritmos avanzados de demostración de color, y luego convertir El resultado a blanco y negro.

Matt Grum
fuente
1
reducir a la mitad la resolución sin el promedio ponderado de los quads extrayendo un color no sería la imagen en escala de grises esperada, ya que sería como poner un filtro verde, rojo o azul en una cámara monocroma. Y una pregunta filosófica: dividiendo cada eje entre 2, reduciendo el conteo de Mp entre 4. Yo llamaría a esta media resolución. Pero parece llamar a sqrt (2) por eje / conteo de 2 Mp "media resolución". ¿Qué definición es técnicamente correcta? Si la resolución es la capacidad de resolver, entonces ancho / 2 y alto / 2 es la mitad de la resolución en un sistema 2D donde desea preservar la invariancia rotacional.
Michael Nielsen
extensión de mi opinión sobre la resolución Creo que Mp no es la resolución, es un número de marketing de fotografía. Como ingeniero de procesamiento de imágenes, se da una resolución como w X h.
Michael Nielsen
@MichaelNielsen ¿Qué "imagen esperada en escala de grises"? Hay muchos métodos diferentes para convertir a escala de grises, la pregunta no especificó un enfoque de ponderación igual. En segundo lugar, si tuviera un detector lineal y redujera a la mitad el número de muestras, el poder de resolución, es decir, la cantidad máxima de detalle detectable se reduciría a la mitad, no diría que se reduce por un factor de raíz 2. A partir de eso, es lógico pensar que Si tiene un campo de detectores 2D (como un sensor de imagen) y reduce a la mitad el número de muestras en ambas direcciones, dejándolo con un cuarto, diría que la resolución se redujo en un factor de 4.
Matt Grum
si reduce a la mitad solo el eje x o y, tiene diferentes resoluciones en cada dirección, lo que anula la capacidad de contar una resolución total en términos de Mp y calcular un solo factor "/ 2 resolución". De c. las lentes tampoco tienen la misma resolución, pero los fabricantes de sensores se enorgullecen en anunciar que hoy en día sus píxeles son cuadráticos y cuadrados, por lo que producen una resolución igual en ambas direcciones, esto significa una resolución de 640x = 480y. Vea cómo el número de píxeles en sí mismo no significa nada. la resolución 640 es la MISMA resolución que 480.
Michael Nielsen
2
Escala de grises: No dije igual ponderado. Y sé que hay muchas versiones diferentes en escala de grises, pero puedo apostar que R, G o B no es una de las esperadas por el OP. La más probable es la versión 0.11 * b + 0.59 * g + .3 * r.
Michael Nielsen
8

Necesita un algoritmo de demostración incluso si convierte una imagen a B / N.

Una razón para eso es bastante simple: de lo contrario, obtendría artefactos de subpíxeles por todas partes. Debe darse cuenta de que la imagen grabada por el sensor es bastante desordenada. Echemos un vistazo a la muestra de Wikipedia :

demosaicing

Ahora imagine que no hacemos demostraciones y solo convertimos RAW en escala de grises:

escala de grises

Bueno ... ¿ves los agujeros negros? Los píxeles rojos no registraron nada en el fondo.

Ahora, comparemos eso con la imagen demostrada convertida a la escala de grises (a la izquierda):

normal vs roto

Básicamente pierdes detalles, pero también pierdes muchos artefactos que hacen que la imagen sea bastante insoportable. La omisión de demosaicing de la imagen también pierde mucho contraste, debido a cómo se realiza la conversión en blanco y negro. Finalmente, los tonos de colores que se encuentran entre los colores primarios pueden representarse de maneras bastante inesperadas, mientras que las grandes superficies de rojo y azul estarán en blanco 3/4.

Sé que es una simplificación, y podría apuntar a crear un algoritmo que sea simplemente: más eficiente en la conversión RAW a B & W, pero mi punto es que:

Necesita una imagen de color calculada para generar tonos de gris correctos en la fotografía en blanco y negro.

La buena manera de hacer fotografías en blanco y negro es eliminar completamente la matriz de filtros de color, como hizo Leica en Monochrom , no cambiando la conversión RAW. De lo contrario, obtendrá artefactos, o falsos tonos de gris, o disminuirá la resolución o todo esto.

Agregue a esto un hecho de que la conversión RAW-> Bayer-> B&W le ofrece muchas más opciones para mejorar y editar imágenes, y obtuvo una solución bastante excelente que solo puede ser derrotada por la construcción de sensores dedicados. Es por eso que no ve convertidores RAW dedicados en blanco y negro que no caerían en demostraciones en algún lugar del proceso.

MarcinWolny
fuente
1

Las cámaras de visión artificial con filtros bayer pueden proporcionar imágenes en escala de grises directamente, pero lo hacen al hacer demostraciones, convertirlas a YUV y enviar solo el canal V (los que normalmente uso al menos). Si tuvieran una mejor manera al pasar por alto esta reconstrucción de color, creo que lo harían, ya que constantemente están presionando la velocidad de fotogramas (la cámara típica que uso ejecuta 100FPS, por ejemplo).

Si ignorara el demosaicking basado en color, podría reducir a la mitad la resolución y el promedio ponderado de cada quad de 2x2, pero si desea una resolución completa, es mejor usar el algoritmo de demostración de color normal que intenta preservar mejor los bordes. Si sabemos que queremos escala de grises, solo obtenemos una cámara monocromática desde el principio, aplicamos un filtro de color si buscamos un determinado color, ya que esta configuración es muy superior en calidad de imagen, lo que reduce la necesidad de sobremuestreo de resolución, lo que a su vez permite uso de un sensor rápido de baja resolución con píxeles más grandes, que a su vez brinda una imagen aún mejor.

Michael Nielsen
fuente
Escribiste: "convertir a YUV y enviar solo el canal V" Seguramente te refieres a enviar el canal Y, ya que Y es el canal de luminancia.
TopCat
1

El efecto de los filtros de color sobre cada pozo de píxeles en la capa de Bayer es el mismo que para filmar una película en blanco y negro con filtros de color sobre la lente: cambia la relación de los niveles de gris de varios colores en la escena que se está fotografiando. Para obtener un nivel de luminancia preciso para todos los colores de la escena, las señales de cada píxel deben ser demostradas. Como otros han mencionado, un sensor sin capa Bayer produciría una imagen monocroma que no necesita ser demostrada. Esto debería resultar en una mejor nitidez de la imagen si el círculo de confusión de la lente es igual o menor que el ancho de cada píxel.

En términos prácticos, he notado varias cosas al convertir archivos RAW a monocromo usando Digital Photo Professional (DPP) de Canon.

  1. El ajuste del balance de blancos puede efectuar un cambio en la luminosidad percibida en general de la misma manera que el ajuste de contraste. Como tal, se puede utilizar para ajustar el contraste.
  2. El balance de blancos también afectará la luminosidad relativa de los diferentes colores de la escena. Esto se puede utilizar para ajustar la aplicación de los efectos de filtro "Naranja", "Amarillo", "Rojo", etc. El rojo parece ser el más afectado por esto y es mucho más oscuro a 2500K que a 10000K. Sorprendentemente, al menos para mí, es que los tonos azules no demuestran lo contrario.
  3. Como para todos los fines prácticos no hay ruido de crominancia en una foto en blanco y negro, puede dejarse en "0".
  4. La herramienta de máscara de enfoque le dará mucho más control sobre la nitidez que el control deslizante "Nitidez" más simple. Especialmente si tiene algunos píxeles "cálidos" o "calientes" en la imagen, puede aumentar la nitidez general sin enfatizarlos.

A continuación se presentan dos versiones de la misma toma de exposición en una Canon 7D con una lente EF 70-200 mm f / 2.8L IS II y un teleconvertidor Kenco C-AF 2X Teleplus Pro 300. La imagen se recortó a 1000X1000 píxeles. El primero se convirtió utilizando la configuración de la cámara que se muestra debajo. El segundo fue editado con la configuración que se muestra en la captura de pantalla. Además de la pestaña RAW, se aplicó una configuración de reducción de ruido de luminancia de 2, al igual que un valor de aberración cromática de 99.

Luna - sin editar

En la información de la cámara

Luna - editado

Configuraciones

Michael C
fuente
0

Propondría un algoritmo como este (supone que su objetivo es blanco y tiene una temperatura de color constante):

  • Demosaic RAW Bayer a RGB
  • Reducción de color a escala de grises
  • Cree una LUT entre los valores de bayer sin procesar y los valores de escala de grises (esto debería realizarse una vez por plano de color RGGB o RGB)
  • Utilice el filtro LUT por color para transformar el Bayer RAW directamente en escala de grises sin ningún filtrado entre píxeles

En teoría, esto se acercaría a los resultados de un verdadero sensor monocromo.

Elliot Woods
fuente