Por lo que entiendo, la mayoría de las cámaras digitales tienen un sensor donde cada sensor de píxeles tiene tres sub-sensores, cada uno con un filtro R, G y B. RGB es obviamente el modelo de color más fundamental, ya que corresponde directamente con los receptores (conos) en el ojo humano.
Sin embargo, los filtros RGB necesariamente cortan dos tercios de la luz blanca para obtener su componente. ¿Seguramente las cámaras se beneficiarían de tiempos de exposición más cortos si los filtros fueran CYM en donde cada elemento corta solo un tercio de la luz? El procesador de la cámara aún puede guardar la imagen en cualquier formato que el consumidor desee, ya que un punto de datos CYM se puede convertir fácilmente en uno RGB.
Sé que esto a veces se hace en astrofotografía, donde se toman tres fotos en blanco y negro con filtros CYM.
¿Estoy equivocado y esto es, de hecho, lo que ya se ha hecho, o hay una buena razón para un sensor RGB?
Respuestas:
Primero, un poco de historia para aclarar un ligero malentendido de su parte.
La gran mayoría de las cámaras digitales en color tienen un filtro Bayer que enmascara cada píxel con un filtro de color: rojo, verde o azul. ¹ Los datos RAW no incluyen ninguna información de color, sino solo un valor de luminancia para cada píxel.
Realmente no. Hay mucha luz verde que pasa los filtros 'rojo' y 'azul'. Hay mucha luz "roja" y una buena cantidad de luz "azul" que hace que pase el filtro "verde". Hay una luz 'azul' que pasa el filtro rojo y viceversa. Las longitudes de onda en las que se centran los filtros 'Verde' y 'Rojo' están muy cerca una de la otra, y 'Rojo' generalmente está en algún lugar entre 580 nm y 600 nm, que está más en territorio 'amarillo-naranja' que 'rojo'. Los "picos" de los filtros en una matriz típica de Bayer no están alineados con las longitudes de onda que describimos como "rojo", "verde" y "azul".
Entonces, en cierto sentido, nuestras cámaras son realmente YGV (Amarillo-Verde-Violeta) tanto como son RGB. Nuestros sistemas de reproducción de color (monitores, impresoras, prensas web, etc.) son RGB, CMYK o alguna otra combinación de colores.
Esto imita el ojo humano, donde nuestros conos 'rojos' se centran alrededor de 565 nm, que es un amarillo verdoso, a diferencia de nuestros conos 'verdes' que se centran alrededor de 540 nm, que es verde con solo un tinte de amarillo mezclado. Para obtener más información sobre cómo el sistema de visión humana y nuestras cámaras crean "color" a partir de la porción del espectro de radiación electromagnética que llamamos "luz", vea: ¿Por qué el rojo, el verde y el azul son los colores primarios de la luz?
No hay un límite estricto entre los colores del filtro, como con un filtro utilizado en un instrumento científico que solo deja pasar una banda muy estrecha de longitudes de onda. Es más parecido a los filtros de color que usamos en las películas en blanco y negro. Si utilizamos un filtro rojo con película en blanco y negro, todos los objetos verdes no desaparecen ni se ven totalmente negros, como lo harían con un corte duro. Por el contrario, los objetos verdes se verán con un tono más oscuro de gris que los objetos rojos que son igualmente brillantes en la escena real.
Al igual que con el ojo humano, casi todos los filtros Bayer incluyen el doble de píxeles "verdes" que de píxeles "rojos" o "azules". En otras palabras, cada otro píxel está enmascarado con "Verde" y la mitad restante se divide entre "Rojo" y "Azul". Por lo tanto, un sensor de 20MP tendría aproximadamente 10M de verde, 5M de rojo y 5M de píxeles azules. Cuando los valores de luminancia de cada píxel son interpretados por la unidad de procesamiento de la cámara, la diferencia entre los píxeles adyacentes enmascarados con diferentes colores se utiliza para interpolar un valor Rojo, Verde y Azul ( que en realidad corresponde a alrededor de 480, 530 y 640 nanómetros ) para cada píxel Cada color tiene una ponderación adicional de aproximadamente la sensibilidad del ojo humano, por lo que el "Rojo"
El proceso de convertir valores de luminancia monocromáticos de cada píxel en un valor RGB interpolado para cada píxel se conoce como demostración. Dado que la mayoría de los fabricantes de cámaras utilizan algoritmos patentados para hacer esto, el uso de convertidores RAW de terceros, como Adobe Camera RAW o DxO Optics, arrojará resultados ligeramente diferentes que el uso del propio convertidor RAW del fabricante. Hay algunos tipos de sensores, como el Foveon, que tienen tres capas sensibles al color apiladas una encima de la otra. Pero los fabricantes afirman que dicho sensor con tres capas de 15MP apiladas entre sí es un sensor de 45MP. En realidad, tal disposición produce la misma cantidad de detalles que un sensor enmascarado Bayer convencional de aproximadamente 30MP. El problema con los sensores de tipo Foveon, al menos hasta ahora, ha sido un peor rendimiento de ruido en entornos con poca luz.
Entonces, ¿por qué la mayoría de las cámaras digitales no usan filtros CYM en lugar de filtros RGB¹? La razón principal es la precisión del color definida por la percepción humana de las diferentes longitudes de onda de la luz. Es mucho más difícil interpolar valores de color con precisión usando valores de píxeles adyacentes cuando se usa una máscara CYM que cuando se usa una máscara "RGB". Así que renuncia a un poco de sensibilidad a la luz para ganar precisión de color. Después de todo, la mayoría de las fotografías comerciales en los niveles más altos se realizan con iluminación controlada (como un estudio de retratos donde es bastante fácil agregar luz) o desde un trípode (que permite tiempos de exposición más largos para recolectar más luz). Y las demandas de los fotógrafos profesionales son lo que impulsa la tecnología que luego llega a los productos de calidad para el consumidor.
¹ Excepto que los tres filtros de color para la mayoría de las cámaras "RGB" enmascaradas de Bayer son realmente 'azul con un toque de violeta', 'Verde con un toque de amarillo' y entre 'Amarillo con un toque de verde' (que imita el ojo humano más) y 'Amarillo con mucha naranja' (que parece ser más fácil de implementar para un sensor CMOS).
fuente
Se han realizado sensores cian magenta amarillo, junto con cian verde rojo y algunas otras variaciones.
El principal problema es que incluso con sensores RGB hay una superposición significativa entre la respuesta espectral de cada uno de los tintes, es decir, los píxeles "verdes" son sensibles a la luz roja y azul en cierta medida. Esto significa que los resultados requieren cálculos complejos para obtener colores precisos, las respuestas relativas de los píxeles rojos y azules adyacentes se utilizan para juzgar qué parte de la respuesta verde fue realmente el resultado de la luz roja y azul.
Con CMY el problema es mucho peor. Básicamente, está cambiando la eficiencia de la luz por la precisión del color. Esto puede estar bien para la fotografía astronómica donde no siempre tiene límites de color nítidos, por lo tanto, puede reducir el ruido de color al desenfocar, pero no es bueno para la fotografía de paisajes o moda.
Entre los chips RGB, la elección exacta de los filtros varía según el fabricante. Canon, por ejemplo, utiliza tintes débiles con una amplia respuesta para perseguir el rendimiento con poca luz, pero los tintes específicos utilizados también están sintonizados para discernir colores bajo iluminación fluorescente, en beneficio del ejército de fotógrafos deportivos y de noticias que usan cámaras Canon.
Sony, por otro lado, con el A900 trató de entrar en el mercado de la moda profesional al proporcionar una precisión de color muy alta. Los conjuntos de filtros de color utilizados en respaldos digitales de formato medio están ajustados para proporcionar tonos de piel agradables (aunque no necesariamente precisos).
fuente
Las razones por las que los fabricantes de cámaras se decidieron por la matriz RGBG Bayer probablemente tengan más que ver con las patentes, la disponibilidad y el costo que con la "precisión" del color. En principio, cualquier conjunto de tres colores apropiados, "ortogonales" (por así decirlo), debe estar bien para la reproducción del color. Con sensores y procesadores más avanzados, debería ser aún más fácil.
Dudo de la afirmación de precisión de color RGB vs CMY porque las conversiones entre RGB y CMYK se realizan todo el tiempo para imprimir. Además, antes del balance de blancos, los colores demosaicked en archivos sin formato no se parecen en nada a los colores deseados reales. Si los colores fueran realmente "precisos", los fotógrafos no tendrían que pasar tanto tiempo corrigiendo las fotos en color.
Los diversos experimentos de sensores de Fujifilm (Super CCD, EXR CMOS, X-Trans) demuestran que el hecho de que todos los demás hagan algo de una manera particular no significa que sea necesariamente la mejor manera de hacerlo. Kodak también experimentó con diferentes matrices de colores , pero no hicieron un muy buen trabajo al comercializar su tecnología y sus patentes.
La Nikon Coolpix 5700, una cámara de 5mp de alrededor de 2002, parece estar entre las últimas cámaras en usar una matriz de color CYGM . Digital Photography Review dice (énfasis agregado) :
fuente