Esta página compara las cámaras Canon EOS 550D y Canon EOS 500D y menciona
18,7 millones de píxeles efectivos
para 550D. Sin embargo, la mejor resolución posible con esta cámara es
5184 * 3456 = 17915904 ~ 17.9 million pixels
¿Qué son los píxeles efectivos y por qué ese número es superior a 17,9 millones en este caso?
Respuestas:
Parte de lo que estamos viendo aquí es (estoy razonablemente seguro) nada más que un simple error tipográfico (o algo en ese orden) por parte de DPReview.com. Según Canon , [PDF, página 225] el número de pocillos en el sensor es "Aprox. 18.00 megapíxeles".
Esos se reducen a aproximadamente 17,9 megapíxeles cuando las entradas del patrón Bayer se convierten en lo que la mayoría de nosotros pensaría como píxeles. La diferencia es bastante simple: cada pocillo en el sensor solo detecta un color de luz, pero un píxel como normalmente lo espera en la salida (por ejemplo, un archivo JPEG o TIFF) tiene tres colores para cada píxel. A primera vista, podría parecer que eso significaría que un archivo tendría solo aproximadamente un tercio de píxeles que hay pozos de sensores en la entrada. Obviamente, ese no es el caso. Aquí está (una vista simplificada de) cómo funcionan las cosas:
Cada letra representa un pozo en el sensor. Cada cuadro representa un píxel tricolor como irá en el archivo de salida.
En la parte "interior" del sensor, cada píxel de salida depende de la entrada de cuatro pocillos del sensor, pero cada pocillo del sensor se usa como entrada a cuatro píxeles de salida diferentes, por lo que el número de entradas y el número de salidas sigue siendo el mismo.
Sin embargo, alrededor de los bordes, tenemos pozos sensores que solo contribuyen a dos píxeles en lugar de cuatro. En las esquinas, cada sensor solo contribuye a un píxel de salida.
Eso significa que el número total de píxeles de salida es menor que el número de pocillos de sensores. Específicamente, el resultado es más pequeño en una fila y una columna en comparación con la entrada (por ejemplo, en el ejemplo, tenemos un sensor de 8x3, pero píxeles de salida de 7x2).
fuente
No sé por qué DPReview utiliza el término "efectivo", pero hay un par de razones para la discrepancia entre el número de fotosites (píxeles) en el chip y el tamaño en píxeles de las imágenes resultantes.
Algunos sensores de cámara tienen una tira de píxeles enmascarados a cada lado. Estos píxeles son idénticos a la mayor parte de los píxeles en el sensor, excepto que no reciben luz. Se utilizan para detectar interferencia y restarla de la señal producida por los píxeles sensibles a la luz.
En segundo lugar, los [buenos] algoritmos de demostración utilizan muchas "operaciones de vecindario", esto significa que el valor de un píxel depende en cierta medida del valor de sus píxeles vecinos. Los píxeles en el borde extremo de la imagen no tienen vecinos, así que contribuya a otros píxeles pero no agregue a las dimensiones de la imagen.
También es posible que la cámara recorte el sensor por otras razones (por ejemplo, el círculo de la imagen del objetivo no cubre el sensor), aunque dudo que este sea el caso con el 550D.
fuente
Hay dos razones por las cuales los píxeles efectivos son menores que el número real de píxeles del sensor (elementos sensores o sensores). Primero, los sensores Bayer están compuestos por "píxeles" que detectan un solo color de luz. Por lo general, hay sensores rojos, verdes y azules, organizados en pares de filas en forma de:
Un único "píxel" como la mayoría de nosotros estamos familiarizados con él, el píxel de estilo RGB de una pantalla de computadora, se genera a partir de un sensor Bayer combinando cuatro sensores, un cuarteto RGBG:
Dado que se utiliza una cuadrícula 2x2 de cuatro sensores RGBG para generar un solo píxel RGB de computadora, no siempre hay suficientes píxeles a lo largo del borde de un sensor para crear un píxel completo. Un borde "adicional" de píxeles suele estar presente en los sensores Bayer para acomodar esto. También puede estar presente un borde adicional de píxeles simplemente para compensar el diseño completo de un sensor, servir como píxeles de calibración y acomodar componentes de sensores adicionales que generalmente incluyen filtros IR y UV, filtros anti-aliasing, etc. que pueden obstruir un La cantidad total de luz que llega a la periferia exterior del sensor.
Finalmente, los sensores Bayer deben ser "demostrados" para producir una imagen RGB normal de píxeles de computadora. Hay una variedad de formas diferentes de demostrar un sensor Bayer, sin embargo, la mayoría de los algoritmos intentan maximizar la cantidad de píxeles RGB que se pueden extraer combinando píxeles RGB de cada posible conjunto superpuesto de cuartetos RGBG 2x2:
Para un sensor con un total de 36 sensores de un solo color, se puede extraer un total de 24 píxeles RGB. Observe la naturaleza superpuesta del algoritmo de demosaicing al ver el GIF animado de arriba. También tenga en cuenta cómo durante la tercera y cuarta pasada, no se utilizaron las filas superior e inferior. Esto demuestra cómo los píxeles de borde de un sensor no siempre se pueden utilizar al demostrar una matriz Bayer sensel.
En cuanto a la página de DPReview, creo que pueden tener su información incorrecta. Creo que el número total de sensores (píxeles) en el sensor Canon 550D Bayer es 18.0mp, mientras que los píxeles efectivos, o el número de píxeles de computadora RGB que se pueden generar a partir de esa base 18mp, es 5184x3456 o 17,915,904 (17.9mp). La diferencia se reduciría a los píxeles de borde que no pueden formar un cuarteto completo, y posiblemente a algunos píxeles de borde adicionales para compensar el diseño de los filtros y el hardware de montaje que se encuentra frente al sensor.
fuente
Lamento decepcionar, pero ninguna de esas explicaciones es cierta. En cada sensor hay una región fuera del área de imágenes que también contiene fotosites. Algunos de estos están apagados, otros están completamente encendidos y otros se usan para otros fines de monitoreo. Estos se utilizan para establecer los niveles de amplificador y balance de blancos, como un "conjunto de control" contra aquellos que realizan la imagen real.
Si toma los datos del sensor RAW de cualquiera de las cámaras Powershot compatibles con CHDK y utiliza dcraw para convertirlos, puede obtener la imagen completa del sensor, incluidas estas regiones 100% negras y 100% blancas.
Sin embargo, lo interesante es que la resolución de tamaño de imagen RAW en la cámara siempre es mayor que los resultados JPG en la cámara. La razón es que los métodos de interpolación más simples y rápidos utilizados en la cámara para pasar de RAW a JPG requieren fotosites RGB circundantes para determinar el color final de cada píxel. Las fotosites de borde y esquina no tienen estas referencias de color circundante en todos los lados para hacerlo. Sin embargo, hacer el proceso más tarde en una computadora con un mejor software de interpolación RAW, le permitirá recuperar un poco más de resolución de tamaño de imagen que la que se puede obtener de un JPG en la cámara.
ps Los revisores de DPReview y los autores de artículos nunca deben ser tomados como evangelio por nadie. He encontrado tantos agujeros en sus pruebas y ejemplos evidentes en los que los probadores ni siquiera sabían cómo usar cámaras, que descarté sus consejos hace muchos años.
fuente