¿Disparar a una resolución RAW más baja con la cámara con sensor de recorte imita las cualidades de las cámaras de fotograma completo?

12

No estoy hablando de cambios en la distancia focal.

He leído muchas publicaciones que dicen que en la cámara de fotograma completo la densidad de píxeles es menor en comparación con la cámara del sensor de recorte y, por lo tanto, captura más luz y, por lo tanto, tiene un mejor rendimiento ISO y un mayor rango dinámico. Entonces, si cambio la cámara del sensor de recorte para disparar a una resolución más baja, ¿eso equivaldrá a una mejor densidad de píxeles e imitará el rendimiento de un cuadro completo (o formato medio) o siempre disparará a la resolución máxima y reducirá el tamaño?

--EDIT: 1--
Tengo una Canon 60D y tengo 3 opciones para tamaños de imagen RAW (RAW, M-RAW y S-RAW). Si RAW es solo un volcado de los sensores de la cámara, ¿cómo pueden ser 3 tamaños diferentes? ¿La cámara también reduce las imágenes RAW?

Viv
fuente
2
Vivek: lee esta pregunta: photo.stackexchange.com/q/3419/1024 . De acuerdo con @whuber (y el artículo al que se vincula), los RAW más pequeños son de hecho una especie de agregación de los sensores individuales, como lo que Stan describe en su respuesta, solo que se hace en software en lugar de en hardware.
ysap
(La página ysap enlaza con cubre la parte mraw / sraw de la pregunta).
Lea mi perfil el
Leeré el documento de ysap y lo comentaré.
Viv

Respuestas:

7

Dado que tiene una Canon, los modos RAW más bajos, mRAW y sRAW, HACEN DE TODO USO TODOS los píxeles del sensor disponibles para producir un resultado más rico sin la necesidad de interpolación bayer. El formato de salida real, aunque todavía está contenido en un archivo de imagen RAW Canon .cr2, está codificado en un formato Y'CbCr, similar a muchos formatos desplegables de video. Almacena información de luminancia para cada píxel COMPLETO (2x2 quad de 1 rojo, 1 azul y 2 verdes), y cada canal de crominancia se deriva de datos de medio píxel (1x2 par de 1 rojo + 1 verde o 1 azul + 1 verde) .

No estoy exactamente seguro de cuáles son las diferencias específicas de lectura y codificación de hardware de bajo nivel entre mRAW y sRAW, sin embargo, en general, cuanto más pequeño es el formato de salida, más información de entrada de píxeles del sensor puede usar para cada píxel de salida. La pequeña cantidad de interpolación presente en m / sRAW es discutible, ya que ambos formatos se interpolan mucho menos que la RAW nativa. También se debe tener en cuenta que ni mRAW ni sRAW son formatos "RAW" reales en el sentido normal ... los datos del sensor se procesan y se convierten en otra cosa antes de guardarlos en un archivo .cr2.

Para obtener más detalles sobre los formatos derivados de YUV y Canon sRAW, consulte mi respuesta aquí: ¿Por qué el espacio de color xvYCC no está captando la fotografía fija?

De "Comprender qué se almacena en un archivo .CR2 Canon RAW":

El formato sRaw (para "RAW pequeño") se introdujo con el 1D Mark III en 2007. Es una versión más pequeña de la imagen RAW.

Para el 1D Mark III, luego el 1Ds Mark III y el 40D (todos con el Digic III), el tamaño sRaw es exactamente 1/4 (un cuarto) del tamaño RAW. Por lo tanto, podemos suponer que cada grupo de 4 "píxeles del sensor" se resume en 1 "píxel" para la sRaw.

Con el 50D y el 5D Mark II (con el chip Digic IV), el RAW de 1/4 tamaño todavía está allí (sRaw2), y también aparece un RAW de medio tamaño: sRaw1. Con el 7D, el raw de tamaño medio se llama mraw (la misma codificación que sraw1), 1 / 4th raw se llama sraw (como el sraw2).

el sRaw Jpeg sin pérdidas siempre está codificado con un componente de 3 colores (nb_comp) y 15 bits.

El código Jpeg de Dcraw se modificó primero (8.79) para manejar sRaw debido al valor h = 2 del primer componente (fondo gris en la tabla). RAW normal siempre tiene h = 1. Comenzando con el 50D, tenemos v = 2 en lugar de v = 1 (naranja en la tabla). Dcraw 8.89 es la primera versión para manejar esto y el sraw1 de 50d y 5D Mark II.

"h" es el factor de muestreo horizontal y "v" el factor de muestreo vertical. Especifica cuántas unidades de datos horizontales / verticales están codificadas en cada MCU (unidad mínima codificada). Ver T-81, página 36.

3.2.1 formato sRaw y sRaw2

h = 2 significa que los datos descomprimidos contendrán 2 valores para el primer componente, 1 para la columna ny 1 para la columna n + 1. Con los otros 2 componentes, sraw descomprimido y sraw2 (que tienen h = 2 & v = 1), siempre tienen 4 valores elementales

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 e y2 para el primer componente)

Cada "píxel" en las imágenes sRAW y mRAW contiene cuatro componentes ... un componente Y 'dividido (y1 e y2), así como una x (Azul de crominancia) y z (Rojo de crominancia). Los cuatro componentes (desde una perspectiva de imagen de 1/2, sRAW1 / mRAW) tienen una altura de columna de 2 (h) y un ancho de 1 (v). Esto indica que el valor de luminancia (Y ') se compone de un quad COMPLETO de 2x2 píxeles ... o dos columnas de 2x1 píxeles almacenadas en y1 e y2.

Las referencias a continuación no parecen indicar esto específicamente, por lo que estoy especulando un poco aquí, sin embargo, con el sRAW2 (1/4 sin procesar) creo que la información de luminancia se derivaría de un bloque de píxeles de 4x4 donde h = 4 y v = 2. La crominancia de codificación se volvería más compleja en una imagen de tamaño 1/4, ya que la matriz de filtro de color bayer en el sensor no está dispuesta en columnas rojas y azules ordenadas. No estoy seguro de si se procesan columnas de altura alterna de 2x1 para cada componente Cr y Cb, o si se realiza alguna otra forma de interpolación. Una cosa es segura ... la interpolación de los datos de origen siempre es mayor que la de los datos de salida, y no puedo solapar (como en la interpolación bayer normal).

Finalmente, sRAW1 / mRAW y sRAW / sRAW2 se comprimen usando un algoritmo de compresión sin pérdidas. Esta es una distinción crítica entre estos formatos y JPEG, que también utiliza una codificación de tipo ycc. JPEG realiza una compresión con pérdida, lo que hace imposible restaurar los píxeles a su representación original exacta. De hecho, los formatos s / mRAW de Canon pueden restaurarse a datos de imagen originales de 15 bits de precisión total.

Referencias

jrista
fuente
8

En teoría, podría hacerlo si la cámara utilizara la estrategia correcta para reducir el tamaño de la imagen.

Como notó, con las cámaras actuales con sensor de recorte, la imagen en bruto permanece igual sin importar el tamaño JPEG que haya configurado. La imagen JPEG simplemente se escala. Esto puede reducir un poco la apariencia del ruido, pero la reducción se debe al algoritmo de escala de la imagen (no puede colocar tantos píxeles moteados en la imagen más pequeña como puede en la versión de tamaño completo). Sin embargo, es más probable que pueda hacer al menos tan bien, si no mejor, si hace la reducción de ruido y se escala después del hecho.

Existe una estrategia que producirá una verdadera reducción de ruido. Algunos respaldos de formato medio de alta resolución (como la serie Phase One SensorPlus) usan una estrategia llamada binning de píxeles , donde los grupos de sensores adyacentes se tratan como un sensor mucho más grande y su carga acumulada se lee desde el sensor. Eso es diferente de leer cargos individuales y promedios (que es lo que está restringido en el procesamiento posterior a la lectura): ocurre a nivel de hardware y cambia lo que significa "sin procesar". El ruido de lectura tiene una mejor oportunidad de cancelar, y la carga acumulativa hace que la conversión de analógico a digital sea menos ambigua (el rango de cuantos convertidos es más amplio con menos amplificación).

En la práctica, esto generalmente significa cortar la resolución por un factor de cuatro (la mitad del ancho y la mitad de la altura). Con un respaldo de formato medio de 60 u 80MP, que aún te deja con una imagen de 15 o 20MP; con una cámara con sensor de recorte de 16MP, se reduciría a una imagen en bruto de 4MP. Ahora puede saber y yo puedo saber que una imagen limpia de 4MP es mejor que una imagen ruidosa de 16MP, pero no todos aceptarán la idea de que cuesta más producir una imagen más pequeña. Eso significa que es poco probable que veas un binning de píxeles usado en algo menos que una cámara de nivel profesional en el corto plazo. Puede aparecer en cámaras de fotograma completo si su resolución sigue aumentando, pero no lo buscaría en un sensor de recorte. (Bueno, tal vez Pentax podría tener una puñalada algún día, ya que no hacen fotograma completo).


fuente
Lo siento, creo que debería aclarar sobre los tamaños de imagen RAW. Tengo una Canon 60D y tengo 3 opciones para tamaños de imagen RAW (RAW, M-RAW y S-RAW). Si RAW es solo un volcado de los sensores de la cámara, ¿cómo pueden ser 3 tamaños diferentes? ¿La cámara también reduce las imágenes RAW?
Viv
@Stan: Canon ya hace exactamente lo que describiste con sus formatos mRAW y sRAW. No son formatos RAW literales, son derivados de YUV (Y'CrCb para ser exactos), y de hecho lo hacen para formas de agrupamiento de píxeles. Vea mi respuesta para más detalles.
jrista
Re el futuro: La limitación real es el área del sensor. Si el tamaño del sensor sigue siendo el mismo y la resolución aumenta (al reducir los píxeles), no habrá ganancia neta por la agrupación de píxeles. Es simplemente una cuestión de usar más sensores para leer la misma área física del sensor. Lo que podemos esperar es una sensibilidad mejorada de los sensores individuales, de modo que se registre más luz y menos ruido dentro de una pequeña porción del sensor.
whuber
1
@jrista: eso no es binning, eso es un promedio posterior a la lectura. La agrupación debe dar como resultado una reducción integral de la resolución lineal, y los datos individuales de la fotosita no están disponibles para el procesamiento ya que las lecturas acumulativas (no separadas, luego promediadas) se realizan en múltiples sensores. (En un sistema Bayer-quad, eso significa 1/4, 1/16, 1/64, etc., de la resolución completa expresada como área o píxeles). El promedio posterior a la lectura no es diferente, técnicamente, de la escala; solo está trabajando en un espacio de datos diferente.
1

Si su principal problema es el ruido elevado, una solución es tomar varios fotogramas y hacer que un software con buenos algoritmos combine una buena imagen de varias peores. Por ejemplo , ALE, Anti-Lamenessing Engine hace esto. Para sujetos en movimiento, esto obviamente no funciona, pero puede disparar con la mano, por ejemplo, a ISO 1600 y luego combinar los disparos para llegar a niveles de ruido cercanos a ISO 400 u 800.

Zds
fuente