No estoy hablando de cambios en la distancia focal.
He leído muchas publicaciones que dicen que en la cámara de fotograma completo la densidad de píxeles es menor en comparación con la cámara del sensor de recorte y, por lo tanto, captura más luz y, por lo tanto, tiene un mejor rendimiento ISO y un mayor rango dinámico. Entonces, si cambio la cámara del sensor de recorte para disparar a una resolución más baja, ¿eso equivaldrá a una mejor densidad de píxeles e imitará el rendimiento de un cuadro completo (o formato medio) o siempre disparará a la resolución máxima y reducirá el tamaño?
--EDIT: 1--
Tengo una Canon 60D y tengo 3 opciones para tamaños de imagen RAW (RAW, M-RAW y S-RAW). Si RAW es solo un volcado de los sensores de la cámara, ¿cómo pueden ser 3 tamaños diferentes? ¿La cámara también reduce las imágenes RAW?
Respuestas:
Dado que tiene una Canon, los modos RAW más bajos, mRAW y sRAW, HACEN DE TODO USO TODOS los píxeles del sensor disponibles para producir un resultado más rico sin la necesidad de interpolación bayer. El formato de salida real, aunque todavía está contenido en un archivo de imagen RAW Canon .cr2, está codificado en un formato Y'CbCr, similar a muchos formatos desplegables de video. Almacena información de luminancia para cada píxel COMPLETO (2x2 quad de 1 rojo, 1 azul y 2 verdes), y cada canal de crominancia se deriva de datos de medio píxel (1x2 par de 1 rojo + 1 verde o 1 azul + 1 verde) .
No estoy exactamente seguro de cuáles son las diferencias específicas de lectura y codificación de hardware de bajo nivel entre mRAW y sRAW, sin embargo, en general, cuanto más pequeño es el formato de salida, más información de entrada de píxeles del sensor puede usar para cada píxel de salida. La pequeña cantidad de interpolación presente en m / sRAW es discutible, ya que ambos formatos se interpolan mucho menos que la RAW nativa. También se debe tener en cuenta que ni mRAW ni sRAW son formatos "RAW" reales en el sentido normal ... los datos del sensor se procesan y se convierten en otra cosa antes de guardarlos en un archivo .cr2.
Para obtener más detalles sobre los formatos derivados de YUV y Canon sRAW, consulte mi respuesta aquí: ¿Por qué el espacio de color xvYCC no está captando la fotografía fija?
De "Comprender qué se almacena en un archivo .CR2 Canon RAW":
Cada "píxel" en las imágenes sRAW y mRAW contiene cuatro componentes ... un componente Y 'dividido (y1 e y2), así como una x (Azul de crominancia) y z (Rojo de crominancia). Los cuatro componentes (desde una perspectiva de imagen de 1/2, sRAW1 / mRAW) tienen una altura de columna de 2 (h) y un ancho de 1 (v). Esto indica que el valor de luminancia (Y ') se compone de un quad COMPLETO de 2x2 píxeles ... o dos columnas de 2x1 píxeles almacenadas en y1 e y2.
Las referencias a continuación no parecen indicar esto específicamente, por lo que estoy especulando un poco aquí, sin embargo, con el sRAW2 (1/4 sin procesar) creo que la información de luminancia se derivaría de un bloque de píxeles de 4x4 donde h = 4 y v = 2. La crominancia de codificación se volvería más compleja en una imagen de tamaño 1/4, ya que la matriz de filtro de color bayer en el sensor no está dispuesta en columnas rojas y azules ordenadas. No estoy seguro de si se procesan columnas de altura alterna de 2x1 para cada componente Cr y Cb, o si se realiza alguna otra forma de interpolación. Una cosa es segura ... la interpolación de los datos de origen siempre es mayor que la de los datos de salida, y no puedo solapar (como en la interpolación bayer normal).
Finalmente, sRAW1 / mRAW y sRAW / sRAW2 se comprimen usando un algoritmo de compresión sin pérdidas. Esta es una distinción crítica entre estos formatos y JPEG, que también utiliza una codificación de tipo ycc. JPEG realiza una compresión con pérdida, lo que hace imposible restaurar los píxeles a su representación original exacta. De hecho, los formatos s / mRAW de Canon pueden restaurarse a datos de imagen originales de 15 bits de precisión total.
Referencias
fuente
En teoría, podría hacerlo si la cámara utilizara la estrategia correcta para reducir el tamaño de la imagen.
Como notó, con las cámaras actuales con sensor de recorte, la imagen en bruto permanece igual sin importar el tamaño JPEG que haya configurado. La imagen JPEG simplemente se escala. Esto puede reducir un poco la apariencia del ruido, pero la reducción se debe al algoritmo de escala de la imagen (no puede colocar tantos píxeles moteados en la imagen más pequeña como puede en la versión de tamaño completo). Sin embargo, es más probable que pueda hacer al menos tan bien, si no mejor, si hace la reducción de ruido y se escala después del hecho.
Existe una estrategia que producirá una verdadera reducción de ruido. Algunos respaldos de formato medio de alta resolución (como la serie Phase One SensorPlus) usan una estrategia llamada binning de píxeles , donde los grupos de sensores adyacentes se tratan como un sensor mucho más grande y su carga acumulada se lee desde el sensor. Eso es diferente de leer cargos individuales y promedios (que es lo que está restringido en el procesamiento posterior a la lectura): ocurre a nivel de hardware y cambia lo que significa "sin procesar". El ruido de lectura tiene una mejor oportunidad de cancelar, y la carga acumulativa hace que la conversión de analógico a digital sea menos ambigua (el rango de cuantos convertidos es más amplio con menos amplificación).
En la práctica, esto generalmente significa cortar la resolución por un factor de cuatro (la mitad del ancho y la mitad de la altura). Con un respaldo de formato medio de 60 u 80MP, que aún te deja con una imagen de 15 o 20MP; con una cámara con sensor de recorte de 16MP, se reduciría a una imagen en bruto de 4MP. Ahora puede saber y yo puedo saber que una imagen limpia de 4MP es mejor que una imagen ruidosa de 16MP, pero no todos aceptarán la idea de que cuesta más producir una imagen más pequeña. Eso significa que es poco probable que veas un binning de píxeles usado en algo menos que una cámara de nivel profesional en el corto plazo. Puede aparecer en cámaras de fotograma completo si su resolución sigue aumentando, pero no lo buscaría en un sensor de recorte. (Bueno, tal vez Pentax podría tener una puñalada algún día, ya que no hacen fotograma completo).
fuente
Si su principal problema es el ruido elevado, una solución es tomar varios fotogramas y hacer que un software con buenos algoritmos combine una buena imagen de varias peores. Por ejemplo , ALE, Anti-Lamenessing Engine hace esto. Para sujetos en movimiento, esto obviamente no funciona, pero puede disparar con la mano, por ejemplo, a ISO 1600 y luego combinar los disparos para llegar a niveles de ruido cercanos a ISO 400 u 800.
fuente