En un comentario sobre esta pregunta, alguien sugirió que los sensores de la cámara generalmente solo generan 12-14 bits de datos. Me sorprendió porque eso significaría que 24 bits de color solo son útiles para la manipulación de fotos (donde los bits agregados reducen el ruido que se obtiene de la interpolación de valores medios repetidamente haciendo múltiples manipulaciones).
¿Alguien sabe lo suficiente sobre el sensor de la cámara para poder responder de manera autoritativa al reclamo de 12-14 bits? Si es así, ¿cuáles son las codificaciones típicas?
Respuestas:
Las fotosites de un sensor digital son en realidad dispositivos analógicos . Realmente no tienen un poco de profundidad en absoluto. Sin embargo, para formar una imagen digital, un convertidor analógico a digital (convertidor A / D) muestrea la señal analógica a una profundidad de bits dada. Esto normalmente se anuncia en las especificaciones de una cámara; por ejemplo, la Nikon D300 tiene un convertidor A / D de 14 bits .
Pero tenga en cuenta que esto es por canal , mientras que el color de 24 bits generalmente significa 8 bits por canal. Algunos formatos de archivo, y espacios de trabajo, usan 16 bits por canal (para 48 bits en total), y algunos usan incluso más que eso.
Esto se debe en parte a que la precisión adicional puede reducir los errores de redondeo acumulados (como observa en su pregunta), pero también se debe a que la visión humana no es lineal, por lo que los espacios de color que usamos tienden a no serlo. Cambiar de una curva lineal a una "compresión gamma" es una operación con pérdida (vea una de las varias preguntas sobre archivos sin formato), por lo que tener más bits simplemente significa menos pérdida, lo que es mejor si cambia de opinión sobre la exposición / curvas y no Ya no tengo acceso al archivo RAW.
fuente
La mayoría de los chips sensores solo registran un componente de color por píxel, por lo que un píxel puede contener, por ejemplo, 14 bits de datos para la intensidad del verde.
Los píxeles se presentan en una cuadrícula donde el 50% de los píxeles registra datos verdes, 25% rojos y 25% azules:
Cuando estos datos se convierten a RGB, dos componentes de color por píxel se interpolan a partir de la información en píxeles circundantes. Un píxel que contiene información verde, por ejemplo, tiene dos píxeles vecinos que contienen datos rojos y dos que contienen datos azules, que se utilizan para crear el valor RGB.
Entonces, 14 bits por píxel de datos RAW produce 42 bits por píxel de datos RGB. Por supuesto, los datos interpolados son menos precisos, pero de todos modos generalmente los procesa a RGB de 24 bits.
fuente
Tenga cuidado de no confundir la profundidad de bits por píxel y la profundidad de bits por componente.
La salida de los sensores digitales es casi siempre entre 10 y 14 bits por componente en una escala lineal. Eso daría entre 30 bits de color (mil millones) y 42 bits (4 billones) por píxel.
El sitio DXOMark mide esto usando una escala normalizada (explicada en su documento técnico) y publica una profundidad de bits por píxel que explica el ruido que tiende a destruir los bits de orden inferior. Según sus hallazgos a pantalla completa, las DSLR pueden alcanzar 24.7 bits por píxel, mientras que las cámaras de formato medio alcanzan los 26 bits. Para cámaras con sensor recortado, 23.8 bit es el máximo actual.
fuente
Las cámaras DSLR actuales alcanzan un máximo de 14 bits. Algunas cámaras de formato medio reclaman una salida de 16 bits, pero varias personas ( como el sitio dpBestflow de ASMP) argumentan que el aumento en la profundidad de bits entre 14 y 16 bits en realidad produce una mejor imagen.
fuente