¿Por qué los sensores de las cámaras digitales no pueden exponer cada fotosita individualmente?

14

¿Por qué es imposible que los sensores de la cámara funcionen de la misma manera que el ojo humano? Lo que quiero decir es, ¿por qué una cierta porción de la imagen tiene que estar sobre / subexpuesta si compensamos las áreas oscuras y claras, respectivamente, al tomar una foto y decidir la configuración de apertura y velocidad de obturación?

Entiendo que la entrada de luz depende de la apertura y la velocidad de obturación, pero dado que las DSLR son digitales, ¿no puede haber una tecnología que permita que cada celda del sensor use su propia medición y, por lo tanto, no estarían sujetas a la misma cantidad? de luz, pero dependiendo de la medición, una CPU de la cámara apagaría ciertas celdas para no sobreexponerlas.

Espero no decir tonterías. Me parece una idea plausible.

Por favor lea el perfil
fuente
Parece que se pregunta por qué un sensor no puede tener un rango dinámico ilimitado. O tal vez otra ruta sería "cómo funciona un sensor de cámara". Pregunta interesante independientemente.
dpollitt
Sí, diría que la pregunta es sobre el rango dinámico ilimitado, pero en realidad me parece bastante extraño que, dado que cada celda del sensor tiene la capacidad de "grabar" o rebozar, digamos capturar cualquier cantidad de luz (ignore el recorte de blanco / negro) , ¿por qué no puede hacerlo en una sola celda sino capturar la misma cantidad en todo el sensor? Tal vez sería exigir un poco más de potencia de la CPU y otras cosas pero estoy interesado si fue siquiera considerada por cualquier fabricante DSLR ...
2
Demasiado cableado es mi suposición . Necesitaría circuitos adicionales no triviales por fotosita. Las más cercanas a la fecha son las cámaras que leen la mitad de los píxeles a la mitad de la exposición.
Itai
¿Tienes un enlace al artículo? Entonces, ¿la única respuesta a mi pregunta original es que, de hecho, es demasiado complicado en este momento en la historia de la tecnología DSLR?
1
Ese es el tipo de pregunta que está un poco fuera de la caja. Es muy sensato preguntarlo. Estoy seguro de que un día las cámaras funcionarán de manera muy similar a su sugerencia. ... Aunque personalmente, encuentro que las limitaciones técnicas alimentan lo artístico.
AJ Finch

Respuestas:

19

¿Quién decide qué píxeles obtienen cuánta ganancia? Gran parte de lo que sucede en el sistema visual humano ocurre en la corteza, no en el ojo, y depende de lo que creemos que es importante ver en función de una combinación de decisión intelectual y el impulso instintivo (algo anulable) para la autoconservación . Si bien es cierto en un sentido que vemos lo que hay allí, es igualmente cierto en otro sentido que vemos lo que queremos (o necesitamos) ver.

Seria casitrivial para crear un sensor de densidad de píxeles relativamente bajo con fotosites grandes que permitan un rango dinámico enorme y (suponiendo una tecnología de tipo CCD, ya que la tecnología actual del sensor CMOS no puede funcionar de esta manera) un obturador electrónico por píxel además de El obturador mecánico. Entonces, ¿qué te llevaría eso? Una imagen plana con mucha profundidad de bits y muy bajo contraste local (si toda la profundidad de bits se convierte como está para su visualización o impresión) junto con una cantidad de píxeles que están casi, pero no del todo, recortados por la saturación del sensor ( aunque, de hecho, están recortados por la acción limitante del obturador electrónico justo antes del punto de saturación). Digamos, por el simple hecho de argumentar, que este sensor y su computadora asociada podrían grabar los datos de recorte (la razón por la cual dejó de grabar en ese sensor, que podría ser tan simple como registrar la duración real de la exposición en ese sitio). Eso permitiría que la electrónica de la cámara reconstruya cuáles habrían sido los números si el fotosite hubiera permanecido en el juego hasta el pitido final. Así que ahora tenemos una imagen aún más plana con mayor profundidad de bits. ¿Y dónde trazas la línea? 32 bits? 64?

Ahora viene la parte difícil: convertir esta información de imagen plana de alto rango dinámico en una fotografía convincente. El enfoque más simple es tomar los ocho bits (o lo que sea la profundidad de bits de salida) que representan la imagen medida primaria y tirar el resto. Probablemente no sería mucho más difícil ajustar los datos a una curva en S, comprimiendo las sombras y / o reflejos extremos, que es más o menos lo que ya hacen las configuraciones de rango dinámico extendido en las cámaras más nuevas. Pero solo hay tantos bits de salida disponibles por píxel, y la mayoría de los valores de resaltado extendidos se redondearán a blanco (o al menos una mezcla de 254 y 255). Entonces has ganado muy poco al complicar dramáticamente el sistema.

Pero todavía hay una opción abierta: mapeo de área selectiva. ¿Por qué no reducir el valor del cielo, digamos, o simplemente las nubes en ese cielo para que pueda retener los detalles, mientras se preserva el contraste deseado en primer plano? Aquí es donde vive el problema difícil. ¿Qué es importante? ¿Debería la cámara decidir por ti? Si la cámara decide, entonces tenemos un gran avance en visión artificial e inteligencia artificial para llegar primero. Si no es así, ¿realmente desea tomar este nivel de decisión posterior a la captura para cada imagen que tome? Sí, sé que habrá algunas foto-tecno-weinies que realmente quieran ser tan prácticas, pero ¿podemos aceptar que es una condición patológica, y que los profesionales interesados ​​en el tiempo de respuesta y la gran mayoría de los consumidores no lo son? no te gusta eso?

Por lo tanto, necesita un nuevo sensor, componentes electrónicos mucho más complicados alrededor del sensor, un enorme archivo de imagen para datos brutos proyectados (que necesita tarjetas más grandes y tiempos de escritura más largos / velocidades de cuadros más lentas), todo para recopilar datos que se desecharán más de vez en cuando para que de vez en cuando pueda tomar imágenes HDR de una sola toma que requieren mucha intervención humana en la publicación (o un gran salto en MV / AI). Probablemente podría vender algunos de estos, pero espero que el mercado se parezca mucho más al mercado de formato medio que al mercado existente de 35 mm / APS-C. Es decir, vendería a un grupo selecto de fotógrafos adinerados que realmente necesitan las capacidades por razones profesionales o para cumplir con su visión de las bellas artes, y unos pocos que simplemente obtienen una gran ayuda del postprocesamiento para pagar El impuesto tecnológico.


fuente
1
Este es un gran análisis (y lo votaré como tal). Pero al final las conclusiones me parecen poco convincentes. Después de todo, no sería difícil crear una matriz "tonta" de sensores, algunos de los cuales están enmascarados por, por ejemplo, un filtro ND de seis pasos. (Use una de las G en el filtro Bayer para esto, por ejemplo). No se necesitaría ningún cambio significativo en la electrónica; nada sobre las cámaras, lentes, etc., cambiaría; pero a cambio de una pequeña pérdida de sensibilidad, obtendría la capacidad de distinguir gradaciones (gruesas) dentro de píxeles expandidos. Eso está cerca de lo que pide el OP.
whuber
2
Ya existe un mejor enfoque simple en el sensor EXR de Fuji. Tiene sensores de diferentes tamaños; un sensor pequeño y uno grande se emparejan en cada sitio de píxeles de origen en el sensor. Si bien eso puede proporcionar un rango de captura más amplio, todavía está limitado en lo que puede hacer: aún puede eliminar los reflejos si desea obtener todas las sombras. (Y la implementación actual de Fuji usa demasiados píxeles en un sensor demasiado pequeño). Suponga una implementación perfecta con múltiples tamaños de sensor, que todavía deja el problema de procesamiento, y que, no la captura, es el verdadero problema.
Gracias por la referencia EXR. Muestra que mi sugerencia no solo es plausible, sino real. ¿Ahora el software HDR no ha solucionado el problema de procesamiento? Si ha logrado capturar un amplio rango dinámico con un sensor integrado, en realidad ya tiene una pila HDR perfectamente registrada. Las limitaciones de esta tecnología serán las limitaciones de HDR, sin duda.
whuber
Una vez más, el procesamiento directo dará una imagen horrible si la fuente es HDR. La limitación no está en la captura, sino en el procesamiento: ¿cuántas imágenes con halo necesita ver antes de llegar a la conclusión de que el procesamiento HDR no es simple? Las personas bien intencionadas lo arruinan de verdad, y saben lo que quieren que la imagen "diga". Luego, los problemas de almacenamiento y velocidad de escritura siguen ahí también, y hay otro compromiso de uso. Una cámara puede ser todo para todas las personas, pero ¿a qué costo tanto en precio como en ergonomía? La captura de 14 bits y la compresión DR están aquí ahora; 16 bits no estará muy lejos.
1
... Y a ambos todavía les quedan reflejos. Debe extenderse sustancialmente más para evitar el problema por completo, y en algún momento la practicidad se rompe, al menos a nivel de mercado masivo. Los tiradores de estudio no lo necesitan; La mayoría de los consumidores no lo necesitan. Realizo principalmente retratos medioambientales, y no puedo pensar en muchas veces que los necesitaba (la sobreexposición ha hecho muchas de mis imágenes). Los gastos generales simplemente no valdrían la pena para la mayoría de las personas, por lo que eso creará un producto de nicho costoso.
3

Hay una cosa que solo unas pocas personas mencionan, y es que una escena no se vería igual si diferentes áreas estuvieran expuestas de manera diferente a otras áreas. Una escena se ve como se ve porque hay variación. Sí, podría ser una forma de guardar reflejos y aumentar las sombras, pero al final, lo que realmente desea es un rango dinámico más grande que pueda capturar el rango dinámico en la escena usando una configuración de exposición.

Nuestros ojos son excelentes para proporcionarnos un rango dinámico mucho mayor que la tecnología actual de cámaras de consumo. Puedo mirar alrededor rápidamente y percibir detalles precisos en áreas sombreadas y áreas iluminadas por el sol al mismo tiempo.

Una de las formas en que los fabricantes de cámaras resuelven este problema es mediante el uso de píxeles de alta y baja sensibilidad en un sensor y luego combinando el resultado por píxel. Las nuevas cámaras de cine digital de RED tienen una matriz de píxeles de sensores normales y de baja sensibilidad llamada HDRx. Los pequeños píxeles del sensor de baja sensibilidad se combinan en los reflejos de los píxeles brillantes para aumentar el rango dinámico.

Nick Bedford
fuente
Tienes razón, daría lugar a una foto suave pero obviamente tendría que tener algunas limitaciones. Creo que dejar que la cámara decida qué áreas deberían ser más brillantes y más oscuras sería demasiado. No estaba pensando bien ...
3

Primero, el rango dinámico del ojo humano no es tan bueno. Solo parece ser mejor que nuestras cámaras de gama alta actuales, porque nuestro cerebro combina constantemente "instantáneas" tomadas con diferentes configuraciones de exposición. Nuestros ojos no pueden registrar objetos extremadamente brillantes y extremadamente oscuros simultáneamente (aunque el cerebro sí puede). Verdadera maravilla del procesamiento de imágenes, pero solo un dispositivo de imagen / óptica mediocre.

Existen varias propuestas / prototipos que muestran cómo el rango dinámico de los sensores de imagen podría mejorarse considerablemente:

  • Modulo Camera de MIT

    cada fotodiodo restablece su estado al alcanzar la carga máxima y recuerda cuántas veces sucedió

  • Sensor de imagen Quanta por Eric Fossum

    utiliza píxeles de conteo de fotones mucho más pequeños y rápidos en lugar de contenedores de carga "analógicos" + convertidores A / D

szulat
fuente
2

Te estás perdiendo algo de física básica aquí. El principal problema es que las escenas reales tienen grandes relaciones de contraste. Nuestros ojos han evolucionado para lidiar con eso al percibir los niveles de luz de forma logarítmica en lugar de lineal. Desafortunadamente, la tecnología actual de sensores mide inherentemente la luz linealmente. O, para ser más precisos, el ruido se fija en una escala de luz lineal.

Con la tecnología actual, el límite máximo de contraste es básicamente una función del nivel de ruido. En aras de la discusión, usemos una escala de luz de 0-1000, lo que significa que un sensor puede indicarle el nivel de luz de 0 a 1000. ¿Cuál es la relación más alta que puede medir? Depende del nivel de ruido. El nivel de ruido es básicamente lo que obtienes en lugar del negro verdadero, que sería 0 en este ejemplo. Aproximadamente, si el nivel de ruido es 2, obtienes una relación de brillo de 1000: 2 = 500: 1. Mientras la escena no exceda eso (casi todo lo haría, en realidad 500: 1 no es tanto), puede hacer cualquier mapeo logarítmico que desee más adelante.

Entonces, la estrategia actual, dado que los sensores actuales son inherentemente lineales, es tratar de aumentar la relación señal / ruido y proporcionar suficientes bits para que el ruido de cuantificación esté por debajo del ruido aleatorio inherente. Cuanto más bajo sea el ruido del sensor, más amplias serán las escenas de rango dinámico que puede capturar sin recortar los reflejos o enturbiar las sombras.

Existe una tecnología de sensor totalmente diferente que mide inherentemente el registro del brillo. A veces, estos se denominan sensores "CMOS", porque son muy parecidos a las RAM dinámicas CMOS con la tapa retirada (simplifico demasiado, pero la primera prueba en el laboratorio se realizó de esta manera). Obtiene un voltaje proporcional al registro de la luz, pero estos actualmente tienen relaciones de señal a ruido mucho más bajas. Mitsubishi fue el primero en comercializar estos sensores, pero aún no son lo suficientemente buenos para las cámaras de gama alta.

No hay duda de que habrá avances en múltiples frentes, y estoy seguro de que veremos un progreso constante en los próximos años. Sin embargo, hay buenas razones por las cuales las cosas son como son ahora, no solo porque nadie puede imaginar algo mejor. Si alguien tuviera una tecnología que pudiera medir con precisión un amplio rango dinámico y a un precio que la gente está dispuesta a pagar, se enriquecería.

Olin Lathrop
fuente
1

Creo que es demasiado complicado.

Básicamente habría dos enfoques posibles; o bien cada fotosensor podría realizar un seguimiento del tiempo y apagarse, o la CPU podría realizar un seguimiento de los datos de los fotosensores y apagarlos.

Para el primer enfoque, significaría que cada fotosensor necesitaría una señal de reloj y un contador, para poder realizar un seguimiento de cuánto tiempo tardó hasta que se apagó. Eso es mucho más circuito para caber en el chip, y se necesita mucha más electricidad para ejecutarlo, lo que aumenta el ruido de la señal. Probablemente tanto que el aumento del rango dinámico sería inútil.

Para el segundo enfoque, la CPU necesitaría leer todos los datos del sensor aproximadamente una vez cada 1/10000 de segundo. Eso es aproximadamente 1000 veces más rápido de lo que la tecnología actual puede lograr, por lo que eso es décadas en el futuro, si es posible.

Además, existen otras complicaciones con dicha solución, como que cada píxel obtendría un tiempo de exposición diferente. Obtendría artefactos bastante extraños si fotografía algo que se mueva.

Guffa
fuente
1
No estoy tan convencido de que el "desenfoque de movimiento selectivo" sea un problema tan grande. Al disparar a un sujeto en movimiento, los píxeles que estarían expuestos más tiempo serían los que permanecieron en la oscuridad todo el tiempo. Éstos estarían dentro de áreas en su mayoría uniformemente oscuras, donde algo de desenfoque no sería muy notable. Los píxeles en los bordes entre el área oscura y la clara, en el caso de que el sujeto se estuviera moviendo, obtendrían una mayor exposición y se apagarían más rápido, lo que daría lugar a menos desenfoque.
Jan Hlavacek
0

Si bien es cierto que las DSLR son digitales, las lentes no lo son. Todos los sensores celulares estarán sujetos a la misma apertura, sin importar cuán inteligente se vuelva el cuerpo de la DSLR, porque la apertura se establece en la lente. Entonces, creo que la apertura de la apertura por celda del sensor está desactivada, al menos con la tecnología de lentes actual.

En cuanto a la velocidad de obturación, eso es controlado por la cámara, pero si imaginamos una cámara que puede variar la velocidad de obturación en diferentes partes de la imagen para controlar la exposición excesiva / insuficiente, terminará con un desenfoque de movimiento desigual. Las partes más oscuras de la escena tendrán que estar expuestas por más tiempo y serán más borrosas que las partes más brillantes. Creo que una solución que cambia la velocidad de obturación no funcionará por este motivo.

Entonces, lo único que queda es ISO. Variando el ISO significaría diferentes niveles de ruido en diferentes partes de la imagen. Esto no suena tan mal, teniendo en cuenta que obtendría un rango dinámico mucho mayor a cambio. No sé mucho sobre cómo funcionan los sensores, pero me imagino que la configuración ISO se implementa en los sensores como una especie de "ajuste" hacia un subconjunto específico de la escala de brillo. Me parece que sería prohibitivamente costoso tener una medición independiente y un control ISO en cada celda del sensor, pero tal vez la imagen se puede dividir en áreas, y cada área se mide por separado. Entonces la cámara tendrá que tener algún tipo de algoritmo para mezclar las áreas expuestas de manera diferente, algo de lo que hace "enblend" cuando ensambla un panorama donde cada imagen tiene una exposición diferente. Esto me suena factible.

Otra opción sería tener una cámara con múltiples sensores, cada uno configurado con un ISO diferente. En tecnología de video hay 3 cámaras CCD, donde cada CCD graba una de rojo, verde y azul. No veo por qué no podría haber un concepto similar para las DSLR, donde múltiples sensores toman la imagen a diferentes niveles ISO, produciendo una imagen HDR.

Miguel
fuente
0

No puedo encontrar la información en este momento, pero parece recordar haber leído una descripción de una tecnología similar. La idea era más o menos la siguiente: lo único que hay que tener en cuenta son los reflejos exagerados. Si puede evitarlos, las áreas oscuras pueden cuidarse mediante una mayor exposición a la imagen completa. Entonces, para evitar reflejos excesivos, cada sensor realizará un seguimiento de su luz acumulada, y si eso se acerca al máximo, el sensor se apagará. Eso por sí solo no mejoraría nada, en realidad empeoraría las cosas, en lugar de tener pocos reflejos exagerados blancos brillantes, uno terminaría con reflejos aún más oscuros. Entonces, en lugar de simplemente apagarse, la celda también apagaría las celdas en algún vecindario, lo que preservaría algunos detalles en áreas brillantes.

Como escribí, no puedo encontrar el texto ahora, pero de alguna manera está en mi mente asociado con las cámaras digitales HP.

Jan Hlavacek
fuente
Si lo encuentra, por favor enlace al artículo. Una idea interesante de hecho.