Nunca he entendido por qué las cámaras necesitan un obturador con una velocidad específica y por qué esto no se puede ajustar en el procesamiento posterior. Creo que el sensor actual funciona de manera integral: ahorran la cantidad de luz que les llega durante todo el tiempo que el obturador está abierto. Pero, ¿por qué no pueden trabajar de manera diferencial?
En mi opinión, tengo esta idea: configurar la velocidad del obturador para que esté abierta durante mucho tiempo, más de la que necesita ... por ejemplo, a la luz del día, configúrelo en 1 segundo, presione el botón, el obturador se abre y se inicia el sensor para grabar, pero de manera diferencial: ahorraría la cantidad de luz que llega cada 0.001 segundos durante 1 segundo. De esta manera tengo más información, en realidad tengo 1000 cuadros grabados en 1 segundo y en el postprocesamiento puedo elegir integrar solo los primeros diez, para simular un disparo con 0.01 segundo, o los primeros cien, para simular un disparo con 0.1 segunda exposición
Utilizando un procesamiento sofisticado o seleccionando áreas manualmente, incluso podría decidir usar una exposición diferente para diferentes partes de la imagen final, por ejemplo, una exposición de 0.1 segundos para el suelo y 0.03 para el cielo, usando 100 cuadros para el cielo y 30 cuadros para el cielo.
¿Tiene sentido? ¿Por qué las cámaras no funcionan de esta manera?
fuente
Respuestas:
El problema es la velocidad de lectura. No puede leer todo el sensor lo suficientemente rápido como para que esto funcione en el caso general. Incluso si pudieras. también habría un efecto perjudicial en la calidad de la imagen, ya que estaría aplicando ruido de lectura una y otra vez.
Al menos con los sensores CMOS puede leer en ubicaciones aleatorias, pero con los sensores CCD cada fila se desplaza a la siguiente para realizar la lectura. Es por eso que cuando las luces son demasiado brillantes, se obtienen rayas verticales en la vista previa de las cámaras que usan CCD.
Luego hay razones por las cuales los fotógrafos eligen una velocidad de obturación : para congelar un trozo de tiempo. La gente casi siempre estaría borrosa si no detenías el obturador lo suficientemente rápido.
fuente
Creo que podrían funcionar de esa manera, pero hay dos grandes problemas:
En su pregunta original, utilizó ¹⁄₁₀₀th de segundo como ejemplo. En realidad, esa no es una velocidad de obturación muy larga, y ya es 10 × donde estamos con las cámaras actuales. Para que esto sea realmente significativo, necesitaríamos la tecnología hasta el punto en que el sensor se lea de 10 a 100 veces más rápido que eso , lo que agrava los problemas de manera significativa.
El segundo problema será resuelto por la ley de Moore en una década o dos, y el primero también puede serlo, ya que la electrónica se hace más pequeña y más precisa. Por el momento, no es práctico.
La Olympus OM-D E-M5 en realidad tiene una función en la que muestra la exposición "desarrollándose" en exposiciones largas, pero que evita los problemas anteriores al requerir un mínimo de medio segundo entre lecturas: solo es útil para exposiciones prolongadas.
Pero, en el futuro, con una mejor electrónica, todas las cámaras probablemente funcionarán de esta manera, y con mucho más almacenamiento disponible, también podrían grabar continuamente. El botón "obturador" simplemente serviría para marcar una parte de la transmisión como interesante, para su posterior desarrollo. Y mientras lo hacemos, abandone la lente y haga de esta una cámara de campo de luz de 360º; El encuadre, la apertura y el enfoque también se pueden seleccionar después del hecho, arrojando por completo la sabiduría convencional sobre los conceptos básicos de la cámara.
fuente
Como muchas personas han mencionado, existe el aspecto de la velocidad de lectura de esto. Los circuitos de imágenes no pueden simplemente "adquirir" los valores de píxeles del sensor instantáneamente, sino que deben leerse línea por línea.
Luego, también debe pensar dónde van estos valores de actualización de píxeles. Incluso con algo de compresión, suponiendo una baja entropía de cuadros posteriores en relación con cuadros anteriores, ocuparán una cantidad considerable de espacio. Y también, los datos que no son muy comprimibles ralentizarán todo el proceso, ya que no se puede garantizar la compresibilidad de un nuevo marco en relación con el anterior, el sistema aún necesitaría tener suficiente ancho de banda para cubrir el peor de los casos sin degradarse.
Finalmente, (y esto es algo cursi), debe tenerse en cuenta el efecto de la desigualdad de Heisenberg o el principio de incertidumbre. En cada muestra, tenemos un nivel de incertidumbre acerca de la medición. Al tomar muchas muestras (cada una de las cuales aparentemente tenemos poca confianza, de lo contrario podríamos seleccionar un solo cuadro de los miles), estamos obteniendo incertidumbre sobre cada uno de esos cuadros, en lugar de solo una vez. Esto se agravaría al combinar múltiples cuadros, y ahora la incertidumbre máxima se multiplica por el número de cuadros con los que está componiendo la imagen final. En el peor de los casos, esto podría degradar las imágenes considerablemente.
fuente
Si bien su idea es intrigante, hay varias razones por las que no funcionaría.
Tamaño del archivo: piense en el tamaño del archivo de imagen resultante. Mi 8mp SLR da archivos de alrededor de 3mb de tamaño. Si tomara 100 imágenes cada vez que presionara el obturador, habría tomado 300mb en mi tarjeta. Una tarjeta se llenaría demasiado rápido. Además, estos son solo números para mi cámara, que tiene una resolución relativamente baja. Para cámaras profesionales, el tamaño fácilmente podría duplicar o triplicar eso. En Raw, el tamaño podría aumentar otras tres veces más o menos. Al final, el rodaje profesional de Raw podría terminar con más de 3 gb por disparo.
Exposición: a veces, una cámara necesita exponer por más de 1/100 seg. para obtener la cantidad adecuada de luz. Si disparó con poca luz, las imágenes resultantes estarían subexpuestas y potencialmente inutilizables. No puede simplemente combinar imágenes para compensar esto, ya que no puede encontrar datos que no están allí.
Ruido: a medida que los sensores se calientan, muestran un fenómeno conocido como ruido. Esta es la moteada de píxeles coloreados al azar aparentes en algunas fotos. Si el sensor funcionara constantemente durante un segundo a la vez, los niveles de ruido aumentarían rápidamente, lo que podría generar imágenes inutilizables.
Velocidad de escritura de la tarjeta: las tarjetas de memoria están limitadas en cuanto a la rapidez con la que pueden agregar información. Esto se conoce como su velocidad de escritura. Para manejar archivos de este tamaño, las tarjetas necesitarían una velocidad de escritura rápida. Estas tarjetas pueden ser extremadamente caras.
Entonces, para recapitular, esta es una idea interesante, pero es una con varios obstáculos grandes en su camino.
Espero que esto haya ayudado.
fuente
Cabe señalar que, dado que se hizo esta pregunta, esta idea se ha implementado de alguna manera en (al menos algunos) teléfonos inteligentes.
Como los límites tecnológicos no mejoraron tanto, por supuesto está restringido a exposiciones muy largas con muy poca luz (p. Ej., Astrofotografía). El hecho de que el software apila múltiples exposiciones de n segundos es visible si hay movimiento en el marco (Tendrán algunas pequeñas discontinuidades en la lectura).
El apilamiento incluso se puede ver en tiempo real en la pantalla, ya que la imagen del "resultado" parece cada vez más brillante.
fuente
Hay cámaras que esencialmente funcionan de esa manera. Busque cámaras de alto rango dinámico (HDR). Los menos costosos trabajan entre corchetes de la exposición, esencialmente tomando dos o cuatro exposiciones diferentes, luego combinándolas en su software interno en una imagen unificada. Realmente puede hacer esto con cualquier cámara, utilizando un software externo .
Comprendo cómo funcionan las cámaras HDR de gama alta es que básicamente calculan dinámicamente un tiempo de exposición automática por separado para cada píxel individual, y lo usan para determinar el brillo real de la escena. Eso resuelve el problema de tener toneladas y toneladas de datos para cada píxel, básicamente solo almacena el tiempo de exposición y los valores de color cuando cruza un cierto umbral de brillo. Obviamente, esto requiere hardware y software mucho más complejos para funcionar correctamente.
fuente
Hay algunos tipos diferentes de persianas, pero las principales son persianas mecánicas y electrónicas (el sensor está encendido / apagado).
La mayoría de las DSLR usan el obturador del plano focal, mientras que las cámaras de video usan obturadores electrónicos. Entonces, aunque parezca lo que quieres hacer para integrarlos, hay otras formas de lograrlo.
La razón principal de un obturador es la exposición, un principio fundamental de la fotografía.
Probablemente podría configurar algo para su ejemplo. Es posible que desee ver los corchetes o, si eso no es suficiente, la inmovilización.
0.01 = 1/100 y es buena velocidad de obturación. La mayoría de las cámaras admiten velocidades de hasta 1/8000 segundos.
Solo en tu última parte:
Aún necesitaría pensar en la exposición para esa toma, cada 0.01 segundos.
fuente
Aparte de los puntos que todos los demás hicieron, ¿qué va a pasar con la exposición?
Por ejemplo, con mi cámara convencional, una exposición de 1 segundo es lo que necesito para una toma determinada. Esencialmente, esto significa 1 segundo de luz registrada por el sensor de una vez.
Ok, vayamos a la sugerencia que hiciste, la cámara graba 0.001 segundos de luz 1000 veces. Todas estas imágenes están subexpuestas y, por lo tanto, son inútiles. Si los apilo, no obtengo la misma imagen que mi cámara convencional porque el apilamiento no soluciona la subexposición. Para obtener algo cerca de la exposición correcta, necesitaría una apertura muy amplia, que (incluso si pudiera encontrar una lente adecuada) tendría otros problemas: profundidad de campo, etc. Si quiere decir que el sensor sería lo suficientemente sensible como para capturar lo suficiente luz en 0.001 de segundo para que la imagen no esté subexpuesta, tendríamos un problema grave con el ruido. La idea que mencionas de incluir / excluir cuadros para obtener una exposición diferente ya se maneja en PP con el control deslizante de exposición.
Puede probar su idea tomando fotos con un obturador corto (como sugiere) y luego apilándolas en el software HDR o en el software startrail.
Las cosas de procesamiento posterior que menciona sobre tomar el suelo y el cielo con diferentes exposiciones para equilibrar la imagen ya se pueden rectificar en PP con controles de sombras / luces y / o tonos divididos.
Además, piense en la fotografía de acción como el automovilismo, donde necesito un obturador largo mientras se desplaza para dar una sensación de velocidad y movimiento. Si digo 200 imágenes con un tiempo de obturación muy pequeño, no captaré el desenfoque y el efecto de la toma no funcionará.
fuente