¿Por qué no se usa el sensor principal en lugar del sensor AF separado para enfocar una DSLR?

9

De esta respuesta , entiendo que el espejo reflejo de una DSLR en realidad no refleja toda la luz, pero pasa una cierta cantidad al sensor de AF.

Entonces, si el espejo reflejo puede pasar luz, ¿por qué no usar el sensor principal (que está directamente detrás del espejo) para enfocar?

Nota :
En un comentario debajo de la respuesta vinculada, se observa que el sensor de AF requiere una lente para enfocar los haces de luz en la ubicación adecuada del sensor, ya que es más pequeño que el sensor principal (la cursiva es mi propio supuesto). Si se utilizara el sensor principal, ¿seguiría siendo necesaria esta lente adicional?

Saaru Lindestøkke
fuente
Cuando está en modo Live View, las DSLR usan el sensor principal para enfocar. Generalmente es un proceso bastante lento.
James Snell
1
Soy consciente de eso, pero me refiero al AF de detección de fase rápida, para el cual normalmente se usa un sensor separado. Tal vez debería dejar esto más claro en el título.
Saaru Lindestøkke
1
Curiosamente, lo acabo de agrupar y el Sony A99 tiene DOS sensores de detección de fase y uno es parte de la matriz principal de sensores. No vi ningún detalle sobre por qué, pero podría darte un punto de partida.
James Snell
Hablando estrictamente, el Sony A99 carece del "Reflex" que lo convertiría en un DLS R , ya que es un diseño SLT. La razón por la que tiene sistemas de detección de dos fases: 1) El sensor independiente es más rápido y puede enfocar continuamente mientras graba video 2) El sensor AF incorporado en el sensor de imágenes proporciona cobertura para objetivos en movimiento cuando se encuentran entre los puntos de enfoque en el enfoque independiente formación. Aun así, la revisión de DP y la mayoría de los demás dicen que Sony no puede mantenerse al día con la tasa de arquero del 5DIII para disparar acción / deportes, mucho menos el D4 o el 1D X.
Michael C

Respuestas:

16

El enfoque automático de detección de fase funciona midiendo el desplazamiento horizontal entre los patrones de brillo proyectados en el sensor AF. Para medir el desplazamiento, se utilizan pares de matrices unidimensionales de píxeles monocromos. Así es como se ve el sensor AF en la Canon 5D mkIII:

Puede ver muchas líneas diferentes de píxeles utilizadas por diferentes puntos AF seleccionables por el usuario. En principio, podría usar líneas de píxeles en el sensor de imagen principal para hacer exactamente el mismo trabajo.

Este enfoque tiene algunas ventajas:

  • No tiene ningún problema si el sensor de imagen principal y el sensor AF están desalineados, ya que son uno y el mismo.

  • Evita la complejidad de los espejos secundarios y el costo del chip AF en sí.

Hay inconvenientes en el uso del sensor principal.

En un comentario debajo de la respuesta vinculada, se observa que el sensor de AF requiere una lente para enfocar los haces de luz en la ubicación adecuada del sensor, ya que es más pequeño que el sensor principal (la cursiva es mi propio supuesto)

Su suposición no es del todo correcta. No tiene que ver con tener un sensor AF más pequeño, las "lentes" AF son en realidad una lente con un perfil ondulado en forma de "B". Esta lente enfoca la luz proveniente de ambos lados de la lente en diferentes partes del sensor AF.

Aún necesitaría algún tipo de lente para hacer este trabajo al usar el sensor de imagen principal, y tendría que apartarse cuando toma una fotografía junto con el espejo reflejo, lo que requiere una disposición mecánica complicada dentro de la cámara. Este es el principal inconveniente de este enfoque, aunque existen otros obstáculos:

  • Los píxeles del sensor de imagen están detrás de los conjuntos de filtros de color que reducen la cantidad de luz que les llega hasta en dos tercios. Potencialmente, esto podría reducir el rendimiento con poca luz, sin embargo, le permitiría realizar la medición de fase en color para obtener menos resultados falsos (es menos probable que confunda un detalle desde el primer plano con un detalle desde el fondo, por ejemplo También se puede usar el color para ayudar al seguimiento).

  • El tamaño, el espacio y la sensibilidad de los píxeles serán diferentes entre los dos sensores, por lo que hacer ambos con un sensor significa que se deben hacer compromisos.

  • El sensor principal tendría que estar encendido por períodos mucho más largos, causando que se drene más energía de las baterías. Como Stan señala, el obturador también tendría que estar abierto durante la FA, por lo que cerrarlo antes de hacer la exposición introduciría un retraso.

  • Finalmente, los sensores de imagen digital de fecha previa de AF detectan por fase, de modo que toda la tecnología y las herramientas para realizar AF usando un sensor separado ya existe y está bien desarrollada.

Sin embargo los fabricantes han desarrollado un método ligeramente diferente para la fase detectar AF que hace usar el sensor principal. Fue desarrollado para cámaras sin espejo que no tienen la opción de un sensor AF dedicado y que tradicionalmente se han basado en el método de detección de contraste más lento utilizando el sensor principal.

En lugar de un par de lentes AF en la ruta de la luz para dirigir la luz desde cualquier lado del lente hacia diferentes partes del sensor AF, se pueden usar pares de microlentes regulares con mitades alternativas oscurecidas para obtener un efecto similar (píxeles a la izquierda medio blanco recibirá principalmente luz del lado derecho de la lente y viceversa).

Esto permite un enfoque AF híbrido utilizando una combinación de fase (para acercarse al enfoque correcto) y detección de contraste (para ajustar el resultado).

Matt Grum
fuente
muy buena respuesta!
Michael Nielsen
No estoy completamente seguro, pero creo que el enmascaramiento realizado a nivel de píxeles es problemático y es por eso que hay problemas de precisión con la detección de fase en el sensor. Con un sensor estándar de detección de fase, puede medir la diferencia de fase con un delta mayor. Esta puede ser la razón por la cual algunos sensores son sensibles hasta un valor de apertura máxima diferente.
Itai
Gran respuesta. Para estar seguros, las lentes en forma de B están ahí para "dividir" la imagen en dos, de modo que se puedan analizar las dos fases, ¿verdad? (como se describe en esta respuesta )
Saaru Lindestøkke
Creo que otra ventaja, especialmente históricamente (con diseños modernos que admiten video HD, esto es menos importante), es que las pocas docenas de píxeles en un sensor AF se pueden leer mucho más rápido que los millones en el sensor primario, lo que permite un ciclo de retroalimentación más rápido .
Dan Is Fiddling By Firelight
1
También está el pequeño asunto del obturador con el que lidiar en la mecánica. El uso del sensor de imagen para enfocar mientras se usa un obturador de plano focal mecánico para la duración de la exposición significa que el obturador debe cerrarse / inclinarse entre la adquisición del enfoque y el inicio de la grabación de la imagen (como lo hacen la mayoría de las DSLR en la visualización en vivo). Eso significa una actuación de dos disparos en el obturador, incluso cuando puede enmascarar el tiempo que se tarda detrás del giro del espejo reflejo, lo que significa ralentizar el obturador o perder confiabilidad.
2

Velocidad

La velocidad es probablemente la razón principal por la cual el sensor de imagen no se usa para enfocar en la mayoría de las DSLR. El AF se desarrolló cerca del final de la era de la película, por lo que no era una opción usar el "sensor" (la película) para enfocar. La mayoría de los sistemas de detección de fase de AF se crearon en "circuito abierto" para obtener más velocidad que precisión. Recientemente, los principales fabricantes de cámaras comenzaron a diseñar sistemas de lentes / cuerpo que utilizan la comunicación de "circuito cerrado" entre el cuerpo y la lente durante la detección de fase AF. Esto ha permitido que los sistemas de detección de fase se aproximen y, en algunos casos, igualen la precisión de la detección de contraste AF. Aunque el AF de detección de contraste que usa el sensor principal está mejorando en velocidad, debido a que es un proceso de varias etapas que requiere varios ciclos de "mover y medir", todavía es más lento pero, por lo general, también es más preciso.

Si bien puede haber raras excepciones, todas las réflex digitales que conozco todavía usan persianas mecánicas. Esto significa que el sensor de imagen principal está cubierto durante el enfoque y la medición. Ha habido algunos modelos sin espejo que solo tienen un segundo obturador de cortina, pero técnicamente hablando no son DSLR.

Para usar el sensor principal para la detección de fase, AF requeriría que el obturador estuviera abierto para enfocar, la primera cortina se cerraría antes de abrir nuevamente para exponer la imagen, luego de lo cual se cerraría la segunda cortina. Incluso cuando se disparan más de 8 cuadros por segundo, las DSLR más avanzadas se enfocan entre cada disparo (si así lo indica la configuración seleccionada por el usuario). Actualmente, las DSLR restablecen ambas cortinas al mismo tiempo mientras el espejo cambia y el AF enfoca. Para usar el sensor de imagen para enfocar, la primera cortina tendría que permanecer abierta hasta que el espejo volviera a caer y la cámara lograra bloquear el enfoque, luego el resto de la cámara tendría que esperar a que se cerrara la primera cortina y la energía absorbida por el sensor durante el enfoque despejado antes de que la primera cortina pueda volver a abrirse para comenzar a exponer la imagen. Esto ralentizaría el proceso general cuando todo el punto de detección de fase AF es la velocidad. El AF de detección de contraste utilizado durante Live View que utiliza el sensor de imagen principal para enfocar, por otro lado, generalmente es más preciso pero más lento.

Michael C
fuente
1

El sensor principal en una DSLR tiene una función y una sola función, y eso es grabar una imagen y hacerlo muy, muy bien.
Comprometerse con eso al incorporar dispositivos electrónicos adicionales degradaría la calidad y el rendimiento, entonces, ¿por qué hacerlo cuando hay disponibles sensores dedicados perfectamente buenos?
Además, las DSLR evolucionaron de las SLR de película donde, por supuesto, no había dispositivos electrónicos integrados en la película que pudieran pervertirse para ese propósito.

jwenting
fuente
1

Los dispositivos especializados funcionan mejor y más eficientemente en lo que hacen.

Los sensores de enfoque automático utilizados en las DSLR están altamente ajustados para realizar el enfoque automático rápidamente y hasta niveles de luz muy bajos.

Si utilizó el sensor principal para hacer el enfoque automático, tendría dos opciones:

  • Implemente el enfoque automático de detección de contraste, que es un enorme consumo de energía, pero en realidad es más preciso que la detección de fase. Sin embargo, la detección de contraste requiere un movimiento hacia adelante y hacia atrás de los elementos de enfoque en pasos muy finos, lo que no es óptimo para las lentes DSLR modernas.
  • Implemente el sensor de detección de fase que es posible pero mucho menos preciso que usar un sensor dedicado ya que la parte de imagen del sensor limita lo que puede hacer.

La realidad es que el espejo solo deja pasar la luz en algunas áreas y que la mayor parte es totalmente reflectante, lo que le brinda una vista brillante.

Sony tiene cámaras SLT que tienen un espejo verdaderamente semi-reflectante (30% / 70%), que es su solución para proporcionar enfoque automático tanto Live-View como Phase-Detect al mismo tiempo. Esto les permite usar un sensor dedicado de detección de fase para hacer que la velocidad de enfoque automático y evitar movimientos de lente de ida y vuelta que es terrible para el video. El sensor pierde algo de luz al alcanzarlo, por lo que tiene que ser más sensible para producir el mismo ISO efectivo, lo que es una desventaja cuando se trata de la calidad de la imagen. La luz reflejada hacia arriba es demasiado tenue para hacer un buen visor óptico, por lo que tuvieron que caber en un EVF.

Itai
fuente
0

En pocas palabras, la misma razón por la que no conduce un camión para ir a trabajar por la mañana (a menos que sea un camionero). El sensor AF puede hacer su trabajo mejor cuando no tiene que competir con el sensor de imagen por el área de superficie. Los sensores son de naturaleza diferente y, aunque hay algunos diseños que incorporan sensores AF en el sensor de imágenes, significa que las áreas del sensor de imágenes no están capturando la luz visible que golpea esas áreas tan bien como podría.

Hay sensores híbridos que pueden realizar tanto el AF como la detección de luz para la imagen, pero tienden a no funcionar ni a un sensor dedicado para ninguno. Puede que no sea mucho, pero es suficiente que si está tratando de obtener el mejor AF y el mejor rendimiento de imagen que pueda, los sensores separados aún funcionan mejor.

AJ Henderson
fuente
1
No veo por qué el sensor de AF tendría que competir con el sensor de imagen por área cuando se pueden usar exactamente las mismas fotositas para ambos propósitos. Los píxeles AF de detección de fase en el sensor principal (como lo usan algunas cámaras sin espejo) capturan luz visible al tomar una foto y contribuyen a la imagen. La sensibilidad reducida de estos píxeles no es notable ya que los píxeles AF son unos pocos miles en comparación con decenas de millones de píxeles regulares.
Matt Grum
1
@MattGrum: nunca dije que fuera un deterioro importante, solo un deterioro. Cuando su objetivo es capturar la mejor imagen absoluta posible, no tener que hacer ese compromiso brinda una calidad ligeramente mejor. Según tengo entendido, los píxeles híbridos tampoco funcionan tan bien como el AF dedicado. Son el gato de todos los oficios, pero es una compensación.
AJ Henderson
Usted dijo que "las áreas del sensor de imágenes no están capturando la luz visible que golpea esas áreas", lo cual no es cierto, esos píxeles reciben luz, la convierten en carga y contribuyen a la imagen. De todos modos, solo representa el 0.1% de los píxeles, por lo que me sorprendería si pudiera ver la diferencia. Sí, no son tan buenos para AF, pero no tiene la opción de un sensor AF dedicado en una cámara sin espejo, por lo que es mejor que nada. Sería más probable que compre un sin espejo que tenía PDAF en el sensor que uno que no.
Matt Grum
@MattGrum - sí. Admito que no sabía que los píxeles híbridos capturaban información útil. Supongo que la filtración de color es la razón por la cual terminan con una efectividad reducida o ¿hay otros problemas con ella? ¿Tengo entendido que un sensor de PD dedicado no captura información útil ya que sospecharía que carece del filtro de color necesario para otra cosa que no sea la medición?
AJ Henderson
0

Una posible razón que no tiene nada que ver con el enfoque automático es que el sensor de imagen debe estar libre de toda carga antes de tomar una imagen. El uso del sensor de imagen principal para AF / composición, como se hace con todas las cámaras de visión en vivo (la mayoría de las sin espejo), requiere que el sensor se apague y se libere de carga antes de tomar la imagen, de lo contrario, tendría algún fantasma imagen de liveview en la imagen tomada.

Esta es una de las razones del retraso del obturador en cámaras con vista en vivo solamente. Las dSLR no dependen de liveview.

Y no, si usa el sensor principal para AF, entonces no necesita tener el camino de luz / lente separado para la matriz de AF separada. Las cámaras sin espejo son mucho más simples que las dSLR porque no hay un conjunto de caja de espejos y no hay necesidad de conjuntos de sensores de AF y de exposición y rutas de luz separadas.

En su publicación en el blog "Demise of the dSLR" , Ming Thein estima, a partir de su experiencia personal de desmontaje, que las cámaras sin espejo tienen un 60-70% menos de piezas que las dSLR.

inkista
fuente