¿Cómo se compara el ojo humano con las cámaras y lentes modernas?

23

Un objetivo en la mayoría de las fotografías es presentar una escena que se parezca a lo que habría visto una persona que había estado allí en ese momento. Incluso cuando se trabaja intencionalmente fuera de eso, la visión humana es la línea de base de facto.

Por lo tanto, parece útil saber algo sobre cómo se compara el ojo con nuestra tecnología de cámara. Dejando a un lado los problemas de psicología, reconocimiento de patrones y percepción del color tanto como sea posible (¡porque esa es una pregunta separada!), ¿Cómo se compara el ojo humano con una cámara y lente modernas?

¿Cuál es la resolución efectiva? ¿Campo de visión? Apertura máxima (y mínima)? Equivalencia ISO? ¿Gama dinámica? ¿Tenemos algo equivalente a la velocidad de obturación?

¿Qué estructuras son directamente análogas a las partes de una cámara y lente (la pupila y el iris, por ejemplo), y qué características son exclusivamente humanas (o que se encuentran en las cámaras pero no en la biología)?

mattdm
fuente
+1 También estoy interesado. ¡Algunas partes de la pregunta ya han sido respondidas en otras preguntas más específicas!
JoséNunoFerreira
1
Hice la primera pregunta, pero me eliminé porque algunos usuarios comenzaron a quejarse de su subjetividad. ¡Me alegra que pudieras hacer la misma pregunta de una manera que nadie se queja!
tomm89
1
Esta es una pregunta interesante, pero al final se trata de comparar manzanas y naranjas. El ojo humano está altamente evolucionado para lidiar con las situaciones cotidianas que los humanos han enfrentado durante miles de años. Además, el ojo por sí solo no es análogo a un sistema moderno de cámara / lente: también debe incluir el cerebro (que no es mucho más análogo), momento en el cual la cámara pierde por motivos de adaptabilidad, velocidad, utilidad, etc. Además, no olvidemos que lo que produce una cámara es bastante inútil sin un ojo / cerebro para interpretarlo como algo significativo.
Nick
2
@ Nick - ¡Absolutamente! Ese es en gran medida el punto de la pregunta. No olvide que las manzanas y las naranjas se pueden comparar de muchas maneras significativas diferentes. Son de diferentes colores, tienen un sabor diferente, tienen una textura diferente, requieren diferentes condiciones de crecimiento, tienen un valor nutricional diferente, se usan para hacer diferentes tipos de productos ... ''
dijo
1
Todas estas preguntas se han marcado como fuera de tema, sin embargo, no estoy seguro de que sea cierto. La visión es un factor clave en el trabajo de todos los fotógrafos, y aunque no todos pueden estar interesados ​​en estos temas, muchos de nosotros lo estamos. Creo que es una discusión relevante, especialmente dado que tenemos muchos tipos técnicos y científicos en estos foros. Las preguntas se relacionan específicamente con la fotografía, las personas las responden y no hay votos para cerrar.
jrista

Respuestas:

11

El ojo humano realmente apesta en comparación con los lentes de cámara modernos.

El sistema visual humano , por otro lado, supera con creces cualquier sistema de cámara moderno (lente, sensor, firmware).

  • El ojo humano solo es agudo en el centro. De hecho, solo está afilada en un punto muy, muy pequeño conocido como fóvea , que es un punto cuyo diámetro es inferior al uno por ciento de nuestro ángulo de visión total. Así que tenemos algo de suavidad seria en las esquinas.

    Sin embargo, el cerebro humano puede corregir esto. Le indica al ojo que haga movimientos muy rápidos alrededor de una escena para que la parte afilada del centro se mueva rápidamente. Entonces, el cerebro tiene una estabilización de imagen en el cuerpo bastante impresionante, porque toma todos estos movimientos rápidos y los une para hacer una escena nítida, bueno, al menos todos los bits en los que aterrizó el ojo mientras se movían rápidamente.

  • El ojo humano es bastante sensible a la luz, pero a bajos niveles de luz no hay información de color disponible. Además de esto, la parte afilada en el centro (la fóvea) es menos sensible a la luz.

    Técnicamente es porque el ojo tiene fotositas separadas llamadas conos para los tres colores (rojo, verde, azul), y otro tipo diferente de fotosita llamado barras que solo captura blanco y negro, pero es mucho más eficiente.

    El cerebro une todo esto para crear una excelente imagen a todo color durante el día, pero incluso cuando está muy, muy oscuro, aparece una imagen suave e incolora hecha por todas las barras.

  • El ojo solo tiene un elemento de lente y produce una aberración cromática terrible en forma de bordes morados.

    En realidad, esta franja está en las longitudes de onda muy cortas de la luz. El sistema visual humano es menos sensible a estos azules y violetas. Además de esto, puede corregir esa franja que existe de varias maneras. Primero, porque el sistema de visión humana solo es agudo en el medio, y ahí es donde hay la menor aberración cromática. Y en segundo lugar, porque nuestra resolución de color es (fuera de la fóvea) mucho más baja que nuestra resolución de brillo, y el cerebro no tiende a usar el azul al calcular el brillo.

  • Podemos ver en tres dimensiones. Esto se debe en parte a que tenemos dos ojos, y el cerebro puede hacer cálculos sorprendentes relacionados con la convergencia entre ellos. Pero también es más avanzado que eso; Además del "efecto 3D" que se obtiene de la visión estéreo, el cerebro también puede reconstruir escenas en tres dimensiones, incluso cuando mira una foto bidimensional de la escena. Se debe a que comprende señales como la oclusión, las sombras, la perspectiva y las pistas de tamaño, y usa todas estas para armar la escena como un espacio 3D. Cuando miramos una foto de un pasillo largo podemos ver que el pasillo se extiende lejos de nosotros aunque no tengamos visión estereofónica, porque el cerebro comprende la perspectiva.

thomasrutter
fuente
El punto ciego también es interesante de mencionar
clabacchio
10

(Con mucha ayuda del artículo de Wikipedia )

Nuestros ojos son un sistema de 2 lentes, el primero es nuestro ojo externo y el segundo es una lente justo dentro de nuestro ojo. Nuestros ojos tienen una distancia focal fija, de unos 22-24 mm. Tenemos una resolución significativamente mayor cerca del centro que en los bordes. La resolución varía significativamente según el lugar de la imagen que está mirando, pero es de alrededor de 1.2 minutos de arco / par de líneas en la región central. Tenemos alrededor de 6-7 millones de sensores, por lo tanto, tenemos 6-7 megapíxeles, pero son algo diferentes. El patrón de los detectores de color no es muy uniforme, hay diferentes capacidades de detección de color en el centro en comparación con la visión periférica. El campo de visión está a unos 90 grados del centro.

Un punto interesante es que el ojo humano nunca forma una "Instantánea" completa, sino que es más un sistema continuo. Puede ser muy difícil decir esto, porque nuestros cerebros son muy buenos para corregirlo, pero nuestro sistema es más un enfoque de cubeta con fugas para la fotografía, algo pero no exactamente similar a una videocámara digital.

La lente "Normal" generalmente se elige para representar el área principal del enfoque humano, lo que explica sus diferencias.

Las cámaras tienen diferentes tipos de sensores, pero generalmente se extienden de manera bastante uniforme alrededor del sensor. El sensor siempre es plano (el sensor humano es curvo), lo que puede provocar distorsiones en los bordes. La resolución es difícil de obtener en el mismo formato que la visión humana, y depende un poco de la lente, pero se puede decir con seguridad que el ojo humano tiene más resolución en el centro de su foco, pero menos en las áreas periféricas.

PearsonArtPhoto
fuente
1
Con respecto a la resolución, que se ha discutido un poco en una de mis otras respuestas, el 1/60 de grado (1 minuto de arco) es para una visión 20/20. Si bien esto es "normal" para la mayoría de las personas, hay millones de personas que ven a 20/10 como adultos. Los niños también tienen una mejor agudeza, en el rango 20/10 o incluso 20/8, que es alrededor de 0.4 - 0.75 minutos de arco.
jrista
No es tanto que el ojo externo tenga un bajo rendimiento, es que está haciendo un trabajo diferente. El centro del campo de visión es donde tenemos una visión fina, mientras que el ojo externo es mejor para cosas como situaciones de poca luz.
Zachary K
5

Pixiq tiene un artículo muy interesante sobre el tema, recién publicado hace unos días: http://web.archive.org/web/20130102112517/http://www.pixiq.com/article/eyes-vs-cameras

Hablan sobre la equivalencia ISO, el enfoque, la apertura, la velocidad de obturación, etc. Está sujeto a discusión, pero sigue siendo interesante de leer.

El ojo en sí mismo es una buena pieza de tecnología, pero el cerebro hace gran parte del trabajo al ensamblar las piezas. Por ejemplo, podemos percibir un rango dinámico muy grande, pero esto se debe principalmente al ensamblaje del cerebro de las diferentes regiones sin que nos demos cuenta. Lo mismo para la resolución, el ojo tiene una buena resolución en el centro, pero realmente tiene un rendimiento inferior en todos los demás. El cerebro ensambla los detalles para nosotros. Lo mismo para los colores, solo percibimos colores en el centro, pero el cerebro nos engaña al almacenar en caché la información de color cuando salen del alcance central.

Decasteljau
fuente
1

Permítame devolverle una pregunta: ¿Cuál es la velocidad de bits y la profundidad de bits de un disco de vinilo?

Las cámaras son dispositivos diseñados para, lo más fielmente posible, reproducir la imagen proyectada en su CCD. Un ojo humano es un dispositivo evolucionado cuyo propósito es simplemente mejorar la supervivencia. Es bastante complejo y a menudo se comporta de manera contra intuitiva. Tienen muy pocas similitudes:

  • Una estructura óptica para enfocar la luz.
  • Una membrana receptiva para detectar la luz proyectada.

Los fotorreceptores de la retina.

El ojo en sí no es notable. Tenemos millones de fotorreceptores, pero proporcionan entradas redundantes (¡y ambiguas al mismo tiempo!) A nuestro cerebro. Los fotorreceptores de barra son muy sensibles a la luz (especialmente en el lado azulado del espectro) y pueden detectar un solo fotón. En la oscuridad, funcionan bastante bien en un modo llamado visión escotópica. A medida que se vuelve más brillante, como durante el crepúsculo, las células cónicas comienzan a despertarse. Las células de cono requieren alrededor de 100 fotones como mínimo para detectar la luz. Con este brillo, tanto las células de barra como las células de cono están activas, en un modo llamado visión mesópica. Las celdas de barra proporcionan una pequeña cantidad de información de color en este momento. A medida que se vuelve más brillante, las células de barra se saturan y ya no pueden funcionar como detectores de luz. Esto se llama visión fotópica, y solo funcionarán las células cónicas.

Los materiales biológicos son sorprendentemente reflexivos. Si no se hizo nada, la luz que pasa a través de nuestros fotorreceptores y golpea la parte posterior del ojo se reflejaría en ángulo, creando una imagen distorsionada. Esto se resuelve mediante la capa final de células en la retina que absorbe la luz usando melanina. En los animales que requieren una gran visión nocturna, esta capa es intencionalmente reflectante, por lo que los fotones que pierden fotorreceptores tienen la oportunidad de golpearlos en su camino de regreso. ¡Es por eso que los gatos tienen retinas reflectantes!

Otra diferencia entre una cámara y el ojo es dónde están ubicados los sensores. En una cámara, se ubican inmediatamente en el camino de la luz. A los ojos, todo está al revés. El circuito retiniano se encuentra entre la luz y los fotorreceptores, por lo que los fotones deben pasar a través de una capa de todo tipo de células y vasos sanguíneos, antes de finalmente golpear una barra o cono. Esto puede distorsionar la luz ligeramente. Afortunadamente, nuestros ojos se calibran automáticamente, por lo que no estamos atrapados mirando a un mundo con vasos sanguíneos rojos brillantes que fluyen de un lado a otro.

El centro del ojo es donde tiene lugar toda la recepción de alta resolución, con la periferia cada vez menos sensible al detalle y más daltónico (aunque más sensible a pequeñas cantidades de luz y movimiento). Nuestro cerebro se ocupa de esto moviendo rápidamente nuestros ojos en un patrón muy sofisticado que nos permite obtener el máximo detalle del mundo. Una cámara es realmente similar, pero en lugar de usar un músculo, toma muestras de cada receptor CCD a su vez en un patrón de exploración rápida. Este escaneo es mucho, mucho más rápido que nuestro movimiento sacádico, pero también está limitado a solo un píxel a la vez. El ojo humano es más lento (y el escaneo no es progresivo y exhaustivo), pero puede abarcar mucho más a la vez.

Preprocesamiento realizado en la retina.

La retina en sí misma hace bastante preprocesamiento. El diseño físico de las celdas está diseñado para procesar y extraer la información más relevante.

Si bien cada píxel en una cámara tiene un mapeo 1: 1 del píxel digital que se está almacenando (al menos para una imagen sin pérdida), los bastones y conos en nuestra retina se comportan de manera diferente. Un solo "píxel" es en realidad un anillo de fotorreceptores llamado campo receptivo. Para comprender esto, se requiere una comprensión básica de los circuitos de la retina:

circuitería retiniana

Los componentes principales son los fotorreceptores, cada uno de los cuales se conecta a una sola célula bipolar, que a su vez se conecta a un ganglio que llega a través del nervio óptico al cerebro. Una célula ganglionar recibe información de múltiples células bipolares, en un anillo llamado campo receptivo de centro-envolvente. El centro si el anillo y el borde del anillo se comportan como opuestos. La luz que activa el centro excita la célula ganglionar, mientras que la luz que activa el entorno lo inhibe (un campo en el centro, fuera del entorno). También hay células ganglionares para las cuales esto se invierte (descentrado, en envolvente).

campos receptivos

Esta técnica mejora notablemente la detección de bordes y el contraste, sacrificando la agudeza en el proceso. Sin embargo, la superposición entre los campos receptivos (un solo fotorreceptor puede actuar como entrada a múltiples células ganglionares) le permite al cerebro extrapolar lo que está viendo. Esto significa que la información que se dirige al cerebro ya está altamente codificada, hasta el punto en que una interfaz cerebro-computadora que se conecta directamente al nervio óptico no puede producir nada que podamos reconocer. Se codifica de esta manera porque, como otros han mencionado, nuestro cerebro proporciona increíbles capacidades de procesamiento posterior. Como esto no está directamente relacionado con el ojo, no profundizaré mucho en ellos. Lo básico es que el cerebro detecta líneas individuales (bordes), luego sus longitudes, luego su dirección de movimiento, cada una en áreas subsecuentemente más profundas de la corteza,flujo ventral y flujo dorsal , que sirven para procesar color y movimiento de alta resolución, respectivamente.

contraste de borde

La fóvea central es el centro del ojo y, como otros han señalado, es de donde proviene la mayor parte de nuestra agudeza. Contiene solo células cónicas y, a diferencia del resto de la retina, tiene un mapeo 1: 1 de lo que vemos. Un fotorreceptor de cono único se conecta a una célula bipolar única que se conecta a una célula ganglionar única.

Las especificaciones del ojo

El ojo no está diseñado para ser una cámara, por lo que no hay forma de responder muchas de estas preguntas de la manera que desee.

¿Cuál es la resolución efectiva?

En una cámara, hay una precisión bastante uniforme. La periferia es tan buena como el centro, por lo que tiene sentido medir una cámara por la resolución absoluta. El ojo, por otro lado, no solo no es un rectángulo, sino que diferentes partes del ojo ven con diferente precisión. En lugar de medir la resolución, los ojos se miden con mayor frecuencia en VA . Un VA 20/20 es promedio. Un VA 20/200 te hace legalmente ciego. Otra medida es LogMAR , pero es menos común.

¿Campo de visión?

Al tener en cuenta ambos ojos, tenemos un campo de visión horizontal de 210 grados y un campo de visión vertical de 150 grados. 115 grados en el plano horizontal son capaces de visión binocular. Sin embargo, solo 6 grados nos proporciona una visión de alta resolución.

Apertura máxima (y mínima)?

Típicamente, la pupila tiene 4 mm de diámetro. Su rango máximo es de 2 mm ( f / 8.3 ) a 8 mm ( f / 2.1 ). A diferencia de una cámara, no podemos controlar manualmente la apertura para ajustar cosas como la exposición. Un pequeño ganglio detrás del ojo, el ganglio ciliar, ajusta automáticamente la pupila según la luz ambiental.

Equivalencia ISO?

No puede medir esto directamente, ya que tenemos dos tipos de fotorreceptores, cada uno con una sensibilidad diferente. Como mínimo, podemos detectar un solo fotón (aunque eso no garantiza que un fotón que golpee nuestra retina golpee una célula de barra). Además, no ganamos nada mirando algo durante 10 segundos, por lo que la exposición adicional significa poco para nosotros. Como resultado, ISO no es una buena medida para este propósito.

Una estimación aproximada de los astrofotógrafos parece ser de 500-1000 ISO, con ISO de luz del día tan baja como 1. Pero, de nuevo, esta no es una buena medida para aplicar al ojo.

¿Gama dinámica?

El rango dinámico del ojo en es dinámico, ya que entran en juego diferentes factores para la visión escotópica, mesópica y fotópica. Esto parece explorarse bien en ¿Cómo se compara el rango dinámico del ojo humano con el de las cámaras digitales? .

¿Tenemos algo equivalente a la velocidad de obturación?

El ojo humano es más como una cámara de video. Toma todo de una vez, lo procesa y lo envía al cerebro. El equivalente más cercano que tiene a la velocidad de obturación (o FPS) es el CFF , o frecuencia de fusión crítica, también llamada velocidad de fusión de parpadeo. Esto se define como el punto de transición donde una luz intermitente de frecuencia temporal creciente se funde en una sola luz sólida. El CFF es más alto en nuestra periferia (por lo que a veces puedes ver el parpadeo de las bombillas fluorescentes viejas solo si las miras indirectamente), y es más alto cuando es brillante. A la luz brillante, nuestro sistema visual tiene un CFF de alrededor de 60. En la oscuridad, puede llegar a ser tan bajo como 10.

Sin embargo, esta no es toda la historia, porque gran parte de esto es causado por la persistencia visual en el cerebro. El ojo en sí tiene un CFF más alto (aunque no puedo encontrar una fuente en este momento, parece recordar que es del orden de la magnitud de 100), pero nuestro cerebro confunde las cosas para disminuir la carga de procesamiento y darnos más tiempo para analizar un estímulo transitorio.

Intentando comparar una cámara y el ojo

Los ojos y las cámaras tienen propósitos completamente diferentes, incluso si parecen hacer lo mismo superficialmente. Las cámaras se construyen intencionalmente en torno a suposiciones que facilitan ciertos tipos de medición, mientras que no existe tal plan para la evolución del ojo.

bosque
fuente