La pregunta está inspirada en esta pregunta que muestra estas imágenes .
La respuesta aceptada sugiere que estas imágenes fueron tomadas por una cámara de visión de 8x10, y el uso de una cámara de 8x10 fue confirmado en los comentarios.
Mi pregunta es: ¿cómo puedes saberlo?
Cuando se ven en la página web, estas imágenes son 496x620 = 0,37 megapíxeles (o 720x900 = 0,65 megapíxeles si hace clic en "vista completa").
Por lo tanto, cualquier cámara con una resolución superior a 0,37 Mpx debería poder capturar estas imágenes, es decir, prácticamente todos los teléfonos inteligentes y cámaras web del mercado.
Sé acerca de los sensores de Bayer . Pero el efecto en el peor de los casos de un sensor Bayer debería ser reducir la resolución en un factor de cuatro: si reduce la imagen en un factor de dos en cada dirección, cada píxel de salida contendrá datos de al menos un sensor de entrada para cada uno de ellos. los canales R / G / B.
La reducción de escala por el factor 4 aún significa que cualquier cámara con una resolución de más de 1.5Mpx (en lugar de los 0.37Mpx de la salida) debería poder capturar estas imágenes. Todavía estamos hablando de casi todos los teléfonos inteligentes y la mayoría de las cámaras web en el mercado.
Sé sobre la profundidad del color . Pero JPG, el formato que estamos usando para ver estas imágenes, es 8x3 = 24 bits. Y de acuerdo con los puntajes de DxOMark, hay varias cámaras, incluidas la Sony NEX 7 y la Nikon D3200, que son capaces de capturar 24 bits de color.
Entonces, incluso si una cámara web de $ 10 no puede capturar los matices en estas imágenes, una NEX 7 o D3200 debería poder hacerlo.
Sé que la mayoría de las lentes tienen una resolución más baja que la que la mayoría de los sensores son capaces de hacer. Como ejemplo, la Nikkor 85mm f / 1.4G es la lente más nítida de Nikon según DxOMark , y ofrece el mejor equivalente de resolución de 19Mpx en una cámara de 24Mpx (la Nikon D3X de fotograma completo), mientras que la lente menos nítida tiene un equivalente al mejor caso de 8Mpx en la misma cámara.
Pero la peor lente en su base de datos todavía da un orden de magnitud más resolución que el formato de salida de estos ejemplos.
Sé sobre el rango dinámico. Pero estas imágenes controlan la iluminación, por lo que no soplan los reflejos ni pierden las sombras. Mientras esté en condiciones de hacerlo, el rango dinámico no importa; de todos modos se asignará al rango de salida 0-255 de JPG.
En cualquier caso, DxOMark dice que varias cámaras con fotograma completo o sensores más pequeños tienen un mejor rango dinámico que las mejores cámaras de formato medio.
Eso es lo que sé, y no hay nada en estos fragmentos de teoría que pueda decirme cómo es posible distinguir una cámara de visualización de 8x10 de una Sony NEX 7 cuando ves el resultado como un JPG de 0,37 Mpx.
Esencialmente, hasta donde yo entiendo, debería ser irrelevante cuántos megapíxeles y cuánta profundidad de color puede capturar el sensor, siempre que sea al menos tanto como el formato de salida puede representar.
Aún así, no dudo del juicio de la respuesta de Stan Rogers. Y nunca he visto nada similar, en términos de nitidez percibida, de las cámaras de sensores pequeños.
¿He entendido mal lo que significa la resolución?
Supongo que principalmente estoy preguntando sobre teoría: ¿cómo puede ser visible una diferencia entre dos resoluciones (medidas en píxeles, lp / mm, profundidad de color o lo que sea) en un formato de visualización que tenga menos resolución que cualquiera de los originales?
O para decirlo de otra manera: ¿hay algo que me impida, en principio, replicar estas imágenes hasta el píxel utilizando una Sony NEX 7 y una iluminación por valor de $ 10,000?
fuente
Respuestas:
Se trata del micro contraste. Mire las publicaciones sobre aps-c versus fotograma completo y luego extienda esa diferencia a sensores de formato medio y grande.
¿Cuándo importan las diferencias entre APS-C y los sensores de fotograma completo y por qué?
Siguiendo las teorías sobre el sobremuestreo, es mejor tomar muestras a una tasa más alta y luego reducir la muestra que tomar muestras en el límite de nyquist desde el principio, es decir. Si su objetivo final es 640x480, es mejor usar un sensor de 1280x960 que un sensor de 640x480.
De todos modos, no importa cuántos MPixels tenga cuando los píxeles vecinos dependan unos de otros, debido a que el círculo de confusión es mayor que sus píxeles en el plano del sensor. Las lentes también tienen una capacidad limitada de resolución. Además, debe considerar la "nitidez" de la lente en comparación con su apertura, y un sensor más grande le permite acercarse y reducir el DOF más estrecho, lo que significa que puede capturar aún más detalles: el círculo de confusión es más grande, la lente está trabajando con menos difusión, etc.
Y luego tienes la "compresión de profundidad" realizada por la distancia focal de la lente que es bastante agresiva en esas tomas, apuntando a un teleobjetivo. El FOV en un sensor pequeño requeriría que retroceda un largo camino y abra mucho la apertura para obtener ese DOF estrecho. Sin embargo, al ejecutar los números, con una cámara de fotograma completo podría lograrlo, 210 mm, 2 metros de distancia, F8 daría un DOF de 4 cm y un FOV que toma la cara como esas tomas.
Dicho de otra manera: cuanto más grande es el sensor en relación con el sujeto, menos tiene que trabajar la lente en los rayos de luz para comprimirlos en un lugar estrecho. Esto aumenta la claridad de la toma y se muestra sin importar la distancia de visualización (que es lo que se simula cambiando el tamaño de la imagen a una resolución más baja).
Las siguientes discusiones sobre la mejora y retención de detalles a través del cambio de tamaño aquí son una comparación si temas similares de gran formato versus fullframe y gran formato versus apsc:
Arriba: caras masculinas con barbas. En la resolución en el sitio al que se vincula, la barba se representa con pelos de píxeles, pero todo eso se pierde en el mismo tamaño que el ejemplo de Matt. Ahora las barbas son difusas. Si vemos la imagen de Matt en el mismo tamaño que las fotos de 8x10 en el sitio, podríamos ver una gran diferencia si la cabeza no está enfocada. Incluso un sistema aps-c y un sensor más pequeño podrían producir este resultado (con respecto a los detalles).
Abajo: si comparamos las pestañas de la cara femenina con un tamaño similar al de la página web que mostró, con un ojo enfocado de una cámara aps-c, y el afilado no va a devolver los poros de la piel. Podríamos mejorar la percepción de las pestañas a costa de un halo brillante a su alrededor.
Ahora vemos una gran diferencia en la resolución del "sistema general" , y la cámara apsc + la lente utilizada + vista en la resolución de baja resolución dada no puede mostrar el mismo detalle que la cámara 8x10 + esa lente + la resolución vista . Espero que mi punto sea más claro ahora.
Otra comparación con aps-c, trozos de barba, después de afilarlos. Aunque stackexchange los redimensiona, todavía podemos percibir una diferencia en la claridad.
En conclusión, los otros factores que está preguntando además de la resolución de píxeles son:
Obtendrá más detalles en una toma macro reducida que en primer lugar sin disparar macro.
Una prueba final de que la resolución antes de la reducción de escala es importante. Arriba: 21MP FF Inferior: 15MP Aps-c con la misma distancia focal de lente / apertura.
Ahora reescalado a igual resolución:
y aplicó un poco de nitidez para recuperar algunos detalles. ¿Que ves? Un poco más de detalles de la cámara de 21mp FF vistos en el mismo tamaño / resolución que sería equivalente a una cámara de 3Mp. no puede contar las líneas en la imagen reescalada, pero la percepción de que son líneas es verdadera. Si desea esto o no, es su opción creativa, pero a partir de la resolución más alta (dada por el sistema total), tiene la opción. Si no los quiere, puede desenfocar la imagen antes de volver a escalar.
Un experimento final para mostrar la diferencia entre un sensor de tamaño pequeño, baja resolución frente a mayor, mayor resolución, pero reajustada y afilada a la misma resolución, que se muestra al MISMO TAMAÑO al final, con TODO MÁS IGUAL. Genial, ¿eh? ¿Cómo hice eso? Mi cámara APS-C que tomo simula un "sensor de recorte" (más pequeño que mi apc-c) recortando una imagen de la imagen. Luego me acerco al sujeto para llenar un sensor 4 veces más grande con el mismo sujeto. - al igual que los retratos en el sensor de gran formato es básicamente una toma macro, cada vez más cerca de lo que se obtendría con una cámara aps-c. La misma calidad electrónica, la misma lente, la misma configuración, la misma luz.
Así es como se ve en el pequeño sensor, llamémoslo "mini aps-cc":
Aquí vemos el "gran formato" (gran aps-c completo):
Aquí vemos muchos detalles, ¿verdad? Pero eso no importa después de que lo reduzcamos a una imagen de 0.016MP y lo agudicemos para obtener el mismo contraste general, ¿verdad?
Pero de hecho lo hacemos! Si todavía no me crees, me rindo :)
fuente
Tanto como cualquier cosa, el regalo de la cámara de visión fue una profundidad de campo extremadamente baja que no es paralela al plano de la película. Enfocar los labios y los ojos en varias de las imágenes con la postura del sujeto y el DoF muy superficial (la mayoría de las veces, la frente en la mandíbula inmediatamente debajo de los ojos es suave) es imposible sin inclinación.
También existe la naturaleza de los rangos fuera de foco; Es más típico de la reproducción casi a tamaño real que el enfoque lejano. La extensión DoF hacia la cámara es casi igual a la extensión hacia el fondo, que es lo que esperaría al acercarse a la reproducción 1: 1. A distancias de trabajo más normales, esperaría una distribución de un tercio / dos tercios de la nitidez aparente alrededor del plano de enfoque nítido (un tercio del DoF delante del plano de enfoque; dos tercios detrás). Entonces eso indica un "sensor" considerablemente más grande que APS-C, full-frame o incluso formato medio. La experiencia con los formatos 4x5 y 8x10 me dijo que era más probable que fuera un 8x10 (aunque incluso una de las raras cámaras de formato más grande tampoco hubiera estado fuera de discusión), y pensé que la lente de 210 mm era más probable que, decir,
Como señaló Michael Nielsen, hay mucho "micro contraste" aparente en las imágenes, pero hasta cierto punto puedes fingir eso en el postprocesamiento, especialmente si el objetivo es renderizar en tamaños webby. Y supongo que incluso podría falsificar el DoF y el plano focal si fuera diligente en la creación de un mapa de profundidad con un plano focal de gradiente aplicado contra lo que tendría que ser un modelo 3D del sujeto y entendiera la dinámica de enfoque de un 8x10 en aproximadamente 50-60% de reproducción a tamaño real, pero eso sería un gran trabajo. La solución económica, tanto para el fotógrafo como para cualquiera que analice la imagen, sería una cámara de visión real de 8x10.
fuente
No, una cámara de alta resolución realmente no importa cuando la salida es de baja resolución, al menos no cuando pasas de megapíxeles de dos dígitos a un cuarto de megapíxel. Toma la siguiente imagen:
Redimensionado para la web, se ve bien a pesar del hecho de que la cara del sujeto ni siquiera estaba enfocada. Es obvio cuando se ve al 100% y obvio en la impresión, pero absolutamente no se puede saber cuando se ha cambiado el tamaño al 2% de sus píxeles originales y se ha mejorado para la web.
Aquí hay otro ejemplo, tome una imagen original masivamente suave, a unos 8 megapíxeles:
Reduzca drásticamente la muestra a una resolución amigable para la web y agudice, ¡y de repente mire todo el microcontraste!
Un sobremuestreo 2x definitivamente ayudará con la resolución y fidelidad de color de las imágenes de Bayer. Pero una imagen del Canon Digital Rebel original (300D) lanzada en 2003 redimensionada a 600x400 es un sobremuestreo de 5x, en cada dirección, lo que significa que cada píxel en la imagen redimensionada ocupa el lugar de 25 píxeles originales. Muy, muy poco de la calidad de esos 25 píxeles tendrá un impacto en la imagen redimensionada.
El aumento del microcontraste que ofrece un sistema de formato más grande simplemente no será visible, el macrocontraste que usted ve puede compensarse mediante el procesamiento posterior, cuando tenga tanta resolución para desechar los artefactos de afilado no serán visibles.
Si iguala la profundidad de campo, sería extremadamente difícil distinguir entre una cámara de visión de 10x8 y una compacta cuando se redimensiona a menos de 1 megapíxel.
fuente
Al representar una escena con detalles finos en una imagen de baja resolución, es necesario aplicar un filtro espacial para eliminar cualquier contenido cuya frecuencia esté por encima del límite de Nyquist. Al aplicar el filtro espacial, hay dos objetivos en conflicto:
El contenido cuya frecuencia espacial es lo suficientemente baja como para mostrarse debe atenuarse lo menos posible.
El contenido cuyas frecuencias espaciales son similares debe atenuarse en cantidades aproximadamente iguales.
Para ver dónde entran en conflicto los objetivos, imagine una escena con un patrón de líneas convergentes. Si el espacio se acerca un poco al límite de Nyquist para la resolución del objetivo, pero las líneas siempre se separan lo suficiente como para mostrarse claramente, a menudo será mejor mostrarlas claramente que desenfocarlas. Sin embargo, si la escena contiene un patrón de líneas convergentes que se acercan demasiado para ser distinguibles, las líneas se vuelven gradualmente más borrosas a medida que su espacio se acerca al límite de resolución sería menos molesto que hacer que las líneas aparezcan claramente hasta un punto donde transición brusca a un gris sólido.
En muchos casos, el tipo óptimo de filtrado para una escena dependerá de su contenido y de qué aspectos son interesantes. La captura de una escena en una resolución superior a su formato de salida previsto garantizará que toda la información que pueda desearse en la imagen final se conserve. La información tendrá que filtrarse antes de que la imagen pueda renderizarse en una resolución más baja, pero la captura de alta resolución permitirá adaptar los métodos de filtrado exactos para ajustarse de manera óptima a las necesidades de la escena (y posiblemente usar diferentes métodos para diferentes partes de una escena). Si uno tiene la intención de renderizar una imagen final a 640x480, el beneficio de capturarlo a 6400x4800 probablemente no sea mucho mayor que el proporcionado por 1600x1200, pero puede haber algunos beneficios al subir a aproximadamente 2.5x.
fuente