Cada vez que digitalice algo, se perderá cierta cantidad de información. Cuando se reconstruye el original, esa pérdida de información puede conducir a resultados que tienen poco que ver con la señal original. Eso se aplica al sonido, las señales electrónicas y los patrones de luz proyectados en un sensor de imágenes.
Mientras las cosas que digitalizamos sean más grandes (tengan una frecuencia más baja) que la señal digital resultante, entonces el original se puede reconstruir con al menos una fidelidad decente. (La frecuencia máxima que puede digitalizarse fielmente debe ser inferior a la mitad de la frecuencia de muestreo. Puede ser útil mirar la entrada de Wikipedia para la frecuencia de Nyquist ).
Cuando intentamos tomar muestras digitales de objetos con patrones finos, como líneas espaciadas regularmente, es posible que el sensor no pueda mantener el ritmo, y cuando se reconstruye la imagen, terminamos con un patrón de moiré , que generalmente aparece como un área de colores falsos en una imagen digital. En lugar del patrón fino, obtendrá una mancha de color que no está en el original, o líneas que se ejecutan en ángulos opuestos a las líneas en el patrón original.
Para solucionar el problema del moiré, la mayoría de las cámaras digitales de formato pequeño (fotograma completo de 35 mm y más pequeñas) incorporan un filtro óptico de paso bajo en el conjunto del sensor. Esencialmente, es un filtro que difumina un poco la imagen para que no haya transiciones bruscas con un nivel de detalle más fino que el que la cámara puede reconstruir con precisión a partir de la grabación del sensor. El D800 "ordinario" funciona exactamente de esa manera.
Sin embargo, con la resolución del sensor ahora a más de 36MP, hay muchos menos casos en los que los detalles que está tratando de grabar no se pueden resolver y reconstruir con precisión, especialmente si está trabajando en una situación de estudio y puede cambiar las cosas si choca. dentro del límite de Nyquist y crear moiré (cambiar el aumento para hacer que el patrón sea más grande para que pueda resolverse adecuadamente, más pequeño para que realmente no se resuelva ópticamente debido a los límites de la lente, o cambiar la profundidad de campo son todas formas de atacando el problema). Para obtener la resolución de imagen máxima, entonces, podría valer la pena renunciar al filtro de paso bajo, como lo hacen las DSLR de formato medio (y algunas cámaras de gama alta, como la Leica M9).
Ahora, se podría pensar que tomando algo fuera de la cámara debe costar menos de ponerlo en, y estaríamos en lo cierto. El D800E no omite exactamente el filtro de paso bajo; tiene un sándwich de filtros en su lugar. Todavía hay un filtro delgado de paso bajo, pero está respaldado por otro filtro delgado que deshace en gran medida el efecto. Eso permite que las cámaras se produzcan con las mismas herramientas y tolerancias básicas. Dejar el filtro de paso bajo fuera de la ecuación haría que el sensor sea más delgado y requeriría un montaje y una alineación diferentes para mantener el plano focal en la misma posición en relación con la brida de montaje de la lente y el espejo reflejo. Los $ 200-300 adicionales para el sensor modificado son probablemente mucho más baratos que una configuración de herramientas completamente diferente para las piezas fundidas del cuerpo.
El resultado es que la D800E debería ser capaz de tomar imágenes más nítidas y detalladas, pero lo hace con el riesgo de crear patrones de muaré en áreas de detalles finos. Ambas cámaras pueden tener la misma cantidad de píxeles, pero los píxeles de la D800 serán "blandos" en comparación con los de la D800E.
El D800E no tiene un filtro óptico de paso bajo ( LPF ). El filtro se encuentra en el chip antes de los diodos fotosensibles.
Sospecho que la D800E es más costosa debido al menor volumen de la cámara (piense en un orden de magnitud menor), tal vez también sea más costosa porque habla con usuarios muy especializados, y tal vez incluso como elemento disuasorio. La D800E producirá muaré o alias en casi todas las fotos, si no comprende lo que está sucediendo, puede culpar a la cámara por eso.
Aliasing
Wikipedia tiene alguna explicación adicional WP: Aliasing, pero el principio es bastante directo: tienes una señal (la imagen). La señal verdadera tiene varios componentes de frecuencia, ahora la está muestreando (póngala en píxeles, y cada píxel tiene un valor). En el píxel no sabe si el valor de gris en esta parte de la imagen es constante o si está cambiando realmente rápido. El valor de píxel es simplemente el promedio de los valores verdaderos en esa área donde está el píxel.
El sensor solo puede muestrear hasta una frecuencia específica (llamada frecuencia de muestreo). El criterio de Nyquist dice entonces que solo se puede decir acerca de la señal hasta la mitad de la frecuencia de muestreo. Para evitar el alias, solo deja que las frecuencias inferiores lleguen al sensor.
D800E vs D800
El D800 es un dispositivo muy costoso y de orientación profesional, por lo que claramente no estoy dando consejos sobre cuál debe comprar. La respuesta es tampoco si tienes que pensarlo. Pero puedo decir por qué existe el D800E. Todas las cámaras (de pequeño formato) en el mercado tienen un LPF incluido. La D800 tiene 36 millones de píxeles. Eso es tanto que uno podría decidir no necesitar anti-aliasing durante la producción y en su lugar ponerlo en el software.
fuente
La posibilidad de muaré con la D800E es muy baja, debido a la densidad de píxeles. Tal vez podría ser un problema con la fotografía de moda con una estructura muy fina más pequeña que la densidad de píxeles de la Nikon D800E.
Así que iré por el D800E un poco más caro y sentiré curiosidad por ver cuál será la diferencia con el Leica S2
fuente