Entiendo que el propósito del filtro anti-aliasing (AA) es evitar el muaré. Cuando aparecieron las cámaras digitales por primera vez, fue necesario un filtro AA para crear el desenfoque suficiente para evitar patrones de muaré. En ese momento el poder de los procesadores en cámara era muy limitado. Pero, ¿por qué todavía es necesario colocar un filtro AA sobre el sensor en las cámaras DSLR modernas? ¿No podría lograrse esto con la misma facilidad con los algoritmos aplicados cuando la salida del sensor está siendo demostrada?Parece que la potencia de procesamiento actual disponible en la cámara permitiría esto ahora mucho más que incluso hace unos años. El procesador Digic 5+ actual de Canon tiene más de 100 veces la potencia de procesamiento del procesador Digic III, que eclipsa la potencia de las primeras cámaras digitales. Especialmente cuando se graban archivos RAW, ¿no se pudo realizar el desenfoque AA en la etapa de procesamiento posterior? ¿Es esta la premisa básica de la Nikon D800E, a pesar de que utiliza un segundo filtro para contrarrestar el primero?
13
Respuestas:
El alias es el resultado de patrones repetitivos de aproximadamente la misma frecuencia que interfieren entre sí de manera indeseable. En el caso de la fotografía, las frecuencias más altas de la imagen proyectada por la lente en el sensor crean un patrón de interferencia (muaré en este caso) con la cuadrícula de píxeles. Esta interferencia solo ocurre cuando esas frecuencias son más o menos iguales, o cuando la frecuencia de muestreo del sensor coincide con la frecuencia de onda de la imagen. Ese es el límite de Nyquist. Tenga en cuenta ... que es un problema análogo ... el muaré ocurre debido a la interferencia que ocurre en tiempo real en el mundo real antes de que la imagen esté realmente expuesta.
Una vez que se expone la imagen, ese patrón de interferencia se "cuece" efectivamente. Puede usar el software hasta cierto punto para limpiar los patrones de moiré en la publicación, pero es mínimamente efectivo en comparación con un filtro de paso bajo (AA) físico frente al sensor. La pérdida de detalles debido al moiré también puede ser mayor que la pérdida de un filtro AA, ya que el moiré es efectivamente información sin sentido, donde los detalles ligeramente borrosos aún podrían ser útiles.
Un filtro AA está diseñado para desenfocar esas frecuencias en Nyquist para que no creen ningún patrón de interferencia. La razón por la que todavía necesitamos filtros AA es porque los sensores de imagen y las lentes todavía son capaces de resolverse a la misma frecuencia. Cuando los sensores mejoran hasta el punto en que la frecuencia de muestreo del sensor mismo es consistentemente más alta que incluso las mejores lentes en su apertura óptima, entonces la necesidad de un filtro AA disminuirá. La lente misma manejaría efectivamente el desenfoque necesario para nosotros, y los patrones de interferencia nunca emergerían en primer lugar.
fuente
La física simplemente no funciona de esa manera. El alias transforma irreversiblemente las frecuencias más allá del límite de Nyquist para aparecer como frecuencias por debajo del límite, aunque esos "alias" no están realmente allí. Ninguna cantidad de procesamiento de una señal con alias puede recuperar la señal original en el caso general. Las explicaciones matemáticas sofisticadas son bastante largas para entrar a menos que haya tenido una clase en teoría de muestreo y procesamiento de señal digital. Sin embargo, si lo hubiera hecho, no estaría haciendo la pregunta. Desafortunadamente, la mejor respuesta es simplemente "No es así como funciona la física. Lo siento, pero vas a tener que confiar en mí en esto". .
Para tratar de dar una idea aproximada de que lo anterior puede ser cierto, considere el caso de una imagen de una pared de ladrillos. Sin un filtro AA, habrá patrones de muaré (que en realidad son los alias) que harán que las líneas de ladrillo se vean onduladas. Nunca has visto el edificio real, solo la imagen con las líneas onduladas.
¿Cómo sabes que los ladrillos reales no se colocaron en un patrón ondulado? Usted asume que no eran de su conocimiento general de los ladrillos y la experiencia humana de ver las paredes de ladrillo. Sin embargo, ¿alguien podría simplemente hacer un punto para hacer deliberadamente una pared de ladrillos para que se vea en la vida real (cuando se ve con sus propios ojos) como la imagen? Sí que podrían. Por lo tanto, ¿es posible distinguir matemáticamente una imagen con alias de una pared de ladrillo normal y una imagen fiel de una pared de ladrillo deliberadamente ondulada? No, no es. De hecho, tampoco puedes notar la diferencia, excepto que tu intuición sobre lo que probablemente representa una imagen puede darte la impresión de que puedes. Nuevamente, estrictamente hablando, no se puede saber si las ondas son artefactos de patrón muaré o si son reales.
El software no puede eliminar mágicamente las ondas porque no sabe qué es real y qué no. Matemáticamente se puede demostrar que no puede saber, al menos solo mirando la imagen ondulada.
Una pared de ladrillos puede ser un caso obvio en el que se puede saber que la imagen con alias está mal, pero hay muchos casos más sutiles en los que realmente no se sabe, y es posible que ni siquiera se dé cuenta de que se está produciendo un alias.
Agregado en respuesta a los comentarios:
La diferencia entre suavizar una señal de audio y una imagen es solo que la primera es 1D y la segunda 2D. La teoría y cualquier matemática para realizar efectos sigue siendo la misma, solo que se aplica en 2D cuando se trata de imágenes. Si las muestras están en una cuadrícula rectangular regular, como si estuvieran en una cámara digital, entonces surgen otros problemas interesantes. Por ejemplo, la frecuencia de la muestra es sqrt (2) más baja (aproximadamente 1.4x más baja) a lo largo de las direcciones diagonales, según las direcciones alineadas con el eje. Sin embargo, la teoría de muestreo, la tasa de Nyquist y los alias realmente no son diferentes en una señal 2D que en una señal 1D. La principal diferencia parece ser que esto puede ser más difícil para aquellos que no están acostumbrados a pensar en el espacio de frecuencias para comprender y proyectar lo que significa en términos de lo que ves en una imagen.
Una vez más, no, no puede "demostrar" una señal después del hecho, al menos no en el caso general en el que no sabe cuál se supone que es el original. Los patrones de muaré causados por el muestreo de una imagen continua son alias. La misma matemática se aplica a ellos tal como se aplica a las frecuencias altas alias en una secuencia de audio y sonando como silbidos de fondo. Es lo mismo, con la misma teoría para explicarlo y la misma solución para tratarlo.
Esa solución es eliminar las frecuencias por encima del límite de Nyquist antes del muestreo. En audio, eso se puede hacer con un filtro de paso bajo simple que posiblemente podría hacer desde una resistencia y un condensador. En el muestreo de imágenes, aún necesita un filtro de paso bajo, en este caso, toma algo de la luz que golpearía solo un píxel y lo extiende a los píxeles vecinos. Visualmente, esto parece un ligero desenfoque de la imagen antesEs muestreado. El contenido de alta frecuencia se ve como detalles finos o bordes afilados en una imagen. Por el contrario, los bordes afilados y los detalles finos contienen altas frecuencias. Son exactamente estas altas frecuencias las que se convierten en alias en la imagen muestreada. Algunos alias son lo que llamamos patrones muaré cuando el original tenía algún contenido regular. Algunos alias dan el efecto "escalón" a las líneas o bordes, especialmente cuando son casi verticales u horizontales. Hay otros efectos visuales causados por alias.
El hecho de que el eje independiente en las señales de audio sea el tiempo y los ejes independientes (dos de ellos, ya que la señal es 2D) de una imagen son distancia, no invalida las matemáticas ni de alguna manera lo hace diferente entre las señales de audio y las imágenes. Probablemente debido a que la teoría y las aplicaciones de aliasing y anti-aliasing se desarrollaron en señales 1D que eran voltajes basados en el tiempo, el término "dominio del tiempo" se usa para contrastar al "dominio de la frecuencia". En una imagen, la representación espacial sin frecuencia es técnicamente el "dominio de la distancia", pero, por simplicidad en el procesamiento de la señal, a menudo se denomina "dominio del tiempo". No dejes que eso te distraiga de lo que realmente es el alias. Y no, no es evidencia de que la teoría no se aplique a las imágenes, solo que a veces se usa una elección engañosa de palabras para describir cosas debido a razones históricas. De hecho, el método abreviado de "dominio del tiempo" que se aplica al dominio de imágenes sin frecuencia es en realidadporque la teoría es la misma entre imágenes y señales basadas en el tiempo real. Alias es alias independientemente de cuál sea el eje (o ejes) independiente.
A menos que esté dispuesto a profundizar en esto en el nivel de un par de cursos universitarios sobre teoría de muestreo y procesamiento de señales, al final tendrá que confiar en los que sí lo han hecho. Algunas de estas cosas no son intuitivas sin una base teórica significativa.
fuente
No se puede obtener el mismo efecto en el software. Puede llegar a algún lugar cercano, dados ciertos supuestos. Pero el filtro AA difunde la luz para que golpee múltiples píxeles de diferentes colores y le brinde información ausente del sensor de filtro sin AA.
La Nikon D800E no hace nada para intentar replicar el filtro AA. Si hay patrones de alta frecuencia en la imagen, obtienes muaré y ese es tu problema: ¡tienes que lidiar con eso!
El alias es peor cuando la frecuencia de detalle en la imagen está muy cerca de la frecuencia de muestreo. Para las cámaras antiguas con sensores de baja resolución (y, por lo tanto, muestreo de baja frecuencia), el muaré era un problema serio con muchos tipos de detalles de imagen, por lo que los filtros AA eran fuertes (nada que ver con una potencia de procesamiento limitada). Ahora tenemos frecuencias de muestreo mucho más altas, se necesitan detalles de imagen de frecuencia mucho más altos para que aparezca el muaré.
Eventualmente, las frecuencias de muestreo serán tan altas que los detalles necesarios de los objetos de alta frecuencia no superarán las aberraciones de la lente y los efectos de difracción, haciendo que el filtro AA sea redundante. Esta es en parte la razón por la que algunos respaldos de MF carecen de un filtro AA, resolución súper alta más fotógrafos de moda a los que les gusta disparar a f / 32 con paquetes de potencia Profoto gigantes que prueban la iluminación.
fuente
Estas son todas buenas respuestas y buena información. Tengo una explicación muy simplificada. Pasemos de 2D a 1D (se aplica el mismo concepto).
Cuando una frecuencia llega a su sensor que es más alta que la "frecuencia máxima permitida", en realidad creará una frecuencia de espejo en el lado inferior . Una vez que su imagen ha sido muestreada, verá esta señal más baja, pero la cámara o su computadora no saben si se trataba de una señal más baja real que realmente estaba allí o si era un alias creado a partir de una señal que era demasiado alta. Esta información se pierde. Esa es la razón de la "frecuencia máxima permitida" o frecuencia de nyquist. Dice que esta es la frecuencia más alta que se puede muestrear y por encima se perderá información.
un análogo al audio: supongamos que tiene su sistema configurado donde desea un rango de frecuencia de 0Hz a 1000Hz. para dejar un poco de espacio extra que muestreas a 3000 hz, lo que hace que tu niquist sea de 1500 hz. aquí es donde entra el filtro aa. No desea que ingrese nada por encima de 1500 hz, en realidad su corte comenzará justo después de 1000 hz, pero se asegura de que para cuando llegue a 1500 hz no quede nada.
supongamos que olvida el filtro aa y permite que entre un tono de 2500 hz en su sensor. se reflejará alrededor de la frecuencia de muestreo (3000 hz) para que su sensor capte un tono a 500 hz (3000 hz - 2500 hz). ahora que su señal está muestreada, no sabrá si los 500Hz realmente estaban allí o si es un alias.
por cierto. las imágenes especulares se producen para todas las frecuencias, pero no son un problema siempre y cuando no esté por encima de la nyquist porque puede filtrarlas fácilmente más tarde. El tono de entrada de ejemplo es 300 hz. tendrá alias en (3000 - 300 = 2700hz [y para ser correctos también 3000 + 300 = 3300hz]). sin embargo, como sabe que solo está considerando hasta 1000 hz, estos se eliminarán fácilmente. De nuevo, el problema surge cuando las imágenes especulares entran en el espectro que realmente deseas, porque no podrás notar la diferencia y eso es lo que quieren decir con "horneado".
espero que esto ayude
fuente