Usando una distribución gaussiana de puntos en un plano de imagen para calcular un valor de píxel, ¿qué radio / desviación estándar proporcionará la mayor información en la imagen final? Un radio demasiado grande da una imagen borrosa, y un radio demasiado pequeño descuida la información que es más pequeña que un píxel para que no contribuya a la imagen final. ¿Dónde está el compromiso óptimo? ¿Hay una sola respuesta a esta pregunta o hay circunstancias en las que puede variar?
Estoy pensando en esto en relación con el trazado de rayos, pero imagino que se aplicará igualmente a cosas como reducir el tamaño de una imagen. Cuando las respuestas diferirían, estoy interesado en lo que se aplica al muestrear un plano de imagen continuo, de modo que las posiciones de los píxeles en una imagen más grande no se puedan usar para determinar un radio óptimo.
Imagine que se está representando una imagen de un piso plano con un patrón de tablero de ajedrez blanco y negro uniforme que se extiende hasta el horizonte; las fichas son lo suficientemente grandes como para que sean claramente visibles en los puntos cercanos a la cámara, pero no lo suficientemente grandes como para distinguirse cerca del horizonte.
Cerca del horizonte, el piso debería aparecer simplemente como gris uniforme. Cerca de la cámara, las fichas deberían aparecer distintas. Entre la cámara y el horizonte, la apariencia del piso debe de alguna manera hacer una transición entre esos dos extremos.
Si la escena se convierte en un filtro espacial que tiene un corte de oveja, habrá una cierta distancia donde el piso pasa de ser a cuadros a ser gris. Si uno usa un filtro menos profundo, la transición será mucho más gradual, pero las cosas cercanas a la distancia de "corte" original serán menos nítidas de lo que hubieran sido de otra manera.
Si se agregara un "muro" o se recortara la escena para ocultar las partes distantes del piso, de modo que no hubiera necesidad de que ninguna parte del piso a cuadros se volviera borrosa a gris, los mejores resultados se obtendrían usando el más empinado filtro, produciendo la imagen más nítida. El uso de un filtro más superficial daría nitidez a la imagen con el fin de evitar una transición desagradable que de todos modos no sería visible.
Descubrir qué tipo de filtrado usar requiere, por lo tanto, que uno sepa algo sobre el contenido de frecuencia espacial de la información que se mostrará. Si la imagen no contiene nada de interés que se acerque a Nyquist, el uso de un filtro empinado producirá los mejores resultados. Sin embargo, si el contenido de la imagen excede a Nyquist, el uso de un filtro gradual evitará "transiciones" feas. Ningún enfoque único será óptimo para todos los casos.
fuente
En mi opinión y experiencia, no creo que exista una respuesta unívoca ... ya que básicamente en la literatura también puede encontrar fácilmente ejemplos de filtros adaptativos (es decir, de tamaño variable).
Creo que la respuesta real debería estar relacionada con el contexto de las aplicaciones (es decir, hardware o software, en tiempo real o no) y el tipo de escena que va a sintetizar (algunas escenas generalmente implican diferentes tipos de alias cuando se sintetizan (uso este término general a propósito)). Básicamente, los gráficos por computadora son el estudio de algoritmos y la estructura de datos para la síntesis de imágenes, y dicha definición no está estrictamente relacionada con ningún tipo de aplicación.
Por supuesto, un factor importante es incluso el objetivo a alcanzar mediante un proceso de filtrado (es decir, no es necesario que un desenfoque excesivo pueda ser malo ...).
Si estás hablando de "agradable de ver", creo que podrías estar de acuerdo conmigo cuando digo que no hay una medida específica de "imagen agradable".
fuente