En la teoría-espacio escala de la representación en el espacio escala de la señal , (en el caso de la imagen d = 2 ) se da como: L ( x , y ; t ) = g ( x , y ; t ) ∗ f ( x , y ) donde g ( x , es un núcleo gaussiano con el parámetro t y ∗ es una convolución. Al cambiar elparámetro t , recibimos una imagen más o menos suavizada. Como resultado, la representación más gruesa (parámetro t ) no contendrá objetos pequeños o ruido.
El punto principal es encontrar una forma de detección de características invariantes de escala, ¿verdad? De modo que para algunas imágenes con una copia de tamaño reducido, las características como puntos clave se detectarán correctamente, incluso si el tamaño es diferente, sin encontrar otros puntos clave de ruido.
En el documento están utilizando los derivados normalizados. δ ξ , γ - n o r m = t γ / 2 δ x . ¿Cuál es el significado de usar la derivada normalizada γ , cómo ayuda en la invariabilidad de escala?
De esta imagen podemos ver que cerca de las mismas posiciones se encuentran los diferentes puntos clave (diferentes en tamaño). ¿Cómo es eso posible?
Si puede explicar el algoritmo paso a paso de detección de características invariantes de escala, esto sería genial. ¿Qué se hace realmente? Las derivadas pueden tomarse por o t . Blob puede detectarse tomando la derivada de L por las variables ( x , y ) . ¿Cómo está ayudando la derivada de t aquí?
El artículo que estaba leyendo es: Detección de características con selección automática de escala