Deformación dinámica del tiempo y normalización

9

Estoy usando Dynamic Time Warping para que coincida con una "consulta" y una curva de "plantilla" y tengo un éxito razonable hasta el momento, pero tengo algunas preguntas básicas:

  1. Estoy evaluando una "coincidencia" al evaluar si el resultado de DTW es menor que algún valor umbral que heheurísticamente. ¿Es este el enfoque general para determinar una "coincidencia" con DTW? Si no, por favor explique ...

    Suponiendo que la respuesta a (1) es "sí", entonces estoy confundido, ya que el resultado de DTW es bastante sensible a a) la diferencia en amplitudes de las curvas yb) la longitud del vector de consulta y la longitud de " vector de plantilla

    Estoy usando una función de paso simétrico, así que para (b) estoy normalizando mi resultado de DTW dividiéndolo entre M + N (ancho + alto de la matriz de DTW). Esto parece ser algo efectivo, pero parece que penalizaría las coincidencias DTW que están más lejos de la diagonal (es decir, que tienen una ruta más larga a través de la matriz DTW). Lo que parece un tanto arbitrario para un enfoque de "normalización". Dividir por el número de pasos a través de la matriz parece tener sentido intuitivo, pero esa no parece ser la forma de hacerlo de acuerdo con la literatura.

  2. Entonces, ¿hay una mejor manera de ajustar el resultado DTW para el tamaño de los vectores de consulta y plantilla?

  3. Finalmente, ¿cómo normalizo el resultado DTW para la diferencia en amplitudes entre la consulta y los vectores de plantilla?

Tal como están las cosas, dada la falta de técnicas de normalización confiables (o mi falta de comprensión), parece haber mucho esfuerzo manual involucrado en trabajar con los datos de la muestra para identificar el mejor nivel de umbral para definir una "coincidencia". ¿Me estoy perdiendo de algo?

señor parpadeante
fuente

Respuestas:

8

No existe un "enfoque general" para esto, al menos que yo sepa. Además, está intentando minimizar una distancia métrica de todos modos. Por ejemplo, en el abuelo de los documentos DTW, Sakoe y Chiba (1978) usancomo la medida de la diferencia entre dos vectores de características.||aibi||

Como identificó correctamente, necesita tener el mismo número de puntos (generalmente) para que esto funcione de la caja. Yo propondría usar un lowess () más suave / interpolador sobre sus curvas para hacerlas del mismo tamaño primero. Es algo bastante estándar para las "estadísticas de curva". Puede ver un ejemplo de aplicación en Chiou et al. (2003) ; Los autores no se preocupan por la DTW como tal en este trabajo, pero es un buen ejemplo de cómo manejar lecturas de tamaños desiguales.

Además, como dices, "amplitud" es un problema. Esto es un poco más abierto para ser sincero. Puede probar un enfoque de Área bajo la curva como el propuesto por Zhang y Mueller (2011) para encargarse de esto, pero realmente con el propósito de deformar el tiempo incluso la normalización supra-norma (es decir, reemplazar con podría hacer lo mismo en este artículo de Tang y Mueller (2009) . Seguiría el segundo, pero en cualquier caso, como también notó que la normalización de las muestras es una necesidad.f(x)f(x)supy|f(x)|

Dependiendo de la naturaleza de sus datos, puede encontrar más literatura sobre aplicaciones específicas. Personalmente considero que el enfoque de reducir al mínimo con el respeto a una función de pares de destino urdido el más intuitivo de todos. Entonces, la función objetivo a minimizar es: , donde todo el asunto a pesar de su extrañeza es en realidad bastante sencillo: se intenta encontrar a encontrar la función de alabeo que minimiza la suma esperada de la falta de adecuación de la curva de consulta deformado a la curva de referencia (el términogCλ(Yi,Yk,g)=E{T(Yi(g(t))Yk(t))2+λ(g(t)t)2dt|Yi,Yk}gY k ( t ) Y i ( g ( t ) ) - Y k ( t ) g ( t ) - tYi(g(t))Yk(t)Yi(g(t))Yk(t)) sujeto a cierta normalización de la distorsión de tiempo que impone por esa deformación (el término ). Esto es lo que está implementando el paquete MATLAB PACE . Sé que existe un paquete R fda por JO Ramsay et al. eso también podría ser útil, pero no lo he usado personalmente (un poco molesto, la referencia estándar para los métodos de ese paquete es, en muchos casos, el excelente libro de Ramsay y Silverman, Functional Data Analysis (2006) 2nd ed. , y hay que buscar un Libro de 400 páginas para obtener lo que busca; al menos es una buena lectura de todos modos)g(t)t

El problema que está describiendo en la literatura de Estadística es ampliamente conocido como " registro de curva " (por ejemplo, ver Gasser y Kneip (1995) para un tratamiento temprano del problema) y cae bajo el paraguas general de las técnicas de Análisis de Datos Funcionales .

(En los casos en que pude encontrar el documento original disponible en línea, el enlace dirige allí; de lo contrario, el enlace dirige a una biblioteca digital general. Casi todos los documentos mencionados se pueden encontrar en versiones de borrador de forma gratuita. Eliminé mi comentario original ya que está reemplazado por esta publicación.)

usεr11852
fuente
Esta es una respuesta excelente y muy muy útil. Las referencias son especialmente útiles.
Mikko
¿Conocería una referencia adecuada para afirmar que "la amplitud es un problema" en dtw? Esto es probablemente tan evidente que estoy luchando por encontrar una referencia, que discuta claramente al respecto.
Mikko
Me alegro de que te guste. Como dije, el tratamiento de la amplitud "es un poco más abierto" y no creo que encuentre una sola referencia que lo mencione a menos que esté relacionado con la aplicación o metodología en cuestión (como por ejemplo en el trabajo de Zhang & Mueller ' 09). La normalización es necesaria cuando tiene datos medidos en diferentes unidades. Lo que suele ser crucial es la normalización de los componentes principales / canónicos / what_have_you funcionales para que formen una base en . L2
usεr11852
De los recursos ya mencionados, probablemente su mejor opción sea el libro de la FDA de Ramsay & Silverman, Chapt. 7 sobre el "registro y visualización de datos funcionales". Un muy buen recurso es también el libro: "Inferencia para datos funcionales con aplicaciones" de Horváth y Kokoszka; La Parte III "Datos funcionales dependientes" toca el tema de la normalización principalmente porque a uno le importa la detección de puntos de cambio.
usεr11852