¿Cómo maneja ICA los retrasos inevitables en las señales?

12

Actualmente estoy leyendo y enseñándome a mí mismo ICA de varias buenas fuentes. (También vea esta publicación para el contexto pasado). Tengo el jist básico, pero hay algo que no tengo claro.

Para un escenario en el que múltiples señales inciden en múltiples sensores espaciales (por supuesto, con un número de sensores> = número de señales), es inevitable que para cualquier sensor, todas las señales que lleguen a él tengan diferentes retrasos / fases. compensaciones asociadas con ellos, en comparación con los que llegan a un sensor diferente.

Ahora, hasta donde sé, el modelo de señal para ICA es una matriz de mezcla simple, donde la energía total que llega a cualquier sensor se modela como una simple combinación lineal de todas las otras señales de interés. Cada sensor tiene una matriz diferente de coeficientes de combinación lineal asociados. Hasta aquí todo bien.

Lo que no entiendo, es que , inevitablemente, no se va a ser de hecho un poco de retraso / desplazamiento de fase entre las señales individuales que llegan a los sensores individuales que difieren unos de otros. Es decir, podría llegar al en algún momento 0s, mientras que el mismo llega al atenuado, pero también con algún retraso o diferencia de fase. A mi modo de ver, esto es físicamente inevitable.s e n s o r 1 s 1 ( n ) s e n s o r 2s1(n)sensor1s1(n)sensor2

... ¿Cómo puede ser que esto no esté modelado en la matriz de mezcla? Parece que los retrasos harán una gran diferencia. Ya no estamos hablando de combinaciones lineales simples. ¿Cómo maneja esto ICA? ¿Me he perdido algo aquí?

También debería agregar como un apéndice, si de hecho ICA no puede manejar los retrasos, ¿en qué aplicaciones encuentra utilidad? ¡Claramente los espaciales con sensores están fuera!

Gracias

Spacey
fuente
1
Creo que ICA está destinado a cosas en las que no hay retrasos. No sé por qué siempre usan un ejemplo de mucha gente hablando en una habitación, ya que esa aplicación en realidad no funciona con ICA. Algo como DUET se adapta mejor a esta aplicación. dsp.stackexchange.com/questions/812/…
endolith el
@endolith Gracias Endolith, he incluido nuestro intercambio anterior aquí, así como un enlace. Esa publicación estimuló mi interés y la lectura posterior de mi libro no lo hizo más claro. : - / Revisaré DUET.
Spacey
1
@endolith Otra cosa: esto plantea la pregunta de dónde exactamente uno puede usar ICA en aplicaciones prácticas. Para mí tal como está, será completamente inútil para cualquier aplicación espacial (donde tenga múltiples sensores) por el motivo del retraso. Si este es el caso, ¿dónde encuentra ICA la fecundidad?
Spacey
1
@Mohammad Buscar el artículo "COMBINAR EL RETARDO DE LA DECORRELACIÓN ED Y LA ICA: HACIA LA RESOLUCIÓN DEL PROBLEMA DE LA FIESTA DEL CÓCTEL" podría ser de ayuda. Supongo que estás tratando de hacer la separación de los altavoces. Este problema puede encontrarse en la literatura como deconvolución ciega multicanal. También estoy interesado en el problema que ha descrito anteriormente, si lo desea puede ponerse en contacto conmigo en el correo electrónico de mi perfil.
TwoSan
@TwoSan Gracias, te buscaré y también te he enviado un correo electrónico.
Spacey

Respuestas:

3

Uno de los usos más exitosos de ICA ha sido en el estudio de la electrofisiología (es decir, actividad cerebral), principalmente EEG (electroencefalografía) y MEG (magnetoencefalografía). Se utilizan para eliminar artefactos (como impulsos eléctricos causados ​​por movimientos musculares (parpadeos, etc.)) sin la necesidad de canales de referencia. En esta aplicación, las separaciones espaciales entre sensores son mínimas en comparación con la velocidad de propagación de las ondas y, como tal, las suposiciones de ICA se mantienen efectivamente.

Para fMRI, que depende del flujo sanguíneo en el cerebro, el problema del retraso temporal es más significativo. Un enfoque, tomado en el documento Latencia (in) sensible ICA. El análisis de componentes independientes del grupo de los datos de fMRI en el dominio de frecuencia temporal por Calhoun et al (2003) intentó resolver este problema haciendo estimaciones del retraso de tiempo en cada vóxel, y luego usándolo como información previa en un ICA modificado. ¿Tal vez algo como esto podría aplicarse en su dominio?

tdc
fuente
Gracias por su publicación tdc, eso es interesante y tiene sentido: para un EEG, (una aplicación espacial), las formas de onda que se miden son las intensidades de campo eléctrico que viajan a la velocidad de la luz (o cerca de ella), a distancias que son muy pequeño (en la cabeza) en relación con la velocidad de las formas de onda.
Spacey
1
En cuanto a mis aplicaciones, estoy buscando usar esto de alguna manera (o alguna mutación como usted ha mencionado) para aplicaciones acústicas. Tengo 2 matrices de sensores que puedo usar. En uno de ellos, las distancias entre los micrófonos son de decenas de metros, por lo que los retrasos son muy significativos. En el otro conjunto de sensores, las distancias entre los micrófonos están en el orden de la longitud de onda, o . ¿Crees que para ese tipo de distancias en orden de ICA puro se mantiene? Si no es así, ¿qué tan pequeñas son las distancias en relación con las longitudes de onda para que funcione un ICA puro? 11λλ12λλ
Spacey
1
Si considera que la velocidad del sonido para un día típico es 332 m / sy una frecuencia de ejemplo de 111 Hz, eso equivale a una longitud de onda de ~ 3 m. Si tiene dos sensores, uno de los cuales está a 3 m de distancia de la fuente y el otro a 4.5 m de distancia, las dos señales estarán completamente desfasadas. En este escenario, espero que ICA falle horriblemente. Sin embargo, si los dos sensores están, digamos, a 3 my 3.01 m de la fuente, probablemente funcionaría. Simplemente declarar la separación de los sensores no es suficiente: debe saber qué tan lejos estarán las fuentes (típicas) de los sensores, para poder calcular el retraso temporal relativo
tdc