Siempre escuchamos acerca de este vector de datos VS este otro vector de datos que es independiente el uno del otro, o no correlacionado, etc., y si bien es fácil encontrar las matemáticas con respecto a esos dos conceptos, quiero vincularlos en ejemplos de vida, y también encontrar formas de medir esta relación.
Desde este punto de vista, estoy buscando ejemplos de dos señales que sean de las siguientes combinaciones: (Comenzaré con algunas):
Dos señales que son independientes Y (necesariamente) no correlacionadas:
- El ruido del motor de un automóvil ( ) y su voz ( ) mientras habla.
- Una grabación de humedad todos los días ( ) y el índice dow-jones ( ).
Q1) ¿Cómo medirías / probarías que son independientes con esos dos vectores en la mano? Sabemos que la independencia significa que el producto de sus archivos PDF es igual a su PDF conjunto, y eso es genial, pero con esos dos vectores en la mano, ¿cómo se prueba su independencia?
- Dos señales que NO son independientes, pero que aún no están correlacionadas:
P2) No puedo pensar en ningún ejemplo aquí ... ¿cuáles serían algunos ejemplos? Sé que podemos medir la correlación tomando la correlación cruzada de dos de esos vectores, pero ¿cómo demostraríamos que tampoco son independientes?
- Dos señales que están correlacionadas:
- Un vector que mide la voz de un cantante de ópera en la sala principal, , mientras alguien graba su voz desde algún lugar dentro del edificio, digamos en la sala de ensayo ( ).
- Si continuamente midió su ritmo cardíaco en su automóvil, ( ), y también midió la intensidad de las luces azules que inciden en su parabrisas trasero ( ) ... Supongo que eso estaría muy correlacionado. . :-)
Q3) Relacionado con q2, pero en el caso de medir la correlación cruzada desde este punto de vista empírico, ¿es suficiente mirar el producto punto de esos vectores (ya que ese es el valor en el pico de su correlación cruzada)? ¿Por qué nos importarían otros valores en la función cross-corr?
Gracias de nuevo, ¡cuantos más ejemplos se den, mejor para construir la intuición!
fuente
Respuestas:
Algunos elementos ... (Sé que esto no es exhaustivo, una respuesta más completa probablemente debería mencionar momentos)
Q1
Para verificar si dos distribuciones son independientes, debe medir cuán similar es su distribución conjunta al producto de su distribución marginal p ( x ) × p ( y ) . Para este propósito, puede usar cualquier distancia entre distribuciones. Si utiliza la divergencia Kullback-Leibler para comparar esas distribuciones, considerará la cantidad:p(x,y) p(x)×p(y)
Y habrás reconocido ... la información mutua! Cuanto más bajo es, más independientes son las variables.
Más prácticamente, para calcular esta cantidad a partir de sus observaciones, puede estimar las densidades , p ( y ) , p ( x , y ) a partir de sus datos utilizando un estimador de densidad Kernel y realizar una integración numérica en una cuadrícula fina ; o simplemente cuantifique sus datos en N contenedores y use la expresión de la información mutua para distribuciones discretas.p(x) p(y) p(x,y) N
Q2
De la página de Wikipedia sobre independencia estadística y correlación:
A excepción del último ejemplo, estas distribuciones 2D tienen correlaciones marginales no correlacionadas (matriz de covarianza diagonal), pero no independientes, p ( x ) y p ( y ) .p(x,y) p(x) p(y)
Q3
De hecho, hay situaciones en las que puede observar todos los valores de las funciones de correlación cruzada. Surgen, por ejemplo, en el procesamiento de señales de audio. Considere dos micrófonos que capturan la misma fuente, pero distantes de unos pocos metros. La correlación cruzada de las dos señales tendrá un pico fuerte en el retraso correspondiente a la distancia entre micrófonos dividida por la velocidad del sonido. Si solo observa la correlación cruzada en el retraso 0, ¡no verá que una señal es una versión de la otra con un cambio de tiempo!
fuente
Inferir si dos señales son independientes es muy difícil de hacer (dadas observaciones finitas) sin ningún conocimiento previo / suposiciones.
Dos variables aleatorias e Y son independientes si el valor de X no proporciona información sobre el valor de Y (es decir, no afecta nuestra distribución de probabilidad previa para Y ). Esto es equivalente a que cualquier transformación no lineal de X e Y no esté correlacionada, es decir, cov ( f 1 ( X ) , f 2 ( Y ) ) = E ( f 1 ( X ) , f 2 ( Y )X Y X Y Y X Y
para cualquier f 1 y f 2 no lineal,suponiendo que wlog ambas variables tengan media cero. La diferencia entre independencia y falta de correlación es que X e Y no están correlacionadas si lo anterior es válido, solo para f 1 ( x ) = f 2 ( x ) = x , la función de identidad.
Si asumimos la Gaussianidad conjunta, todos los momentos conjuntos mayores que el orden 2 son iguales a cero y, en este caso, sin correlación implica independiente. Si no tenemos suposiciones previas, la estimación de los momentos conjuntos nos dará información sobre 'cuán dependientes' son unos de otros.E(XiYj)
Podemos generalizar esto a las señales e Y ( t ) considerando los espectros cruzados S X , Y ( f ) , S X 2 , Y ( f ) , S X , Y 2 ( f ) ... en todas las frecuencias f .X(t) Y(t)
Ejemplo :
Después de leer el comentario de 'pichenettes', me inspiró a usar su idea como ejemplo. Considere las señales Y ( t ) = sin ( 2 π f t k ) para k ∈ Z y k ≠ 1 . Claramente, no hay transformación lineal que envíe X ( t ) a Y ( t )
Por lo tanto, a pesar de ser señales no correlacionadas, e Y ( t ) no son independientes.X(t) Y(t)
fuente