Dada variable aleatoria , con distribución de probabilidad , la matriz de correlación es positivo semi-definidas, es decir, sus valores propios son positivos o cero
Estoy interesado en las condiciones en que son necesarias y / o suficientes para que tenga valores propios cero. Por ejemplo, una condición suficiente es que las variables aleatorias no son independientes: para algunos números reales . Por ejemplo, si , entonces es un vector propio de con valor propio cero. Si tenemos restricciones lineales independientes en las 's de este tipo, implicaría cero valores propios.
Hay al menos una posibilidad adicional (pero trivial), cuando para algún (es decir, ), ya que en ese el caso tiene una columna y una línea de ceros: . Como no es realmente interesante, supongo que la distribución de probabilidad no es de esa forma.
Mi pregunta es: ¿son las restricciones lineales la única forma de inducir valores propios cero (si prohibimos la excepción trivial dada anteriormente), o las restricciones no lineales en las variables aleatorias también pueden generar valores propios cero de ?
fuente
Respuestas:
Quizás simplificando la notación podemos sacar las ideas esenciales. Resulta que no necesitamos involucrar expectativas o fórmulas complicadas, porque todo es puramente algebraico.
La naturaleza algebraica de los objetos matemáticos.
La pregunta se refiere a las relaciones entre (1) la matriz de covarianza de un conjunto finito de variables aleatorias (2) relaciones lineales entre esas variables, consideradas como vectores .X1,…,Xn
El espacio vectorial en cuestión es el conjunto de todas las variables aleatorias de varianza finita (en cualquier espacio de probabilidad dado ) módulo del subespacio de variables constantes casi seguramente, denotado (Es decir, consideramos que dos variables aleatorias e son el mismo vector cuando hay cero posibilidades de que difiera de sus expectativas). Estamos tratando solo con el espacio vectorial finito dimensional generado por que es lo que hace de este un problema algebraico en lugar de analítico.(Ω,P) XYX-YV X i ,L2(Ω,P)/R. X Y X−Y V Xi,
Lo que necesitamos saber sobre las variaciones
La varianza es una función escalar de valor con la propiedad de que Q ( una X ) = un 2 Q ( X ) para todos los vectores X .Q Q(aX)=a2Q(X) X.
La varianza no es degenerada.
El segundo necesita alguna explicación. determina un "producto puntual", que es una forma bilineal simétrica dada porQ
(Por supuesto, esto no es otra cosa que la covarianza de las variables e Y ) . Los vectores X e Y son ortogonales cuando su producto de punto es 0. El complemento ortogonal de cualquier conjunto de vectores A ⊂ V consiste en todos los vectores ortogonales a cada elemento de A , escritoX Y. X Y 0. A⊂V A,
Es claramente un espacio vectorial. Cuando , Q no es degenerado.V0= { 0 } Q
Permítanme demostrar que la variación no es degenerada, aunque parezca obvia. Supongamos que es un elemento distinto de cero de V 0 . Esto significa X ⋅ Y = 0 para todo Y ∈ V ; equivalentementeX V0. X⋅Y=0 Y∈V;
para todos los vectores Tomar Y = X daY. Y= X
y por lo tanto Sin embargo, sabemos (usando la desigualdad de Chebyshev, tal vez) que las únicas variables aleatorias con varianza cero son casi seguramente constantes, lo que las identifica con el vector cero en V , QED.Q(X)=0. V,
Interpretando las preguntas
Volviendo a las preguntas, en la notación anterior la matriz de covarianza de las variables aleatorias es solo una matriz regular de todos sus productos de punto,
Hay una buena manera de pensar en : define una transformación lineal en R n de la forma habitual, enviando cualquier vector x = ( x 1 , ... , x n ) ∈ R n en el vector T ( x ) = y = ( y 1 , ... , x n ) cuyo i ésimo componente está dada por la regla de la multiplicación de la matrizT Rn x=(x1,…,xn)∈Rn T(x)=y=(y1,…,xn) ith
El núcleo de esta transformación lineal es el subespacio que envía a cero:
La ecuación anterior implica que cuando para cada ix ∈ Ker( T) , yo
Como esto es cierto para cada se cumple para todos los vectores abarcados por X i : a saber, V en sí. En consecuencia, cuando x ∈ Ker ( T ) , el vector dado por ∑ j x j X j se encuentra en V 0 . Debido a que la varianza es no degenerada, esto significa Σ j x j X j = 0. Esto es, x describe una dependencia lineal entre los n originales variables aleatorias.i , Xyo V x ∈ Ker( T) , ∑jXjXj V0 0. ∑jXjXj= 0. X norte
Puede comprobar fácilmente que esta cadena de razonamiento es reversible:
(Recuerde, esta declaración todavía considera que define como un cambio constante en la ubicación, es decir, como elementos de L 2 ( Ω , P ) / R, en lugar de solo como variables aleatorias).Xj L2( Ω , P ) / R
Finalmente, por definición, un valor propio de es cualquier λ escalar para el que existe un vector x distinto de cero con T ( x ) = λ x . Cuando λ = 0 es un valor propio, el espacio de vectores propios asociados es (obviamente) el núcleo de T .T λ X T(x)=λx. λ=0 T.
Resumen
Hemos llegado a la respuesta a las preguntas: el conjunto de dependencias lineales de las variables aleatorias, qua elementos de corresponde uno a uno con el kernel de su covarianza matriz T . Esto es así porque la varianza es una forma cuadrática no degenerada. El núcleo también es el espacio propio asociado con el valor propio cero (o simplemente el subespacio cero cuando no hay valor propio cero).L2(Ω,P)/R, T.
Referencia
He adoptado en gran medida la notación y parte del lenguaje del Capítulo IV en
Jean-Pierre Serre, Un curso de aritmética. Springer-Verlag 1973.
fuente
La independencia lineal no solo es suficiente, sino también una condición necesaria
Para mostrar que la matriz de varianza-covarianza tiene valores propios iguales a cero si y solo si las variables no son linealmente independientes, solo queda por demostrar que "si la matriz tiene valores propios iguales a cero, entonces las variables no son linealmente independientes".
Si tiene un valor propio cero para entonces hay alguna combinación lineal (definida por el vector propio v )Cij=Cov(Xi,Xj) v
tal que
lo que significa que tiene que ser una constante y por lo tanto las variables x i tengo para añadir hasta una constante y son o bien constantes de sí mismos (el caso trivial) o no linealmente independientes.Y Xi
- la primera línea en la ecuación con se debe a la propiedad de covarianza Cov ( a U + b V , c W + d X ) = a cCov(Y,Y) Cov(aU+bV,cW+dX)=acCov(U,W)+bcCov(V,W)+adCov(U,X)+bdCov(V,X)
- el paso de la segunda a la tercera línea se debe a la propiedad de un valor propio cero∑j=1nvjCij=0
Restricciones no lineales
Entonces, dado que las restricciones lineales son una condición necesaria (no solo suficiente), las restricciones no lineales solo serán relevantes cuando indirectamente implican una restricción lineal (necesaria).
De hecho, existe una correspondencia directa entre los vectores propios asociados con el valor propio cero y las restricciones lineales.
Por lo tanto, las restricciones no lineales que conducen a un valor propio cero deben, juntas combinadas, generar alguna restricción lineal.
¿Cómo pueden las restricciones no lineales conducir a restricciones lineales?
Su ejemplo en los comentarios puede mostrar intuitivamente cómo las restricciones no lineales pueden conducir a restricciones lineales al invertir la derivación. Las siguientes restricciones no lineales
puede reducirse a
Podrías invertir esto. Supongamos que tiene restricciones no lineales más lineales, entonces no es extraño imaginar cómo podemos reemplazar una de las restricciones lineales con una restricción no lineal, completando las restricciones lineales en las restricciones no lineales. Por ejemplo, cuando sustituimos y b = - c en la forma no lineal a 2 + b 2 = 1, entonces puede establecer otra relación a d - b c = 1 . Y cuando multiplicas a = d y c = -a=d b=−c a2+b2=1 ad−bc=1 a=d entonces obtienes a c = - b d .c=−b ac=−bd
fuente
Por lo tanto, concluimos:
"¿son las restricciones lineales la única forma de inducir cero valores propios [?]"
Si.
"¿pueden las restricciones no lineales sobre las variables aleatorias generar también valores propios cero de C?"
Sí, si implican restricciones lineales.
fuente
fuente