Momento / mgf de coseno de vectores direccionales?

9

¿Alguien puede sugerir cómo puedo calcular el segundo momento (o la función generadora del momento completo) del coseno de dos vectores aleatorios gaussianos , cada uno distribuido como , independientes el uno del otro? IE, momento para la siguiente variable aleatoriax,yN(0,Σ)

x,yxy

La pregunta más cercana es la función generadora de momentos del producto interno de dos vectores aleatorios gaussianos que deriva MGF para el producto interno. También existe esta respuesta de mathoverflow que vincula esta pregunta con la distribución de valores propios de matrices de covarianza de muestra, pero no veo de inmediato cómo usarlas para calcular el segundo momento.

Sospecho que el segundo momento escala en proporción a la media de los valores propios de Σ ya que obtengo este resultado a través de la manipulación algebraica para 2 dimensiones, y también para 3 dimensiones de adivinar y verificar. Para valores propios a,b,c suman 1, el segundo momento es:

(a+b+c)2

Usando lo siguiente para verificación numérica

val1[a_, b_, c_] := (a + b + c)/(Sqrt[a] + Sqrt[b] + Sqrt[c])^2
val2[a_, b_, c_] := Block[{},
  x := {x1, x2, x3};
  y := {y1, y2, y3};
  normal := MultinormalDistribution[{0, 0, 0}, ( {
      {a, 0, 0},
      {0, b, 0},
      {0, 0, c}
     } )];
  vars := {x \[Distributed] normal, y \[Distributed] normal};
  NExpectation[(x.y/(Norm[x] Norm[y]))^2, vars]]

  val1[1.5,2.5,3.5] - val2[1.5,2.5,3.5]

Comprobación de la fórmula para 4 variables (dentro de límites numéricos):

val1[a_, b_, c_, 
  d_] := (a + b + c + d)/(Sqrt[a] + Sqrt[b] + Sqrt[c] + Sqrt[d])^2
val2[a_, b_, c_, d_] := Block[{},
  x := {x1, x2, x3, x4};
  y := {y1, y2, y3, y4};
  normal := 
   MultinormalDistribution[{0, 0, 0, 
     0}, {{a, 0, 0, 0}, {0, b, 0, 0}, {0, 0, c, 0}, {0, 0, 0, d}}];
  vars := {x \[Distributed] normal, y \[Distributed] normal};
  NExpectation[(x.y/(Norm[x] Norm[y]))^2, vars]]

val1[0.5, 1.5, 2.5, 3.5] - val2[0.5, 1.5, 2.5, 3.5]
Yaroslav Bulatov
fuente
Debido a la libertad de rotación, dado que el coseno es invariante bajo rotaciones, se puede suponer que uno de los vectores es un vector unitario en la dirección que sea más conveniente. Eso debería simplificar bastante el problema, al segundo momento del coseno de con respecto a . EDITAR: En realidad, esto depende de la simetría de . xN(0,Σ)(1,0,0,)Σ
jwimberley
1
La respuesta de w huber aquí puede ser de interés: stats.stackexchange.com/a/85977/37483
ekvall
@ Student001 de hecho, la tasa de 1 / n derivada en esa pregunta parece ser un caso especial de esta fórmula, ya que eliminamos un grado de libertad al normalizar el rastro de la matriz de covarianza a 1
Yaroslav Bulatov
Aparte: Tenga en cuenta que, wlog, es diagonal. Σ
cardenal
Encontré la pregunta de la distribución de al menos 3 veces en validación cruzada, por lo que espero que esta publicación popularice la noción de "distribución normal proyectada" para que ya no sea una pregunta ! :)xx
Henry.L

Respuestas:

1

Hola Yaroslav, realmente no tienes que darte prisa para aceptar mi respuesta en MO y eres más que bienvenido para pedir más detalles :).

Como reformulas la pregunta en 3-dim, puedo ver exactamente lo que quieres hacer. En MO post pensé que solo necesita calcular el coseno más grande entre dos variables aleatorias. Ahora el problema parece más difícil.

Primero, calculamos la Gaussiana normalizada , que no es un trabajo trivial ya que en realidad tiene un nombre de "distribución normal proyectada" porque podemos reescribir la densidad multivariada en términos de su coordenada polar . Y la densidad marginal para se puede obtener enXXX(X,XX)=(r,θ)θ

R+f(r,θ)dr

Una instancia importante es aquella en la que tiene una distribución normal bivariada , en la que se dice que tiene una normal proyectada ( o gaussiana angular o normal compensada ) distribución. [Mardia y Peter] p.46xN2(μ,Σ)x1x

En este paso podemos obtener distribuciones para , y por lo tanto su densidad conjunta debido a la independencia. En cuanto a una función de densidad de hormigón de distribución normal proyectada, ver [Mardia y Peter] Capítulo 10. o [2] Ecuación (4) o [1]. (Observe que en [2] también asumen una forma especial de matriz de covarianza )PNkXXYY(XX,YY)Σ=(Γγγ1)

En segundo lugar, dado que ya obtuvimos su densidad de unión, su producto interno puede derivarse fácilmente usando la fórmula de transformación . Ver también [3].

(XX,YY)XXYY

Mientras calculemos la densidad, el segundo momento es solo un problema de integración.

Referencia

[Mardia y Peter] Mardia, Kanti V. y Peter E. Jupp. Estadísticas direccionales. Vol. 494. John Wiley & Sons, 2009.

[1] Wang, Fangpo y Alan E. Gelfand. "Análisis de datos direccionales bajo la distribución normal proyectada general". Metodología estadística 10.1 (2013): 113-127.

[2] Hernández-Stumpfhauser, Daniel, F. Jay Breidt y Mark J. van der Woerd. "La distribución normal general proyectada de la dimensión arbitraria: modelado e inferencia bayesiana". Análisis Bayesiano (2016). https://projecteuclid.org/download/pdfview_1/euclid.ba/1453211962

[3] Función generadora de momentos del producto interno de dos vectores aleatorios gaussianos

Henry.L
fuente
@YaroslavBulatov ¡Espero que esto valga la pena!
Henry.L
La respuesta que publiqué en MO no es exactamente lo que quería el OP porque estaba pensando que está buscando el ángulo canónico. culpa mía.
Henry.L
1
¿Podría proporcionar una prueba de que asumir que la matriz de covarianza de identidad es wlog? No es obvio para mí. Es "fácil" mostrar la afirmación del cardenal de que la matriz diagonal es wlog, pero ¿cómo deshacerse de los valores propios?
ekvall
@ Student001 Si , entonces tiene una matriz de covarianza de identidad. Σ=PΛPPX
Henry.L
1
No, si es la descomposición espectral de , entonces como matriz de covarianza , que no necesita ser la identidad, por lo que al menos ese paso no justifica wlog Tal vez su último comentario sí , No estoy seguro. PΛPΣPXΛΣ=I
ekvall