¿Es la raíz cuadrada de una matriz semi-definida positiva un resultado único?

8

Estoy tratando de descomponer una serie temporal de observaciones en la estructura de varianza-covarianza y una serie aleatoria .nvcn×nv

Entonces, puedo derivar la matriz de varianza-covarianza de la función de autocorrelación de . Esta será una matriz de Toeplitz, que es semidefinida positiva. Por lo tanto, puedo calcular una matriz adecuada para transformar mis series correlacionadas en una señal aleatoria. vc12

v=12vc

Puedo hacer esto usando la función sqrt (m) en MATLAB, pero también puedo encontrar una factorización de Cholesky de la matriz de varianza-covarianza y usarla para inducir las correlaciones. Sin embargo, obtengo resultados diferentes (pero algo similares) para las series aleatorias utilizando los métodos sqrtm y Cholesky.

He leído varios textos para determinar cómo puedo determinar la raíz cuadrada de varias matrices, y he examinado los métodos de descomposición de valores propios, etc. Veo que solo hay soluciones únicas en ciertas condiciones prescritas, pero supongo que estas soluciones únicas siguen siendo solo una de muchas raíces.

Mi pregunta es esta: ¿hay alguna forma de argumentar que una raíz cuadrada en particular es preferible a otra? Si no, ¿hay alguna forma de extraer todas las soluciones posibles, de modo que se puedan obtener todas las funciones aleatorias posibles?

hidrólogo
fuente

Respuestas:

7

Deje que una matriz tenga "raíces cuadradas" y ; es decir,VAB

V=AA=BB.

Por simplicidad, suponga que la matriz original es invertible (lo que equivale a ser positivo definido bajo los supuestos). Entonces , , y sus transposiciones también deben ser invertibles porqueVAB

I=V1V=V1AA=(V1A)A

muestra un inverso izquierdo para , lo que implica que es invertible; el mismo argumento se aplica a , por supuesto. Explotamos estos inversos para escribirAAB

(B1A)(B1A)=B1(AA)B1=B1(V)B1=B1(BB)B1=I I=I,

mostrando que es una matriz ortogonal : es decir, . El conjunto de tales matrices forma dos múltiples reales suaves de dimensión cuando es por . Geométricamente, las matrices ortogonales corresponden a rotaciones o a un reflejo seguido de rotaciones, dependiendo del signo de su determinante.O=B1AOO=In(n1)/2Vnn

Por el contrario, cuando es una raíz cuadrada de , cálculos similares (pero más fáciles) muestran que también es una raíz cuadrada para cualquier matriz ortogonal y No importa aquí si es invertible o no.AVAOOA

También es fácil ver que la multiplicación por una matriz ortogonal (no igual a ) realmente altera la raíz cuadrada de una matriz invertible. Después de todo, implica inmediatamente . Esto muestra que las raíces cuadradas de las matrices positivas definidas se pueden poner en una correspondencia uno a uno con las matrices ortogonales.IAO=AO=A1A=I

Esto demuestra que las raíces cuadradas de matrices definidas positivas solo se determinan hasta la multiplicación por matrices ortogonales. Para el caso semi-definido, la situación es más complicada, pero como mínimo, la multiplicación por una matriz ortogonal conserva la propiedad de ser una raíz cuadrada.

Si desea aplicar criterios adicionales a su raíz cuadrada, podría identificar uno único o al menos reducir la ambigüedad: eso dependerá de sus preferencias particulares.

whuber
fuente
55
(+1) @hidrólogo: Como complemento a la respuesta de Whuber: Un posible criterio que conducirá a la unicidad es insistir en que la raíz cuadrada misma sea semidefinida positiva. La unicidad de entonces se mantiene bajo la condición más débil de que es semidefinido positivo. Un ejemplo instructivo para ver qué puede "fallar" es observar las posibles raíces cuadradas de , ¡incluso las diagonales ! :)AVI
cardenal
@cardinal: ¡Gracias por sus respuestas, que son de gran ayuda y muy apreciadas!
Hidrólogo
@whuber: Gracias de nuevo por tu ayuda. Esto ha sido de gran utilidad.
Hidrólogo
1
Esto se conoce como libertad unitaria de raíces cuadradas
kjetil b halvorsen