diagonalización de la matriz: omitir elementos pequeños de la matriz

8

Me preguntaba si hay algún teorema que me permita poner un límite superior en el error introducido al omitir elementos de matriz pequeños de una matriz antes de la diagonalización.

Vamos a suponer que tenemos una gran matriz, cuya matriz de elementos van de 1 a 1015 . Si tuviera que establecer todos los elementos de la matriz más pequeños que a antes de diagonalizar la matriz, ¿qué tan grande sería el error en los valores propios y los vectores propios? 010100

¿Depende esta implementación?

ftiaronsem
fuente
lo que si la matriz se encuentra dentro de epsilon de una matriz que no es diagonalizable
k20

Respuestas:

6

Existe un campo de estudio conocido como análisis de sensibilidad de valor propio o análisis de perturbación de valor propio que le permite estimar el efecto de las perturbaciones de matriz pequeña en los valores propios y los vectores propios. La técnica básica utilizada para esto es diferenciar la ecuación de la matriz de valores propios,

AX=XΛ.

Para situaciones donde los valores propios de la matriz original son distintos, el siguiente documento tiene una derivación y resultados muy claros:

Mike Giles. "Una colección extendida de resultados derivados de matriz para la diferenciación algorítmica de modo directo e inverso". https://people.maths.ox.ac.uk/gilesm/files/NA-08-01.pdf

Cuando los valores propios no son distintos, se debe tener más cuidado. Vea la siguiente presentación y papel .

Para el caso especial de matrices simétricas con valores propios distintos, sujetos a una pequeña perturbación A A + d A , los resultados son lo suficientemente simples como para reproducirlos aquí. La derivada de la matriz de valores propios es, d Λ = diag ( U T d A A U ) , y la derivada de la matriz de vectores propios es, d U = U C ( d A ) , donde la matriz de coeficientes CA=UΛUTAA+dA

dΛ=diag(UTdAU),
dU=UC(dA),
Cse define como,
C={uiTdAujλjλi,i=j0,i=j

El siguiente artículo de Overton y Womersley tiene un gran análisis de sensibilidad para el caso simétrico, incluidas las segundas derivadas.

Overton, Michael L. y Robert S. Womersley. "Segundas derivadas para optimizar valores propios de matrices simétricas". SIAM Journal on Matrix Analysis and Applications 16.3 (1995): 697-718. http://ftp.cs.nyu.edu/cs/faculty/overton/papers/pdffiles/eighess.pdf

Nick Alger
fuente
10

No depende de la implementación en el sentido de que esta es una operación matemática realizada en su matriz. Sin embargo, depende mucho de la matriz .

A=XDX1EX

X-1(UNA+mi)X=re+X-1miX.
re
miκ(X),
miκ(X)

UNAUNAUNAt=UNAtUNAXκ(X)=1

Λϵ(UNA)={zz es un valor propio de UNA+mi con miϵ}.
Λϵ(UNA)={z(zyo-UNA)-1ϵ-1}.
ϵκ(X)

En cierto sentido, dejar caer elementos pequeños de la matriz está bien: o no importan, y los nuevos resultados son tan precisos como el original, o importan, y sus resultados originales son tan inexactos como los nuevos resultados.

Kirill
fuente
Muchas gracias por tu respuesta. la matriz en cuestión sería normal, lo cual es bueno :). ¿Podría elaborar un poco más sobre la afirmación "suponiendo que la matriz X no cambie mucho"? ¿Hay alguna forma de garantizar esto para las matrices normales?
ftiaronsem
XreX