Aplicación segura de métodos iterativos en matrices diagonalmente dominantes

9

Suponga que el siguiente sistema lineal se da

(1)Lx=c,
donde L es el Laplaciano ponderado que se sabe que es positivo semi definido con un espacio nulo unidimensional dividido por 1n=(1,,1)Rn , y la varianza de traducción de xRn , es decir, x+a1n no cambia el valor de la función (cuya derivada es (1)) Las únicas entradas positivas de están en su diagonal, que es una suma de los valores absolutos de las entradas negativas fuera de la diagonal.L

He encontrado en una muy citados trabajos académicos en su campo que, aunque es n o t s t r i c t l y en diagonal dominante, métodos tales como gradiente conjugado, Gauss-Seidl, Jacobi, podrían aún ser utilizados con seguridad para resolver ( 1 ) . La razón es que, debido a la invariancia de la traducción, es seguro fijar un punto (por ejemplo, eliminar la primera fila y columna de L y la primera entrada de c ), convirtiendo así L en a s t r i c t l yLnot strictly(1)LcLstrictlymatriz diagonalmente dominante. De todos modos, el sistema original se resuelve en forma completa de , con L R n × n .(1)LRn×n

¿Es correcta esta suposición y, de ser así, cuáles son las razones alternativas? Estoy tratando de entender cómo se mantiene la convergencia de los métodos.

Si el método de Jacobi es convergente con , ¿qué podría uno decir sobre el radio espectral ρ de la matriz de iteración D - 1 ( D - L ) , donde D es la matriz diagonal con entradas de L en su diagonal? Es ρ ( D - 1 ( D - L ) 1 , por lo tanto, diferente de las garantías de convergencia general para ρ ( D - 1 ( D - L ) )(1)ρD1(DL)DLρ(D1(DL)1 ? Pregunto esto ya que los valores propios de la matriz laplaciana D - 1 L con unos en la diagonaldebenestar en el rango [ 0 , 2 ] .ρ(D1(DL))<1D1L[0,2]

Del trabajo original:

......................................

En cada iteración, calculamos un nuevo diseño (x (t +1), y (t + 1)) resolviendo el siguiente sistema lineal: Sin pérdida de generalidad podemos fijar la ubicación de uno de los sensores (utilizando el grado de libertad de traducción del localizado estrés) y obtener una matriz estrictamente diagonalmente dominante. Por lo tanto, podemos usar de forma segura la iteración de Jacobi para resolver (8)

(8)L·x(t+1)=L(x(t),y(t))·x(t)L·y(t+1)=L(x(t),y(t))·y(t)

.......................................

En lo anterior, la noción de "iteración" está relacionada con el procedimiento de minimización subyacente, y no debe confundirse con la iteración de Jacobi. Entonces, el sistema es resuelto por Jacobi (iterativamente), y luego la solución se compra al lado derecho de (8), pero ahora para otra iteración de la minimización subyacente. Espero que esto aclare el asunto.

Tenga en cuenta que encontré ¿Qué solucionadores lineales iterativos convergen para matrices semidefinidas positivas? , pero estoy buscando una respuesta más elaborada.

usero
fuente
¿Podría publicar un enlace o una cita al trabajo altamente citado?
Geoff Oxberry
Se puede recuperar de: citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.164.1421 Dado que no se espera que lea todo el trabajo, eche un vistazo a la p.7 (abajo). Supongo que la elección de los solucionadores iterativos está justificada, pero creo que se necesita una justificación mejor (o, al menos, diferente).
usero
Me pregunto si estos tipos son de la misma comunidad que los preacondicionadores combinatorios.
shuhalo

Respuestas:

5

La iteración de Jacobi se puede demostrar convergente.

Lo primero que debe asegurarse es que , que es la condición para la existencia de la solución (supongo que L = L T , de lo contrario necesita c ( K e r L T ) ) porque dijo V 0 : = K e r L = s p a n { 1 n } . Usaremos la convención de que V 0cT1n=0L=LTc(KerLT)V0:=KerL=span{1n}V0es también la matriz con columnas siendo la base ortonormal de la misma. En su caso, .V0:=1n/n

Luego, para los errores de la iteración de Jacobi en el sistema original, tiene donde P : = I -

e1=(ID1L)e0=(ID1L)(Pe0+V0a)=(ID1L)Pe0+V0a,
es la proyección ortogonal sobre V 1 : = V 0 . De la iteración anterior, sabemos que P e 1 = P ( I - D - 1 L ) P e 0 , de la cual tenemos la matriz de iteración S en V 1 , S : = P ( I - D - 1 L ) P . Eso noP:=IV0V0V1:=V0
Pe1=P(ID1L)Pe0,

SV1
S:=P(ID1L)P.
tiene los mismos espectros (excepto ceros) con la siguiente matriz ˜ S : = ( I - D - 1 L ) P P = ( I - D - 1 L ) P = ( I - D - 1 L ) ( I - V 0 V 0 )S Queremos que el radio espectral de S sea menor que uno para demostrar la convergencia.
S~:=(ID1L)PP=(ID1L)P=(ID1L)(IV0V0)=ID1LV0V0.
S

La siguiente cita es antigua y se conserva solo como referencia. Ver después de la nueva prueba.

En su caso, Y puede verificar queD-1L+V0V0 es estrictamente dominante en diagonal utilizando el supuesto de que las entradas deLson positivas en diagonal y negativas en caso contrario. Para mostrar que los valores propios de D-1L+V0V0 son reales, observamos que la matriz es autoadjunta bajo el producto interno<x,y>:=yTDxV0V0=1n1n×n.D1L+V0V0LD1L+V0V0<x,y>:=yTDx.

Si no está en su forma específica, no he encontrado una respuesta a la pregunta de convergencia. ¿Alguien podría aclarar esto?V0

Tenga en cuenta que es el eigen-vector correspondiente al valor propio 1 de I - D - 1 L . En base a la observación, llamamos al Teorema 2.1 de los Valores propios de matrices actualizadas de rango uno con algunas aplicaciones de Jiu Ding y Ai-Hui Zhou. V01ID1L

uvnuAλ1A+uvT{λ1+uTv,λ2,,λn}

S~ID1L11ρ(ID1L)(1,1]ρ(S~)(1,1)

Hui Zhang
fuente
D1L[0,2)(0,2)00ID1L1ID1L0
D1L[0,2]222ID1L1LV1
D1L2cV0ID1LV0V0srID1L(0,1]1nsr<1
1n1n1n×nsrID1Lsrsr
V0
5

Los métodos de Krylov nunca usan explícitamente la dimensionalidad del espacio en el que iteran, por lo tanto, puede ejecutarlos en sistemas singulares siempre que mantenga las iteraciones en el subespacio no nulo. Esto normalmente se realiza proyectando el espacio nulo en cada iteración. Hay dos cosas que pueden salir mal, la primera es mucho más común que la segunda.

  1. El preacondicionador es inestable cuando se aplica al operador singular. Los solucionadores directos y la factorización incompleta pueden tener esta propiedad. Como cuestión práctica, simplemente elegimos diferentes preacondicionadores, pero hay formas más basadas en principios para diseñar preacondicionadores para sistemas singulares, por ejemplo, Zhang (2010) .
  2. xAx

Para resolver sistemas singulares usando PETSc, ver KSPSetNullSpace(). La mayoría de los métodos y preacondicionadores pueden resolver sistemas singulares. En la práctica, el pequeño espacio nulo para PDE con condiciones de contorno de Neumann casi nunca es un problema, siempre que informe al solucionador de Krylov sobre el espacio nulo y elija un preacondicionador razonable.

Ax=bbAb

Jed Brown
fuente
QA1=QTAQA1A1Z(IZ)P1Ax=(IZ)P1b
Hmm, parece que respondí a un comentario que fue eliminado. Dejaré el comentario aquí en caso de que sea útil.
Jed Brown
diag(A)
Xk+1=D1(b(AD)Xk)Xk+1Xk
1
N=ZZTZINZN=IZZTes el proyector.)
Jed Brown