Suponga que el siguiente sistema lineal se da
He encontrado en una muy citados trabajos académicos en su campo que, aunque es n o t s t r i c t l y en diagonal dominante, métodos tales como gradiente conjugado, Gauss-Seidl, Jacobi, podrían aún ser utilizados con seguridad para resolver ( 1 ) . La razón es que, debido a la invariancia de la traducción, es seguro fijar un punto (por ejemplo, eliminar la primera fila y columna de L y la primera entrada de c ), convirtiendo así L en a s t r i c t l ymatriz diagonalmente dominante. De todos modos, el sistema original se resuelve en forma completa de , con L ∈ R n × n .
¿Es correcta esta suposición y, de ser así, cuáles son las razones alternativas? Estoy tratando de entender cómo se mantiene la convergencia de los métodos.
Si el método de Jacobi es convergente con , ¿qué podría uno decir sobre el radio espectral ρ de la matriz de iteración D - 1 ( D - L ) , donde D es la matriz diagonal con entradas de L en su diagonal? Es ρ ( D - 1 ( D - L ) ≤ 1 , por lo tanto, diferente de las garantías de convergencia general para ρ ( D - 1 ( D - L ) ) ? Pregunto esto ya que los valores propios de la matriz laplaciana D - 1 L con unos en la diagonaldebenestar en el rango [ 0 , 2 ] .
Del trabajo original:
......................................
En cada iteración, calculamos un nuevo diseño (x (t +1), y (t + 1)) resolviendo el siguiente sistema lineal: Sin pérdida de generalidad podemos fijar la ubicación de uno de los sensores (utilizando el grado de libertad de traducción del localizado estrés) y obtener una matriz estrictamente diagonalmente dominante. Por lo tanto, podemos usar de forma segura la iteración de Jacobi para resolver (8)
.......................................
En lo anterior, la noción de "iteración" está relacionada con el procedimiento de minimización subyacente, y no debe confundirse con la iteración de Jacobi. Entonces, el sistema es resuelto por Jacobi (iterativamente), y luego la solución se compra al lado derecho de (8), pero ahora para otra iteración de la minimización subyacente. Espero que esto aclare el asunto.
Tenga en cuenta que encontré ¿Qué solucionadores lineales iterativos convergen para matrices semidefinidas positivas? , pero estoy buscando una respuesta más elaborada.
Respuestas:
La iteración de Jacobi se puede demostrar convergente.
Lo primero que debe asegurarse es que , que es la condición para la existencia de la solución (supongo que L = L T , de lo contrario necesita c ∈ ( K e r L T ) ⊥ ) porque dijo V 0 : = K e r L = s p a n { 1 n } . Usaremos la convención de que V 0CT1norte= 0 L = LT c ∈ ( K e r LT)⊥ V0 0: = K e r L = s p a n { 1norte} V0 0 es también la matriz con columnas siendo la base ortonormal de la misma. En su caso, .V0 0: = 1norte/ n--√
Luego, para los errores de la iteración de Jacobi en el sistema original, tiene donde P : = I -
La siguiente cita es antigua y se conserva solo como referencia. Ver después de la nueva prueba.
Tenga en cuenta que es el eigen-vector correspondiente al valor propio 1 de I - D - 1 L . En base a la observación, llamamos al Teorema 2.1 de los Valores propios de matrices actualizadas de rango uno con algunas aplicaciones de Jiu Ding y Ai-Hui Zhou.V0 0 1 yo- D- 1L
fuente
Los métodos de Krylov nunca usan explícitamente la dimensionalidad del espacio en el que iteran, por lo tanto, puede ejecutarlos en sistemas singulares siempre que mantenga las iteraciones en el subespacio no nulo. Esto normalmente se realiza proyectando el espacio nulo en cada iteración. Hay dos cosas que pueden salir mal, la primera es mucho más común que la segunda.
Para resolver sistemas singulares usando PETSc, ver
KSPSetNullSpace()
. La mayoría de los métodos y preacondicionadores pueden resolver sistemas singulares. En la práctica, el pequeño espacio nulo para PDE con condiciones de contorno de Neumann casi nunca es un problema, siempre que informe al solucionador de Krylov sobre el espacio nulo y elija un preacondicionador razonable.fuente