Según tengo entendido, la relajación sucesiva funciona eligiendo un parámetro y utilizando una combinación lineal de una iteración (cuasi) de Gauss-Seidel y el valor en el paso de tiempo anterior ... eso es
'cuasi' porque incluye la información más reciente actualizada de acuerdo con esta regla, en cualquier momento. (tenga en cuenta que en , esto es exactamente gauss-seidel). ω=1
En cualquier caso, he leído que en la elección óptima para (de modo que la iteración converja más rápido que cualquier otro) se aproxima a 2 para el problema de Poisson a medida que la resolución espacial se acerca a cero. ¿Existe una tendencia similar para otros problemas simétricos, diagonalmente dominantes? Es decir, ¿hay alguna manera de elegir omega de manera óptima sin incluirlo en un esquema de optimización adaptativa? ¿Existen otras heurísticas para otros tipos de problemas? ¿Qué tipo de problemas sería la sub-relajación ( ) óptima?ω < 1
Respuestas:
Jacobi amortiguado
Supongamos que la matriz tiene diagonal . Si el espectro de encuentra en el intervalo del eje real positivo, entonces la matriz de iteración de Jacobi con factor de amortiguamiento tiene espectro en el rango , por lo que minimizar el radio espectral con da un factor de convergencia de Si , entonces este factor de convergencia es muy pobre, como se esperaba. Tenga en cuenta que es relativamente fácil estimarD D - 1 A [ a , b ] ω B Jacobi = I - ω D - 1 A [ 1 - ω b , 1 - ω a ] ω opt = 2A D D−1A [a,b] ω
Sucesiva sobre-relajación (SOR)
Young (1950) demostró un resultado óptimo para SOR aplicarse a matrices con la llamada de la propiedad A , de pedido consistente , y valores propios reales positivos de . Dado un valor propio máximo de la matriz de iteración de Jacobi no amortiguada ( está garantizada por los supuestos en este caso), el factor de amortiguación óptimo para SOR es que da como resultado una tasa de convergencia de Tenga en cuenta que acerca a 2 cuando .μ max I - D - 1 A μ max < 1 ω opt = 1 + ( μ maxD−1A μmax I−D−1A μmax<1 ρopt=ωopt-1.ωoptμmax→1
Comentarios
Ya no es 1950 y realmente no tiene sentido usar métodos iterativos estacionarios como solucionadores. En cambio, los usamos como suavizadores para multirredes. En este contexto, solo nos interesa apuntar al extremo superior del espectro. La optimización del factor de relajación en SOR hace que SOR produzca muy poca amortiguación de altas frecuencias (a cambio de una mejor convergencia en frecuencias más bajas), por lo que generalmente es mejor usar Gauss-Seidel estándar, correspondiente a en SOR. Para problemas no simétricos y problemas con coeficientes altamente variables, el SOR poco relajado ( ) puede tener mejores propiedades de amortiguación.ω < 1ω=1 ω<1
Estimar ambos valores propios de es costoso, pero el valor propio más grande se puede estimar rápidamente usando algunas iteraciones de Krylov. Los suavizadores polinómicos (preacondicionados con Jacobi) son más efectivos que las iteraciones múltiples de Jacobi amortiguado y son más fáciles de configurar, por lo que deberían preferirse. Consulte esta respuesta para obtener más información sobre los suavizadores polinómicos.D−1A
A veces se afirma que SOR no debe usarse como preacondicionador para métodos de Krylov como GMRES. Esto proviene de la observación de que el parámetro de relajación óptimo debe colocar todos los valores propios de la matriz de iteración en un círculo centrado en el origen. El espectro del operador preacondicionado(1
fuente