Tanto en los métodos de descomposición de dominio (DD) como en multigrid (MG), se puede componer la aplicación de las actualizaciones de bloque o las correcciones generales como aditivas o multiplicativas . Para los solucionadores puntuales, esta es la diferencia entre las iteraciones de Jacobi y Gauss-Seidel. El suavizador multiplicativo para actúa como S ( x o l d , b ) = x n e w se aplica como
y el aditivo más suave se aplica como
para algunos amortiguadores . El consenso general parece ser que los suavizadores multiplicativos tienen propiedades de convergencia mucho más rápidas, pero me preguntaba: ¿en qué situaciones es mejor el rendimiento de las variantes aditivas de estos algoritmos?
Más específicamente, ¿Alguien tiene algún caso de uso en el que la variante aditiva deba o tenga un rendimiento significativamente mejor que la variante multiplicativa? ¿Hay razones teóricas para esto? La mayoría de la literatura sobre multirredes es bastante pesimista sobre el método Aditivo, pero se usa tanto en el contexto DD como el aditivo Schwarz. Esto también se extiende al tema mucho más general de componer solucionadores lineales y no lineales, y qué tipo de construcciones funcionarán bien y funcionarán bien en paralelo.
fuente
Para problemas de SPD, los métodos aditivos son mejores para suavizar MG por varias razones como ya se mencionó y algunas más:
Sin embargo, los métodos multiplicativos tienen las propiedades espectrales correctas listas para usar para un MG más suave, es decir, no necesitan amortiguación. Esto puede ser una gran victoria para los problemas hiperbólicos donde el suavizado polinómico no es muy agradable.
fuente
Replantearé lo que dijo @Jed: el método multiplicativo siempre converge al menos tan bien como el método aditivo (asintóticamente), por lo que solo se gana en función de la concurrencia, pero eso depende de la arquitectura.
fuente