Me pregunto qué ha pasado con los preacondicionadores polinómicos. Estoy interesado en ellos, porque parecen ser comparativamente elegantes desde una perspectiva matemática, pero por lo que he leído en encuestas sobre métodos krylov, generalmente funcionan muy mal como preacondicionadores. En palabras de Saad y van der Host, "el interés actual en estas técnicas casi ha desaparecido" (Aquí) . Sin embargo, ha habido usos para cálculos multinúcleo y GPU en el pasado reciente.
¿Alguien puede decirme o más bien explicarme en qué contextos estos métodos todavía están vivos y dónde encontrar una buena encuesta sobre el estado actual del arte?
Respuestas:
Para funcionar razonablemente, los preacondicionadores polinomiales necesitan estimaciones espectrales bastante precisas. Para problemas elípticos mal condicionados, los valores propios más pequeños generalmente se separan de tal manera que métodos como Chebyshev están lejos de ser óptimos. La propiedad más interesante de los métodos polinómicos es que no requieren ningún producto interno.
En realidad, es bastante popular usar suavizadores polinómicos en multirredes. La principal diferencia con respecto a un preacondicionador es que se supone que el más suave solo tiene como objetivo una parte del espectro. Un suavizador polinómico es actualmente el predeterminado en la multirrejilla de PETSc, por ejemplo. Ver también Adams et al, Parallel multigrid smooth: polinomial versus Gauss-Seidel (2003) para una comparación.
Los preacondicionadores polinómicos se pueden usar únicamente para reducir la frecuencia de las reducciones. Aunque tienen que volver a ajustarse para cada matriz, los ahorros pueden ser significativos en hardware en el que las reducciones son costosas (comunes en supercomputadoras grandes). Vea McInnes, Smith, Zhang y Mills, Hierarchical and Nested Krylov Methods for Extreme-Scale Computing (2012) para más información sobre esto.
fuente