Como alguien que tiene una licenciatura en física, me escandalizó un poco cuando comencé a trabajar con simulaciones moleculares. Fue un poco sorprendente descubrir que incluso las simulaciones más detalladas y computacionalmente caras no pueden reproducir cuantitativamente el comportamiento completo del agua desde los primeros principios.
Anteriormente, tenía la impresión de que las leyes básicas de la mecánica cuántica eran un problema resuelto (aparte de la gravedad, que generalmente se supone irrelevante a escala molecular). Sin embargo, parece que una vez que intentas escalar esas leyes y aplicarlas a algo más grande o más complejo que un átomo de hidrógeno, su poder predictivo comienza a descomponerse.
Desde el punto de vista matemático, entiendo que las funciones de onda rápidamente se vuelven demasiado complicadas de resolver y que se requieren aproximaciones (como Born-Oppenheimer) para hacer que las funciones de onda sean más manejables. También entiendo que esas aproximaciones introducen errores que se propagan cada vez más a medida que aumenta el tiempo y las escalas espaciales del sistema en estudio.
¿Cuál es la naturaleza del más grande y más significativo de estos errores de aproximación? ¿Cómo puedo obtener una comprensión intuitiva de esos errores? Lo más importante, ¿cómo podemos avanzar hacia un método ab-initio que nos permita simular con precisión moléculas enteras y poblaciones de moléculas? ¿Cuáles son los mayores problemas sin resolver que impiden que las personas desarrollen este tipo de simulaciones?
Respuestas:
Hasta donde yo sé, los métodos más precisos para los cálculos estáticos son la interacción de configuración completa con un Dirac Hamiltoniano de cuatro componentes completamente relativista y un conjunto de bases "lo suficientemente completo". No soy un experto en esta área en particular, pero, por lo que sé del método, resolverlo usando un método variacional (en lugar de un método basado en Montecarlo) se ajusta a un nivel muy alto, ya que creo que el número de determinantes de Slater que tiene para incluir en su matriz escalas algo como . (Hay un artículo sobre el costo computacional aquí .) Los métodos relacionados de Monte-Carlo y los métodos basados en ellos que usan "caminantes" y redes de determinantes pueden dar resultados más rápidamente, pero como se indica anteriormente, no son variacionales. Y siguen siendo horriblemente costosos.O (norteo r b sdonortemi)
Las aproximaciones actualmente en uso práctico solo para energías para más de dos átomos incluyen:
Para la dinámica, muchas de las aproximaciones se refieren a cosas como el tamaño limitado de un sistema manejable y la opción práctica de paso de tiempo: es algo bastante estándar en el campo de simulación de tiempo numérico. También hay mantenimiento de temperatura (ver termostatos Nose-Hoover o Langevin). Sin embargo, esto es principalmente un conjunto de problemas de mecánica estadística, según tengo entendido.
De todos modos, si tiene una mentalidad física, puede tener una idea bastante buena de lo que se descuida al mirar las formulaciones y los documentos sobre estos métodos: los métodos más utilizados tendrán al menos uno o dos documentos que no son la especificación original explicando su formulación y lo que incluye. O simplemente puede hablar con las personas que los usan. (Las personas que estudian sistemas periódicos con DFT siempre están murmurando sobre lo que los diferentes funcionales hacen y no incluyen y explican). Muy pocos de los métodos tienen omisiones sorprendentes específicas o modos de falla. El problema más difícil parece ser el tratamiento adecuado de la correlación electrónica, y cualquier cosa por encima del método Hartree-Fock, que no lo explica en absoluto, es un intento de incluirlo.
Según tengo entendido, llegar a la precisión del CI relativista completo con conjuntos de bases completos nunca será barato sin reinventar dramáticamente (o desechar) los algoritmos que usamos actualmente. (Y para las personas que dicen que DFT es la solución para todo, estoy esperando sus formulaciones libres de orbitales de densidad pura).
También está el problema de que cuanto más precisa sea su simulación al incluir más contribuciones y formulaciones más complejas, más difícil será hacer algo. Por ejemplo, el acoplamiento de órbita giratoria a veces se evita únicamente porque hace que todo sea más complicado de analizar (pero a veces también porque tiene un efecto insignificante), y los orbitales canónicos Hartree-Fock o Kohn-Sham pueden ser bastante útiles para comprender las características cualitativas de un sistema sin capas en la salida adicional de métodos más avanzados.
(Espero que algo de esto tenga sentido, probablemente sea un poco irregular. Y probablemente me haya perdido la aproximación o queja favorita de alguien).
fuente
El desafío fundamental de los cálculos de mecánica cuántica es que no se escalan muy bien; por lo que recuerdo, la escala actual en el mejor de los casos es aproximadamente , donde es el número de electrones contenidos en el sistema. Por lo tanto, 13 moléculas de agua se escalarán con electrones en lugar de solo átomos. (Eso es un factor de casi 40). Para átomos más pesados, la discrepancia se vuelve aún mayor.N e N e = 104 N = 39O ( N3.7mi) nortemi Ne=104 N=39
El problema principal será que, además del aumento de la potencia computacional, necesitará crear mejores algoritmos que puedan derribar el exponente 3.7 a algo que sea más manejable.
fuente
El problema es ampliamente equivalente a la diferencia entre las computadoras clásicas y las computadoras cuánticas. Las computadoras clásicas trabajan en valores únicos a la vez, ya que solo es posible un futuro / historial para una entrada determinista. Sin embargo, una computadora cuántica puede operar en cada entrada posible simultáneamente, ya que se puede colocar en una superposición de todos los estados posibles.
De la misma manera, una computadora clásica tiene que calcular cada propiedad individualmente, pero el sistema cuántico que está simulando tiene todas las leyes del universo para calcular todas las propiedades simultáneamente.
El problema se ve exacerbado por la forma en que tenemos que pasar datos casi en serie a través de una CPU, o como máximo unos pocos miles de CPU. Por el contrario, el universo tiene un conjunto casi ilimitado de cálculos simultáneos al mismo tiempo.
Considere como ejemplo 3 electrones en una caja. Una computadora tiene que elegir un paso de tiempo (primera aproximación) y seguir recalculando las interacciones de cada electrón entre sí, a través de un número limitado de CPU. En realidad, los electrones tienen un número desconocido de partículas de intercambio reales y virtuales en tránsito, que son absorbidas y emitidas, como un proceso continuo. Cada partícula y punto en el espacio tiene alguna interacción, lo que necesitaría una computadora para simular.
La simulación es realmente el arte de elegir sus aproximaciones y sus algoritmos para modelar el tema lo mejor posible con los recursos que tiene disponibles. Si quieres la perfección, me temo que es la matemática de las gallinas esféricas en el vacío; solo podemos simular perfectamente lo muy simple.
fuente
No sé si lo siguiente ayuda, pero para mí fue muy perspicaz visualizar el comportamiento de escala de los sistemas cuánticos:
El principal problema proviene del hecho de que el espacio de Hilbert de los estados cuánticos crece exponencialmente con el número de partículas. Esto se puede ver muy fácilmente en sistemas discretos. Piense en un par de pozos potenciales que están conectados entre sí, pueden ser solo dos: pozo 1 y pozo 2. Ahora agregue bosones (por ejemplo, Rubidio 87, solo como ejemplo), al principio solo uno. ¿Cuántos vectores base posibles hay?
Ahora suponga que el bosón puede saltar (o hacer un túnel) de un pozo a otro. El hamiltoniano que describe el sistema puede entonces escribirse como notación matricial como
Este problema es tan simple que se puede resolver a mano.
Ahora supongamos que tenemos más pozos potenciales y más bosones, por ejemplo, en el caso de cuatro pozos con dos bosones hay 10 posibilidades diferentes para distribuir los bosones entre los pozos. Entonces el hamiltoniano tendría 10x10 = 100 elementos y 10 estados propios.
fuente
La teoría funcional de la densidad es otra forma de tratar este problema, pero es una aproximación. Es una muy buena aproximación en algunos casos, pero en otros casos puede ser sorprendentemente mala.
fuente
Creo que una simulación de agua altamente precisa fue el tema de una de las primeras y grandes simulaciones realizadas con la supercomputadora Jaguar . Es posible que desee consultar este documento y su trabajo de seguimiento (que, por cierto, fue finalista para el premio Gordon-Bell en 2009):
"Agua líquida: obteniendo la respuesta correcta por las razones correctas" , Aprà, Rendell, Harrison, Tipparaju, deJong, Xantheas.
fuente
Este problema es resuelto por la Teoría Funcional de la Densidad. La esencia está reemplazando muchos grados de libertad del cuerpo por varios campos, uno de ellos con la densidad de electrones. Para una gran exposición, vea la conferencia nobel de uno de los fundadores de DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf
fuente