¿Dónde se rompen las leyes de la mecánica cuántica en las simulaciones?

29

Como alguien que tiene una licenciatura en física, me escandalizó un poco cuando comencé a trabajar con simulaciones moleculares. Fue un poco sorprendente descubrir que incluso las simulaciones más detalladas y computacionalmente caras no pueden reproducir cuantitativamente el comportamiento completo del agua desde los primeros principios.

Anteriormente, tenía la impresión de que las leyes básicas de la mecánica cuántica eran un problema resuelto (aparte de la gravedad, que generalmente se supone irrelevante a escala molecular). Sin embargo, parece que una vez que intentas escalar esas leyes y aplicarlas a algo más grande o más complejo que un átomo de hidrógeno, su poder predictivo comienza a descomponerse.

Desde el punto de vista matemático, entiendo que las funciones de onda rápidamente se vuelven demasiado complicadas de resolver y que se requieren aproximaciones (como Born-Oppenheimer) para hacer que las funciones de onda sean más manejables. También entiendo que esas aproximaciones introducen errores que se propagan cada vez más a medida que aumenta el tiempo y las escalas espaciales del sistema en estudio.

¿Cuál es la naturaleza del más grande y más significativo de estos errores de aproximación? ¿Cómo puedo obtener una comprensión intuitiva de esos errores? Lo más importante, ¿cómo podemos avanzar hacia un método ab-initio que nos permita simular con precisión moléculas enteras y poblaciones de moléculas? ¿Cuáles son los mayores problemas sin resolver que impiden que las personas desarrollen este tipo de simulaciones?

tel
fuente
66
Er ... ¿qué te hizo pensar que "las leyes básicas de la mecánica cuántica eran un problema resuelto" era equivalente a ser capaz de "reproducir el comportamiento completo del agua desde los primeros principios [en simulación]" ? Es un problema de trece cuerpos.
dmckee
@dmckee, esto es exactamente lo que me confunde. 13 problema corporal significa que no hay solución analítica, claro, pero ¿qué nos impide llegar a una solución numérica de precisión arbitraria? ¿Es simplemente que chocas contra la pared de lo que es computacionalmente factible? ¿Ya estás en el punto donde un cálculo requiere la vida útil de un sol para completarse? Si es así, ¿qué tipo de aproximaciones puede hacer para simplificar el problema? ¿Puedes entender estas aproximaciones en un nivel intuitivo? ¿Hay formas de mejorar las aproximaciones, reducir el nivel de error que introducen? Desglosar para mí
tel
@dmckee en cuanto a lo que me hizo pensar que el agua debería ser simple en primer lugar ... Culpo a los simuladores de proteínas. Me hicieron soñar con lo que era posible :)
tel

Respuestas:

16

Hasta donde yo sé, los métodos más precisos para los cálculos estáticos son la interacción de configuración completa con un Dirac Hamiltoniano de cuatro componentes completamente relativista y un conjunto de bases "lo suficientemente completo". No soy un experto en esta área en particular, pero, por lo que sé del método, resolverlo usando un método variacional (en lugar de un método basado en Montecarlo) se ajusta a un nivel muy alto, ya que creo que el número de determinantes de Slater que tiene para incluir en su matriz escalas algo como . (Hay un artículo sobre el costo computacional aquí .) Los métodos relacionados de Monte-Carlo y los métodos basados ​​en ellos que usan "caminantes" y redes de determinantes pueden dar resultados más rápidamente, pero como se indica anteriormente, no son variacionales. Y siguen siendo horriblemente costosos.O(norbsCne)

Las aproximaciones actualmente en uso práctico solo para energías para más de dos átomos incluyen:

  • Nacido Oppenheimer, como usted dice: esto casi nunca es un problema a menos que su sistema implique un túnel de átomos de hidrógeno, o que esté muy cerca de un cruce de estado / cruce evitado. (Ver, por ejemplo, intersecciones cónicas.) Conceptualmente, existen métodos no adiabáticos para la función / densidad de onda, incluyendo CPMD, y también hay MD de Path-Integral que puede explicar los efectos del túnel nuclear.
  • Cálculos no relativistas y aproximaciones de dos componentes a la ecuación de Dirac: puede obtener una formulación exacta de dos componentes de la ecuación de Dirac, pero más prácticamente la aproximación regular de orden cero (ver Lenthe et al, JChemPhys, 1993) o Douglas- Kroll-Hess Hamiltonian (ver Reiher, ComputMolSci, 2012) se usan comúnmente, y a menudo (probablemente generalmente) descuidan el acoplamiento de la órbita giratoria.
  • Conjuntos básicos y LCAO: los conjuntos básicos no son perfectos, pero siempre puedes hacerlos más completos.
  • Funcionales DFT, que tienden a intentar proporcionar un intento suficientemente bueno en el intercambio y la correlación sin el costo computacional de los métodos más avanzados a continuación. (Y que vienen en diferentes niveles de aproximación. LDA es el nivel de entrada, GGA, metaGGA e incluye el intercambio exacto más allá de eso, e incluir el RPA sigue siendo una técnica bastante costosa y nueva hasta ahora Estoy al tanto. También hay funcionalidades que usan técnicas diferentes en función de la separación, y algunas que usan vorticidad que creo que tienen aplicación en estudios magnéticos o de aromaticidad. (B3LYP, la funcionalidad que algunas personas aman y algunas personas aman odiar, es un GGA que incluye un porcentaje de intercambio exacto).
  • Truncamientos de interacción de configuración: CIS, CISD, CISDT, CISD (T), CASSCF, RASSCF, etc. Estas son todas aproximaciones a CI que suponen que los determinantes excitados más importantes son los menos excitados.
  • Interacción de configuración de referencia múltiple (truncamientos): Ídem, pero con algunos estados de referencia de inicio diferentes.
  • Método de clúster acoplado: no pretendo comprender adecuadamente cómo funciona esto, pero obtiene resultados similares a los truncamientos de interacción de configuración con el beneficio de la consistencia de tamaño (es decir, ( en gran separación)).E(H2)×2=E((H2)2

Para la dinámica, muchas de las aproximaciones se refieren a cosas como el tamaño limitado de un sistema manejable y la opción práctica de paso de tiempo: es algo bastante estándar en el campo de simulación de tiempo numérico. También hay mantenimiento de temperatura (ver termostatos Nose-Hoover o Langevin). Sin embargo, esto es principalmente un conjunto de problemas de mecánica estadística, según tengo entendido.

De todos modos, si tiene una mentalidad física, puede tener una idea bastante buena de lo que se descuida al mirar las formulaciones y los documentos sobre estos métodos: los métodos más utilizados tendrán al menos uno o dos documentos que no son la especificación original explicando su formulación y lo que incluye. O simplemente puede hablar con las personas que los usan. (Las personas que estudian sistemas periódicos con DFT siempre están murmurando sobre lo que los diferentes funcionales hacen y no incluyen y explican). Muy pocos de los métodos tienen omisiones sorprendentes específicas o modos de falla. El problema más difícil parece ser el tratamiento adecuado de la correlación electrónica, y cualquier cosa por encima del método Hartree-Fock, que no lo explica en absoluto, es un intento de incluirlo.

Según tengo entendido, llegar a la precisión del CI relativista completo con conjuntos de bases completos nunca será barato sin reinventar dramáticamente (o desechar) los algoritmos que usamos actualmente. (Y para las personas que dicen que DFT es la solución para todo, estoy esperando sus formulaciones libres de orbitales de densidad pura).

También está el problema de que cuanto más precisa sea su simulación al incluir más contribuciones y formulaciones más complejas, más difícil será hacer algo. Por ejemplo, el acoplamiento de órbita giratoria a veces se evita únicamente porque hace que todo sea más complicado de analizar (pero a veces también porque tiene un efecto insignificante), y los orbitales canónicos Hartree-Fock o Kohn-Sham pueden ser bastante útiles para comprender las características cualitativas de un sistema sin capas en la salida adicional de métodos más avanzados.

(Espero que algo de esto tenga sentido, probablemente sea un poco irregular. Y probablemente me haya perdido la aproximación o queja favorita de alguien).

Aesin
fuente
11

El desafío fundamental de los cálculos de mecánica cuántica es que no se escalan muy bien; por lo que recuerdo, la escala actual en el mejor de los casos es aproximadamente , donde es el número de electrones contenidos en el sistema. Por lo tanto, 13 moléculas de agua se escalarán con electrones en lugar de solo átomos. (Eso es un factor de casi 40). Para átomos más pesados, la discrepancia se vuelve aún mayor.N e N e = 104 N = 39O(Ne3.7)NeNe=104N=39

El problema principal será que, además del aumento de la potencia computacional, necesitará crear mejores algoritmos que puedan derribar el exponente 3.7 a algo que sea más manejable.

aeismail
fuente
66
O(Ne3.7)
1
¡Realmente me gusta y disfruto esta discusión!
Abre el camino el
Tengo entendido que la mecánica cuántica (o al menos la teoría de la estructura electrónica) se consideraría un problema resuelto si los métodos más precisos se escalaran como O (N ^ 3). El problema es que son esencialmente los peores métodos, las aproximaciones de campo promedio, los que se acercan a esta escala, y algo así como las escalas de CI completo exponencialmente con el número de electrones (o más típicamente las funciones básicas).
Tyberius el
6

El problema es ampliamente equivalente a la diferencia entre las computadoras clásicas y las computadoras cuánticas. Las computadoras clásicas trabajan en valores únicos a la vez, ya que solo es posible un futuro / historial para una entrada determinista. Sin embargo, una computadora cuántica puede operar en cada entrada posible simultáneamente, ya que se puede colocar en una superposición de todos los estados posibles.

De la misma manera, una computadora clásica tiene que calcular cada propiedad individualmente, pero el sistema cuántico que está simulando tiene todas las leyes del universo para calcular todas las propiedades simultáneamente.

El problema se ve exacerbado por la forma en que tenemos que pasar datos casi en serie a través de una CPU, o como máximo unos pocos miles de CPU. Por el contrario, el universo tiene un conjunto casi ilimitado de cálculos simultáneos al mismo tiempo.

Considere como ejemplo 3 electrones en una caja. Una computadora tiene que elegir un paso de tiempo (primera aproximación) y seguir recalculando las interacciones de cada electrón entre sí, a través de un número limitado de CPU. En realidad, los electrones tienen un número desconocido de partículas de intercambio reales y virtuales en tránsito, que son absorbidas y emitidas, como un proceso continuo. Cada partícula y punto en el espacio tiene alguna interacción, lo que necesitaría una computadora para simular.

La simulación es realmente el arte de elegir sus aproximaciones y sus algoritmos para modelar el tema lo mejor posible con los recursos que tiene disponibles. Si quieres la perfección, me temo que es la matemática de las gallinas esféricas en el vacío; solo podemos simular perfectamente lo muy simple.

Phil H
fuente
3
realmente agradable "La simulación es realmente el arte de elegir tus aproximaciones y tus algoritmos para modelar el tema lo mejor posible con los recursos que tienes disponibles"
Abre el camino el
Es cierto que solo los fetichistas esféricos de pollo se preocupan por la perfección. La verdadera pregunta es ¿qué nos impide llegar a "lo suficientemente bueno"? Para muchos problemas de interés biológico (es decir, cada problema de unión de drogas), lo suficientemente preciso sería calcular las energías dentro de ~ 1 kT más o menos. Esto a veces se conoce como "precisión química".
Tel.
1
@tel: Depende del área. Para algunas cosas, tenemos más precisión en los modelos de lo que podemos lograr en la práctica, por ejemplo, modelar orbitales de electrones de hidrógeno. Para otros, por lo general, los sistemas no lineales de muchos cuerpos donde entran en juego múltiples efectos, luchamos por igualar el experimento; química cuántica para cosas como las energías de unión (ver Teoría funcional de la densidad), plegamiento de proteínas, estos son lugares donde aún no podemos reproducir de manera confiable el experimento con los recursos comúnmente disponibles. Las computadoras cuánticas de un tamaño razonable harían el trabajo.
Phil H
4

No sé si lo siguiente ayuda, pero para mí fue muy perspicaz visualizar el comportamiento de escala de los sistemas cuánticos:

El principal problema proviene del hecho de que el espacio de Hilbert de los estados cuánticos crece exponencialmente con el número de partículas. Esto se puede ver muy fácilmente en sistemas discretos. Piense en un par de pozos potenciales que están conectados entre sí, pueden ser solo dos: pozo 1 y pozo 2. Ahora agregue bosones (por ejemplo, Rubidio 87, solo como ejemplo), al principio solo uno. ¿Cuántos vectores base posibles hay?

  • vector base 1: bosón en el pozo 1
  • vector base 2: bosón en el pozo 2

|1,0|0,1

Ahora suponga que el bosón puede saltar (o hacer un túnel) de un pozo a otro. El hamiltoniano que describe el sistema puede entonces escribirse como notación matricial como

H^=(ϵ1ttϵ2)

ϵ1,2|1,0|0,1

Este problema es tan simple que se puede resolver a mano.

Ahora supongamos que tenemos más pozos potenciales y más bosones, por ejemplo, en el caso de cuatro pozos con dos bosones hay 10 posibilidades diferentes para distribuir los bosones entre los pozos. Entonces el hamiltoniano tendría 10x10 = 100 elementos y 10 estados propios.

number of eigenstates=(number of wells+number of bosons1number of bosons)

92,3782

2.7105310107 elementos, ocupando tanto espacio que necesitaríamos todas las partículas de 10 millones de universos como el nuestro solo para codificar esa información.

Robert
fuente
2

n3n

points12

La teoría funcional de la densidad es otra forma de tratar este problema, pero es una aproximación. Es una muy buena aproximación en algunos casos, pero en otros casos puede ser sorprendentemente mala.

Dan
fuente
-1

Este problema es resuelto por la Teoría Funcional de la Densidad. La esencia está reemplazando muchos grados de libertad del cuerpo por varios campos, uno de ellos con la densidad de electrones. Para una gran exposición, vea la conferencia nobel de uno de los fundadores de DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf

Artan
fuente
¿Podría dar algún contexto al enlace que está proporcionando? Desalentamos las respuestas que solo dan un enlace sin ningún tipo de explicación, y este tipo de respuestas se eliminan a menos que se editen.
Geoff Oxberry
10
y por cierto, deberías tener cuidado con "Este problema se resuelve con ...". Dado que hay límites para DFT que alguien debería mencionar
abra el camino el
3
¡DFT proporciona una aproximación muy útil, pero no 'resuelve' nada! No es exacto sin funciones exactas para el intercambio y la correlación, e incluso entonces no produce las funciones de onda sino la densidad de electrones.
Phil H
La QM de muchos cuerpos no se descompone como teoría, solo es NP difícil. DFT es una teoría con complejidad polinómica que resuelve con la misma precisión que con los principios básicos QM la estructura electrónica de todos los elementos químicos. Es por eso que ganó el Premio Nobel de química. Ha proporcionado excelentes resultados para sistemas grandes en comparación con los experimentos.
Artan
2
Está usted equivocado. DFT no resuelve "el problema" con la misma precisión. Se "resuelve" un caso particular (estado fundamental) al introducir funcionalidades de correlación de intercambio completamente desconocidas.
Misha