En este artículo , la talentosa investigadora Cosma Shalizi argumenta que para aceptar completamente una visión bayesiana subjetiva, uno también debe aceptar un resultado no físico de que la flecha del tiempo (dada por el flujo de entropía) debería ir hacia atrás . Esto es principalmente un intento de argumentar en contra de la entropía máxima / visión bayesiana totalmente subjetiva presentada y popularizada por ET Jaynes .
En LessWrong , muchos contribuyentes están muy interesados en la teoría de la probabilidad bayesiana y también en el enfoque bayesiano subjetivo como base para las teorías de decisión formales y un trampolín hacia una IA fuerte. Eliezer Yudkowsky es un colaborador común allí y recientemente estuve leyendo esta publicación cuando encontré este comentario (varios otros buenos comentarios aparecen poco después en la página de la publicación original).
¿Alguien puede comentar sobre la validez de la refutación de Shalizi por parte de Yudkowsky? Brevemente, el argumento de Yudkowsky es que el mecanismo físico por el cual un agente de razonamiento actualiza sus creencias requiere trabajo y, por lo tanto, tiene un costo termodinámico que Shalizi está arrastrando bajo la alfombra. En otro comentario, Yudkowsky defiende esto, diciendo:
"Si toma la perspectiva de un observador perfecto lógicamente omnisciente fuera del sistema, la noción de" entropía "carece de sentido, al igual que la" probabilidad ": nunca tiene que usar termodinámica estadística para modelar nada, simplemente use la precisión determinista precisa ecuación de onda ".
¿Puede algún probabilista o mecánico estadístico comentar sobre esto? No me importan mucho los argumentos de la autoridad con respecto al estado de Shalizi o de Yudkowsky, pero realmente me gustaría ver un resumen de las formas en que los tres puntos de Yudkowsky ofrecen críticas al artículo de Shalizi.
Para cumplir con las pautas de preguntas frecuentes y hacer de esta una pregunta concretamente responsable tenga en cuenta que estoy pidiendo una respuesta específica y detallada que tome el argumento de tres pasos de Yudkowsky e indique en qué parte del artículo de Shalizi esos tres pasos refutan supuestos y / o derivaciones, o, por otro lado, indica en qué parte del trabajo de Shalizi se abordan los argumentos de Yudkowsky.
A menudo escuché el artículo de Shalizi promocionado como una prueba de hierro de que el bayesianismo subjetivo en toda regla no se puede defender ... pero después de leer el artículo de Shalizi varias veces, me parece un argumento de juguete que nunca podría aplicarse. a un observador que interactúa con lo que se observa (es decir, toda la física real). Pero Shalizi es un gran investigador, por lo que agradecería las segundas opiniones porque es muy probable que no entienda partes importantes de este debate.
Respuestas:
En resumen: 1: 0 para Yudkowsky.
Cosma Shalizi considera una distribución de probabilidad sujeta a algunas mediciones. Actualiza las probabilidades en consecuencia (aquí no es importante si es la inferencia bayensiana o cualquier otra cosa).
No es sorprendente en absoluto, la entropía de la distribución de probabilidad disminuye.
Sin embargo, llega a una conclusión errónea de que dice algo sobre la flecha del tiempo:
Como se señaló en los comentarios, lo que importa para la termodinámica es la entropía de un sistema cerrado . Es decir, según la segunda ley de la termodinámica , la entropía de un sistema cerrado no puede disminuir. No dice nada sobre la entropía de un subsistema (o un sistema abierto); de lo contrario no podrías usar tu refrigerador.
Y una vez que medimos algo (es decir, interactuar y recopilar información) ya no es un sistema cerrado. O no podemos usar la segunda ley, o - necesitamos considerar un sistema cerrado hecho del sistema medido y del observador (es decir, nosotros mismos).
En particular, cuando medimos el estado exacto de una partícula (antes de saber su distribución), de hecho, reducimos su entropía. Sin embargo, para almacenar la información necesitamos aumentar nuestra entropía al menos en la misma cantidad (por lo general, hay una gran sobrecarga).
Entonces Eliezer Yudkowsky hace un buen punto:
En realidad, la observación sobre el trabajo no es lo más importante aquí. Si bien la termodinámica se trata de relacionar (o intercambiar) la entropía con la energía, puede moverse (es decir, no necesitamos recurrir al principio de Landauer , del cual Shalizi es escéptico ). Para recopilar información nueva, debe borrar la información anterior.
Para ser coherente con la mecánica clásica (y cuántica también), no puede hacer que una función asigne arbitrariamente nada a todos los ceros (sin efectos secundarios). Puede hacer que una función asigne su memoria a cero , pero al mismo tiempo descargue la información en algún lugar, lo que aumenta efectivamente la entropía del entorno.
(Lo anterior se origina en la dinámica hamiltoniana, es decir, la preservación del espacio de fases en el caso clásico y la unitaridad de la evolución en el caso cuántico).
PD: Un truco para hoy: "reducir la entropía":
fuente
La falla de Shalizi es muy básica y se deriva de la suposición I, de que la evolución temporal es invertible (reversible).
La evolución temporal de los estados INDIVIDUALES es reversible. La evolución temporal de una distribución en TODO EL ESPACIO DE FASES ciertamente no es reversible, a menos que el sistema esté en equilibrio. El documento trata la evolución temporal de las distribuciones en todo el espacio de fases, no la de los estados individuales, por lo que la suposición de invertibilidad es totalmente no física. En el caso de equilibrio, los resultados son triviales.
La flecha del tiempo proviene de este hecho, en realidad, que la evolución del tiempo de las distribuciones no es reversible (la razón por la cual los gradientes disminuyen y los gases se dispersan). Se sabe que la irreversibilidad surge de los 'términos de colisión'
Si toma esto en cuenta, su argumento se desmorona. Entropía de información = entropía termodinámica, aún, por ahora. :RE
fuente
El documento vinculado asume explícitamente que
Pero si usa QM de la manera convencional, esta suposición no se cumple. Suponga que tiene un estado X1 que puede evolucionar a X2 o X3 con la misma probabilidad. Diría que el estado X1 evoluciona hacia el conjunto ponderado [1/2 X2 + 1/2 X3]. Shalizi demuestra que este conjunto no tiene más entropía que X1.
Pero nosotros, como observadores o como parte de ese sistema, solo vemos una de las ramas, ya sea X2 o X3. Elegir cuál de esas dos ramas podemos observar agrega un poco de nueva entropía, y esta selección no es invertible. De aquí proviene el aumento de la entropía con el tiempo. Lo que Shalizi ha hecho es utilizar las matemáticas en las que toda la entropía se origina en la ramificación cuántica, luego olvida que ocurre la ramificación cuántica.
fuente