He utilizado el principio de máxima entropía para justificar el uso de varias distribuciones en diversos entornos; sin embargo, todavía tengo que poder formular una interpretación estadística, en oposición a la teoría de la información, de la entropía máxima. En otras palabras, ¿qué implica maximizar la entropía acerca de las propiedades estadísticas de la distribución?
¿Alguien ha encontrado o tal vez descubrió usted mismo una interpretación estadística de max. distribuciones de entropía que no atraen a la información, sino solo a conceptos probabilísticos?
Como un ejemplo de tal interpretación (no necesariamente cierto): "Para un intervalo de longitud arbitraria L en el dominio de la RV (suponiendo que su 1-d sea continuo por simplicidad), se minimiza la probabilidad máxima que puede contener este intervalo. por la distribución máxima de entropía ".
Entonces, usted ve que no se habla de "informatividad" u otras ideas más filosóficas, solo implicaciones probabilísticas.
Respuestas:
Este no es realmente mi campo, así que algunas reflexiones:
Comenzaré con el concepto de sorpresa . ¿Qué significa sorprenderse? Por lo general, significa que sucedió algo que no se esperaba que sucediera. Entonces, sorprende que sea un concepto probabilístico y puede explicarse como tal (IJ Good ha escrito sobre eso). Ver también Wikipedia y Bayesian Surprise .
Tomemos el caso particular de una situación de sí / no, algo puede suceder o no. Sucede con probabilidadp . Digamos, si p = 0.9 y sucede, no estás realmente sorprendido. Si p=0.05 y sucede, estás algo sorprendido. Y si p=0.0000001 y sucede, estás realmente sorprendido. Entonces, una medida natural del "valor sorpresa en el resultado observado" es alguna función (anti) monótona de la probabilidad de lo que sucedió. Parece natural (y funciona bien ...) tomar el logaritmo de probabilidad de lo que sucedió, y luego colocamos un signo menos para obtener un número positivo. Además, al tomar el logaritmo nos concentramos en el orden de la sorpresa y, en la práctica, las probabilidades a menudo solo se conocen por orden, más o menos .
Entonces, definimosSurprise(A)=−logp(A)
donde A es el resultado observado, y p(A) es su probabilidad.
Ahora podemos preguntar cuál es la sorpresa esperada . SeaX una variable aleatoria de Bernoulli con probabilidad p . Tiene dos posibles resultados, 0 y 1. Los valores de sorpresa respectivos son
Surprise(0)Surprise(1)=−log(1−p)=−logp
entonces la sorpresa al observarX es en sí misma una variable aleatoria con expectativa
p⋅−logp+(1−p)⋅−log(1−p)
y eso es --- ¡sorpresa! --- la entropía deX ! ¡Así que seesperaentropíasorpresa!
Ahora, esta pregunta es sobre la entropía máxima . ¿Por qué alguien querría usar una distribución de entropía máxima? ¡Bueno, debe ser porque quieren sorprenderse al máximo! ¿Por qué alguien querría eso?
Una forma de verlo es la siguiente: desea aprender sobre algo, y para ese objetivo establece algunas experiencias de aprendizaje (o experimentos ...). Si ya sabía todo sobre este tema, siempre puede predecir perfectamente, por lo que nunca se sorprenderá. Entonces nunca obtienes una nueva experiencia, así que no aprendas nada nuevo (pero ya sabes todo --- no hay nada que aprender, así que está bien). En la situación más típica en la que está confundido, no puede predecir perfectamente, ¡hay una oportunidad de aprendizaje! Esto lleva a la idea de que podemos medir la "cantidad de aprendizaje posible" por la sorpresa esperada , es decir, la entropía. Entonces, maximizar la entropía no es más que maximizar las oportunidades de aprendizaje. Eso suena como un concepto útil, que podría ser útil en el diseño de experimentos y esas cosas.
Un ejemplo poético es el bien conocido
Un ejemplo práctico: desea diseñar un sistema para pruebas en línea (en línea, lo que significa que no todos reciben las mismas preguntas, las preguntas se eligen dinámicamente según las respuestas anteriores, optimizadas, de alguna manera, para cada persona).
fuente
Si bien no soy un experto en teoría de la información y máxima entropía, me ha interesado por un tiempo.
La entropía es una medida de la incertidumbre de una distribución de probabilidad que se derivó de acuerdo con un conjunto de criterios. Este y las medidas relacionadas caracterizan las distribuciones de probabilidad. Y, es la medida única que satisface esos criterios. Esto es similar al caso de la probabilidad en sí misma, que como se explica maravillosamente en Jaynes (2003), es la medida única que satisface algunos criterios muy deseables para cualquier medida de incertidumbre de las declaraciones lógicas.
Cualquier otra medida de la incertidumbre de una distribución de probabilidad que fuera diferente de la entropía tendría que violar uno o más de los criterios utilizados para definir la entropía (de lo contrario, sería necesariamente entropía). Por lo tanto, si tuviera alguna declaración general en cuanto a la probabilidad de que de alguna manera dio los mismos resultados que la entropía máxima ... entonces sería ser máxima entropía!
Lo más cercano que puedo encontrar a una declaración de probabilidad sobre las distribuciones máximas de entropía hasta ahora es el teorema de concentración de Jaynes . Puede encontrarlo claramente explicado en Kapur y Kesavan (1992). Aquí hay una nueva declaración:
DejarS ser la entropía de alguna distribución que satisfaga la m + 1 restricciones y dejar Smax ser la entropía de la distribución máxima de entropía.
Como el tamaño del conjunto de observacionesnorte crece, tenemos
Con esto, un intervalo de entropía del 95% se define como
E.T. Jaynes (2003) Probability Theory: The Logic of Science. Cambridge University Press.
J.N. Kapur and .K. Kesavan (1992) Entropy Optimization Principles with Applications. Academic Press, Inc.
fuente
Perhaps not exactly what you are after, but in Rissanen, J. Stochastic Complexity in Statistical Inquiry, World Scientific, 1989, p. 41 there is an interesting connection of maximum entropy, the normal distribution and the central limit theorem. Among all densities with mean zero and standard deviationσ , the normal density has maximum entropy.
Todavía no he explorado las implicaciones de esto, ni estoy seguro de entenderlas completamente.
[editar: error tipográfico fijo]
fuente