Estoy buscando un libro o un recurso en línea que explique diferentes tipos de entropía, como Sample Entropy y Shannon Entropy, y sus ventajas y desventajas. ¿Alguien me puede apuntar en la dirección correcta?
references
entropy
cristiano
fuente
fuente
Estas notas de clase sobre teoría de la información de O. Johnson contienen una buena introducción a los diferentes tipos de entropía.
fuente
Si está interesado en la estadística matemática sobre la entropía, puede consultar este libro
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
¡está disponible gratuitamente!
fuente
La entropía es solo una (como concepto): la cantidad de información necesaria para describir algún sistema; solo hay muchas generalizaciones. La entropía de muestra es solo un descriptor similar a la entropía utilizado en el análisis de la frecuencia cardíaca.
fuente
Jaynes muestra cómo derivar la entropía de Shannon de los principios básicos de su libro .
Una idea es que si aproximas por n n , la entropía es la reescritura de la siguiente cantidad 1n! nn
fuente
La teoría del juego, la máxima entropía, la mínima discrepancia y la sólida teoría de decisión bayesiana de Grünwald y Dawid discuten las generalizaciones de la noción tradicional de entropía. Dada una pérdida, su función de entropía asociada es el mapeo de una distribución a la pérdida esperada mínima alcanzable para esa distribución. La función de entropía habitual es la entropía generalizada asociada con la pérdida de registro. Otras opciones de pérdidas producen entropía diferente, como la entropía de Rényi.
fuente