¿Cuál es el papel del logaritmo en la entropía de Shannon?

72

La entropía de Shannon es el negativo de la suma de las probabilidades de cada resultado multiplicado por el logaritmo de probabilidades para cada resultado. ¿Para qué sirve el logaritmo en esta ecuación?

¡Una respuesta intuitiva o visual (a diferencia de una respuesta profundamente matemática) recibirá puntos extra!

Histelheim
fuente
11
Usted (u otros lectores) pueden disfrutar: A. Renyi (1961), Sobre medidas de entropía e información , Proc. del Cuarto Simposio de Berkeley sobre Estadística matemática y probabilidad , vol. 1, 547-561.
cardenal
Según su reacción , supongo que lo que quiere decir es por qué Shannon usó el logaritmo en su fórmula, ¿verdad?
Ooker
@Ooker: Esa es una forma de expresarlo. "¿Por qué" lo puso? "¿Qué" es su función o función "?" ¿Qué "logra?" ¿Cómo "es útil? Para mí, todos están en el mismo vecindario ..."
histelheim
Mira mi respuesta aquí: stats.stackexchange.com/questions/66186/…
kjetil b halvorsen
Véase mi respuesta, creo que el significado de un registro realmente sólo puede entenderse mediante el examen de las raíces de la entropía de Shannon en la mecánica estadística
Aksakal

Respuestas:

51

La entropía de Shannon es una cantidad que satisface un conjunto de relaciones.

En resumen, el logaritmo es hacer que crezca linealmente con el tamaño del sistema y "comportarse como información".

El primero significa que la entropía de lanzar una moneda n veces es n veces la entropía de lanzar una moneda:

i=12n12nlog(12n)=i=12n12nnlog(12)=n(i=1212log(12))=n.

O simplemente para ver cómo funciona cuando se lanzan dos monedas diferentes (tal vez injusto - con caras con probabilidad p1 y colas p2 para la primera moneda, y q1 y q2 para la segunda)

i=12j=12piqjlog(piqj)=i=12j=12piqj(log(pi)+log(qj))
=i=12j=12piqjlog(pi)i=12j=12piqjlog(qj)=i=12pilog(pi)j=12qjlog(qj)
por lo que las propiedades dellogaritmo(logaritmo del producto es la suma de logaritmos) son cruciales.

Pero también la entropía de Rényi tiene esta propiedad (es la entropía parametrizada por un número real α , que se convierte en entropía de Shannon para α1 ).

Sin embargo, aquí viene la segunda propiedad: la entropía de Shannon es especial, ya que está relacionada con la información. Para tener una sensación intuitiva, puede mirar

H=ipilog(1pi)
como el promedio delog(1/p).

Podemos llamar a la información de log(1/p) . ¿Por qué? Porque si todos los eventos ocurren con probabilidad p , significa que hay eventos 1/p . Para saber qué evento ha sucedido, necesitamos usar bits de log(1/p) (cada bit duplica la cantidad de eventos que podemos distinguir).

Puede sentirse ansioso "OK, si todos los eventos tienen la misma probabilidad, tiene sentido usar log(1/p) como una medida de información. Pero si no lo son, ¿por qué promediar información tiene sentido?" - Y es una preocupación natural.

Pero resulta que tiene sentido - fuente de Shannon teorema de codificación dice que una cadena con las letras uncorrelted con probabilidades {pi}i de longitud n no puede comprimirse (en promedio) a cadena binaria más corto que nH . Y de hecho, podemos utilizar la codificación de Huffman para comprimir la cadena y llegar muy cerca de nH .

Ver también:

Piotr Migdal
fuente
11
Esta respuesta tiene muchos detalles agradables, pero desde la perspectiva de un laico aún evita el problema: ¿cuál es el papel del logaritmo? ¿Por qué no podemos calcular la entropía sin el logaritmo?
histelheim
66
@histelheim ¿Qué quieres decir con "sin el logaritmo"? es solo uno. Si desea otra medida de diversidad sin registro , observe los índices de diversidad , por ejemplo, el denominado índice de Simpson inverso 1 / i p 2 i que indica el número efectivo de opciones (una probabilidad por encima del promedio), hay un índice de Gini-Simpson 1 : i p 2 iipilog 1/ipi2 1ipi2que siempre está entre 0 y uno. Y si no le interesan las propiedades sutiles relacionadas con la información de la entropía de Shannon, puede usar cualquiera de ellas (sin embargo, tienen diferentes probabilidades de bajo y alto).
Piotr Migdal
10
Me desconcierta su último comentario, Histelheim: ¿a qué podría referirse "entropía sin el logaritmo"? Eso sugiere que aún no ha articulado claramente su pregunta, porque parece que tiene en mente un concepto no declarado de "entropía". No nos haga adivinar: edite su pregunta para que sus lectores puedan proporcionar el tipo de respuestas que está buscando.
whuber
1
@ Piotr Migdal: escribe "el logaritmo es hacer que crezca linealmente con el tamaño del sistema y" comportarse como la información "". - Esto me parece crucial para comprender el papel del logaritmo, sin embargo, no tengo muy claro qué significa.
histelheim
1
@ Piotr Migdal: además, su explicación después de "Podemos llamar a la información de registro (1 / p). ¿Por qué?" Parece tener sentido para mi. Es que el logaritmo esencialmente nos mueve de un índice de diversidad a un índice de información, midiendo el número de bits que necesitamos para distinguir los eventos.
histelheim
25

Esto es lo mismo que las otras respuestas, pero creo que la mejor manera de explicarlo es ver lo que dice Shannon en su artículo original.

La medida logarítmica es más conveniente por varias razones:

  1. Es prácticamente más útil. Los parámetros de importancia de ingeniería, como el tiempo, el ancho de banda, el número de relés, etc., tienden a variar linealmente con el logaritmo del número de posibilidades. Por ejemplo, agregar un relé a un grupo duplica el número de estados posibles de los relés. Agrega 1 al logaritmo de base 2 de este número. Duplicar el tiempo ajusta al cuadrado el número de mensajes posibles, o duplica el logaritmo, etc.
  2. Está más cerca de nuestro sentimiento intuitivo en cuanto a la medida adecuada. Esto está estrechamente relacionado con (1) ya que intuitivamente mide entidades por comparación lineal con estándares comunes. Uno siente, por ejemplo, que dos tarjetas perforadas deben tener el doble de capacidad que una para almacenar información, y dos canales idénticos dos veces la capacidad de una para transmitir información.
  3. Es matemáticamente más adecuado. Muchas de las operaciones limitantes son simples en términos del logaritmo, pero requerirían una reformulación torpe en términos del número de posibilidades.

Fuente: Shannon, A Mathematical Theory of Communication (1948) [ pdf ].


ΩlogΩΩΩlogΩ

Flounderer
fuente
Esta respuesta parece ser la más enfocada pero informativa.
estrella brillante
1
No es por eso que el registro aparece en el cálculo de entropía. Es por eso que la información reportada se reporta como tal. Hay una cantidad alternativa: la "perplejidad" que informa la información sin el registro. En esta parte de su artículo, Shannon está argumentando a favor de bits / nats / hartleys, y en contra de la perplejidad.
Neil G
15

x1xNxO(log2N)xN=8x.

x1xNp(x)=1/N1xNx

h(x)=log21p(x)

x=4h(4)=3x4x=4

xxh(x)x

h(x)=1xNp(x)h(x)

h(x)H(X)H(X)

omidi
fuente
1
+ Esta es una de mis aplicaciones favoritas de la teoría de la información: el análisis de algoritmos. Si tiene puntos de decisión con> 2 resultados, como cuando indexa una matriz, ese es el principio detrás de la codificación hash y el tipo O (n).
Mike Dunlavey
Este argumento está bien para la entropía discreta, pero no se generaliza fácilmente a la entropía continua.
Neil G
12

Aquí hay una explicación extravagante. Se podría decir que 2 libros del mismo tamaño tienen el doble de información que 1 libro, ¿verdad? (Considerando que un libro es una cadena de bits). Bueno, si cierto resultado tiene probabilidad P, entonces se podría decir que su contenido de información es sobre el número de bits que necesita para escribir 1 / P. (por ejemplo, si P = 1/256, son 8 bits). La entropía es solo el promedio de la longitud de ese bit de información, sobre todos los resultados.

Mike Dunlavey
fuente
5

log(pi)log(pi)H(p1,,pN)

Shannon proporcionó una prueba matemática de este resultado que ha sido cuidadosamente seleccionada y ampliamente aceptada. El propósito y la importancia del logaritmo en la ecuación de entropía son, por lo tanto, independientes de los supuestos y la prueba.

Esto no lo hace fácil de entender, pero en última instancia es la razón por la que aparece el logaritmo.

He encontrado útiles las siguientes referencias además de las enumeradas en otros lugares:

  1. Teoría de la probabilidad: la lógica de la ciencia por ET Jaynes . Jaynes es uno de los pocos autores que obtiene muchos resultados desde cero; ver Capítulo 11.
  2. Teoría de la información, inferencia y algoritmos de aprendizaje por David MacKay. Contiene un análisis en profundidad del teorema de codificación de fuente de Shannon; ver Capítulo 4.
usuario119961
fuente
4

Resumen:

nn

Ejemplo:

661n=21

3.56/2=3

1

Hagámoslo:

  • 6>3.5
  • 6/2=35
  • 6/2/2=1.5=6

63ceil(log2(6))=ceil(2.58)=3

ceil

2.58

log2(...)nn2logn(...)

Simulación:

import random

total_questions = 0
TOTAL_ROUNDS = 10000

for i in range(0,TOTAL_ROUNDS):
    outcome = random.randrange(1,7)
    total_questions += 1
    if outcome > 3.5:
        total_questions += 1
        if outcome >= 5:
            total_questions += 1
            if outcome == 5:
                pass
            else:
                # must be 6! no need to ask
                pass
        else:
            # must be 4! no need to ask
            pass
    else:
        total_questions += 1
        if outcome >= 2:
            total_questions += 1
            if outcome == 2:
                pass
            else:
                # must be 3! no need to ask
                pass
        else:
            # must be 1! no need to ask
            pass


print 'total questions: ' + str(total_questions)
print 'average questions per outcome: ' + str(total_questions/float(TOTAL_ROUNDS))

Resultados:

total questions: 26634
average questions per outcome: 2.6634

2.6634log2(6)2.58

Que pasa Está casi cerca, pero no tan cerca como esperaba. ¿Es el PRNG de Python tratando de decir una broma lenta? ¿O se equivoca Shannon? ¿O es, Dios no lo quiera, mi comprensión es incorrecta? De cualquier manera AYUDA. SOS ya amigo.

cavernícola
fuente
2
65=7776log2(65)=1313/5=2.6190537492531492531/1905372.584962500722
@whuber, ¿no es esto lo que estoy haciendo en mi código? Lanzo 10000 dados y sumo el número total de preguntas que hago para todos los dados. Luego hago suma / 10000 obtengo 2.66.
hombre de las cavernas
1
¡No, no estás haciendo eso en tu código en absoluto! Necesitas hacer un conjunto de preguntas diseñadas para obtener simultáneamente el estado de todos los dados a la vez. Eso no es lo mismo que el número promedio de preguntas necesarias para encontrar el estado de un dado a la vez.
whuber
3

Ω={ω1,,ωn}p1,,pnH(p1,,pn)

  • H
  • Hnp1==pn=1n
  • H
    H(12,16,13)=H(12,12)+12H(13,23).

H

H(p1,,pn)=i=1npilogkpi
k>1k=2
Neil G
fuente
3

Esta pregunta se planteó hace dos años y ya ha habido muchas respuestas increíbles, pero me gustaría agregar la mía que me ayudó mucho.

La pregunta es

¿Para qué sirve el logaritmo en esta ecuación?

El logaritmo (generalmente basado en 2) se debe a la desigualdad de Kraft .

i=1m2li<=1

liLxP(x)

P(x)=2L(x)

L(x)=logP(x)P(x)L(x)

L(x)P(x)P(x)logP(x)

Una ilustración intuitiva y una respuesta visual (como lo requirió, pero más específicamente para la desigualdad de Kraft) se articula en este árbol de código de papel y la desigualdad de Kraft .

Lerner Zhang
fuente
1

Según su no aceptación de las respuestas ya existentes, creo que lo que está buscando es la razón por la cual Shannon usó el logaritmo en su fórmula en primer lugar. En otras palabras, la filosofía de la misma.

Descargo de responsabilidad : estoy en este campo durante una semana, viniendo aquí por tener la pregunta como tú . Si tiene más conocimiento sobre esto, hágamelo saber.

Tengo esta pregunta después de leer uno de los artículos más importantes de Ulanowicz, Incremento de la entropía: ¿muerte por calor o armonías perpetuas? . Este es el párrafo que explica por qué la fórmula tiene -log (p) en lugar de (1-p):

Antes de desempaquetar más la definición formal de entropía, uno estaría justificado al preguntar por qué no simplemente elegir (1 - p) en lugar de [–log (p)] como la medida más apropiada de inexistencia. La respuesta es que el producto resultante con p (es decir [p – p ^ 2]) es perfectamente simétrico alrededor del valor p = 0.5. Los cálculos de conformidad con dicha combinación simétrica serían capaces de describir solo un universo reversible. Boltzmann y Gibbs, sin embargo, buscaban cuantificar un universo irreversible. Al elegir la función logarítmica convexa univariada, Boltzmann impartió un sesgo al no ser sobre el ser. Uno nota, por ejemplo, que max [–xlog {x}] = {1 / e} ≈ 0.37, de modo que la medida de indeterminación se sesga hacia valores más bajos de pi.

Parece que Shannon eligió el logaritmo sin ninguna razón. Simplemente "olió" que debería usar el logaritmo. ¿Por qué Newton eligió la operación de multiplicación en su fórmula F = m * a?

Tenga en cuenta que en ese momento, no tenía idea sobre la entropía :

Mi mayor preocupación era cómo llamarlo. Pensé en llamarlo 'información', pero la palabra se usó demasiado, así que decidí llamarlo 'incertidumbre'. Cuando lo discutí con John von Neumann, tuvo una idea mejor. Von Neumann me dijo: 'Deberías llamarlo entropía, por dos razones. En primer lugar, su función de incertidumbre se ha utilizado en mecánica estadística con ese nombre, por lo que ya tiene un nombre. En segundo lugar, y más importante, nadie sabe qué es realmente la entropía, por lo que en un debate siempre tendrá la ventaja.

Entonces mi respuesta es: no hay razón para esto. Él eligió esto porque simplemente funcionó mágicamente.

Ooker
fuente
0

La entropía se define como el logaritmo de la media geométrica del coeficiente multinomial que expresa el número de estados en los que puede estar un sistema:

log(Nn1,,nk)N

Los logaritmos aparecen en la fórmula después de usar la aproximación de Stirling del factorial (vea esta explicación )

Atamiri
fuente
3
Creo que el OP sabe que el logaritmo es parte de la definición. Preguntan por qué está ahí?
whuber
0

El registro proviene de la derivación de una función H que satisface ciertos requisitos naturales. Ver pág. 3 seg. 2 de esta fuente:

http://www.lptl.jussieu.fr/user/lesne/MSCS-entropy.pdf

Dados los axiomas, si llevas a cabo la optimización, obtienes una función única (hasta constantes) con un registro en ella.

Todas las respuestas anteriores son correctas, excepto que interpretan el registro, pero no explican la fuente del mismo.

Swapnil Bhatia
fuente
0

Supongo que su pregunta es más sobre el "significado" de ese logaritmo y por qué cada componente contribuye al significado general de la fórmula, en lugar del mero formalismo que muestra la coherencia de la definición a ciertos requisitos.

p(x)log(p(x))

  • p(x)
  • log(p(x))

p(x)log(p(x))


De ahora en adelante, discutiré cómo la GENERALIDAD afecta la fórmula de entropía final.

log2(x)=number_of_bits_to_encode_the_messages

Ahora, siéntese, relájese y observe cuán bellamente funciona la Entropía de Shannon: se basa en la suposición (razonable) de que los mensajes que son más GENERALES son, en consecuencia, más FRECUENTES.

Por ejemplo, diré que está lloviendo si es una lluvia promedio, fuerte o muy fuerte. Por lo tanto, propuso codificar la GENERALIDAD de los mensajes en función de cuán FRECUENTES son ... y ahí está:

log2N=log21/N=log2P

Nx

La ecuación se puede interpretar como: los mensajes raros tendrán una codificación más larga porque son menos generales, por lo que necesitan más bits para codificarse y son menos informativos. Por lo tanto, tener mensajes más específicos y raros contribuirá más a la entropía que tener muchos mensajes generales y frecuentes.


p(x)log(p(x))

La mayor entropía es cuando tenemos un sistema con muchos mensajes raros y específicos. La entropía más baja con mensajes frecuentes y generales. En el medio, tenemos un espectro de sistemas equivalentes de entropía que pueden tener mensajes raros y generales o mensajes frecuentes pero específicos.

Gabrer
fuente
0

No creo que sea posible darle una respuesta universal "intuitiva". Le daré una respuesta intuitiva para algunas personas, como los físicos. El logaritmo está ahí para obtener la energía promedio del sistema. Aquí hay detalles.

Shannon usó una palabra " entropía " porque adaptó el concepto de la mecánica estadística . En mecánica estadística hay una distribución seminal que lleva el nombre de Boltzmann. Curiosamente, ¡es una distribución importante ahora en el aprendizaje automático!

P=eaEb
a,bEdVVdV=dpdxx,pa,bVPdV=1b corresponde a una temperatura del sistema.

lnPE

SVPlnPdV=<E>

η=iPilnPi
ePi

¿Es esto lo suficientemente intuitivo para ti? Es para mí, pero fui un físico teórico en vidas pasadas. Además, puede llegar a un nivel más profundo de intuición al vincular conceptos de termodinámica aún más antiguos, como la temperatura y los trabajos de Boltzmann y Clausius.

Aksakal
fuente