Preguntas etiquetadas con entropy

Una cantidad matemática diseñada para medir la cantidad de aleatoriedad de una variable aleatoria.

36
Aprendizaje automático: ¿Debo usar una entropía cruzada categórica o una pérdida de entropía cruzada binaria para las predicciones binarias?

En primer lugar, me di cuenta de que si necesito realizar predicciones binarias, tengo que crear al menos dos clases a través de una codificación en caliente. ¿Es esto correcto? Sin embargo, ¿es la entropía cruzada binaria solo para predicciones con una sola clase? Si tuviera que usar una pérdida...

32
¿Qué nos dice la entropía?

Estoy leyendo sobre entropía y me cuesta mucho conceptualizar lo que significa en el caso continuo. La página wiki dice lo siguiente: La distribución de probabilidad de los eventos, junto con la cantidad de información de cada evento, forma una variable aleatoria cuyo valor esperado es la...

21
Función de pérdida para autoencoders

Estoy experimentando un poco de autoencoders, y con tensorflow creé un modelo que intenta reconstruir el conjunto de datos MNIST. Mi red es muy simple: X, e1, e2, d1, Y, donde e1 y e2 son capas de codificación, d2 e Y son capas de decodificación (e Y es la salida reconstruida). X tiene 784...

21
Entropía de una imagen.

¿Cuál es la forma correcta más teórica de información / física para calcular la entropía de una imagen? En este momento no me importa la eficiencia computacional; teóricamente, quiero que sea lo más correcta posible. Comencemos con una imagen en escala de grises. Un enfoque intuitivo es considerar...

19
¿Qué es la entropía empírica?

En la definición de conjuntos típicos conjuntos (en "Elementos de la teoría de la información", cap. 7.6, p. 195), utilizamos como laentropía empíricade unasecuencianconp(xn)=∏ n i = 1 p(xi). Nunca me encontré con esta terminología antes. No se define explícitamente en ninguna parte según el...