Preguntas etiquetadas con information-theory

Una rama de las matemáticas / estadísticas utilizada para determinar la capacidad de transporte de información de un canal, ya sea uno que se utiliza para la comunicación o uno que se define en sentido abstracto. La entropía es una de las medidas por las cuales los teóricos de la información pueden cuantificar la incertidumbre involucrada en la predicción de una variable aleatoria.

20
¿Cuáles son los valores correctos para precisión y recuperación en casos extremos?

La precisión se define como: p = true positives / (true positives + false positives) ¿Es cierto que, como true positivesy false positivesenfoque 0, la precisión se aproxima a 1? La misma pregunta para recordar: r = true positives / (true positives + false negatives) Actualmente estoy...

19
¿Qué es la entropía empírica?

En la definición de conjuntos típicos conjuntos (en "Elementos de la teoría de la información", cap. 7.6, p. 195), utilizamos como laentropía empíricade unasecuencianconp(xn)=∏ n i = 1 p(xi). Nunca me encontré con esta terminología antes. No se define explícitamente en ninguna parte según el...

18
¿Por qué la divergencia KL no es negativa?

¿Por qué la divergencia KL no es negativa? Desde la perspectiva de la teoría de la información, tengo una comprensión tan intuitiva: Digamos que hay dos conjuntos y que se componen del mismo conjunto de elementos etiquetados por . y son diferentes distribuciones de probabilidad sobre el conjunto...

15
¿Cómo interpretar la entropía diferencial?

Recientemente leí este artículo sobre la entropía de una distribución de probabilidad discreta. Describe una buena manera de pensar en la entropía como los bits de número esperados (al menos cuando se usa en su definición de entropía) necesarios para codificar un mensaje cuando su codificación es...

15
Definición y origen de "entropía cruzada"

Sin citar fuentes, Wikipedia define la entropía cruzada de distribuciones discretas y comoPAGPAGPQQQ H×( P; Q )= - ∑Xp ( x )Iniciar sesiónq( X ) .H×(PAG;Q)=-∑Xpag(X)Iniciar sesión⁡q(X).\begin{align} \mathrm{H}^{\times}(P; Q) &= -\sum_x p(x)\, \log q(x). \end{align} ¿Quién fue el primero en...

15
Cualitativamente, ¿qué es la entropía cruzada?

Esta pregunta da una definición cuantitativa de entropía cruzada, en términos de su fórmula. Estoy buscando una definición más teórica, wikipedia dice: En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número promedio de bits necesarios para...

15
Cálculo de AIC "a mano" en R

He intentado calcular el AIC de una regresión lineal en R pero sin usar la AICfunción, así: lm_mtcars <- lm(mpg ~ drat, mtcars) nrow(mtcars)*(log((sum(lm_mtcars$residuals^2)/nrow(mtcars))))+(length(lm_mtcars$coefficients)*2) [1] 97.98786 Sin embargo, AICle da un valor

15
¿Cuál es la intuición detrás de las muestras intercambiables bajo la hipótesis nula?

Las pruebas de permutación (también llamadas prueba de aleatorización, prueba de aleatorización o prueba exacta) son muy útiles y resultan útiles cuando t-testno se cumple el supuesto de distribución normal requerido por ejemplo y cuando se transforman los valores mediante la clasificación de...