Preguntas etiquetadas con information-theory

13
Entropía diferencial

La entropía diferencial de la RV gaussiana es . Esto depende de , que es la desviación estándar.σIniciar sesión2( σ2 πmi---√)log2⁡(σ2πe)\log_2(\sigma \sqrt{2\pi e})σσ\sigma Si normalizamos la variable aleatoria para que tenga una varianza unitaria, su entropía diferencial cae. Para mí, esto es...

12
Diferencias entre PROC Mixed y lme / lmer en R - grados de libertad

Nota: esta pregunta es una nueva publicación, ya que mi pregunta anterior tuvo que ser eliminada por razones legales. Al comparar PROC MIXED de SAS con la función lmedel nlmepaquete en R, me topé con algunas diferencias bastante confusas. Más específicamente, los grados de libertad en las...

12
Diferentes definiciones de AIC

De Wikipedia hay una definición del Criterio de información de Akaike (AIC) como , donde k es el número de parámetros y log L es la probabilidad de registro del modelo.Un yoC= 2 k - 2 logLAIC=2k−2log⁡L AIC = 2k -2 \log L kkkIniciar sesiónLlog⁡L\log L Sin embargo, nuestros notas Econometría en un...

11
Información mutua como probabilidad

¿Podría la información mutua sobre la entropía conjunta: 0 ≤ I( X, Y)H( X, Y)≤ 10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 se define como: "¿La probabilidad de transmitir una información de X a Y"? Lamento ser tan ingenuo, pero nunca he estudiado teoría de la información, y estoy...

11
Correlación entre dos mazos de cartas?

He escrito un programa para simular un volado de reproducción aleatoria tarjeta. Cada carta está numerada, con el palo que va CLUBS, DIAMONDS, HEARTS, SPADESy el rango de Dos a Diez y luego Jack, Reina, Rey y As. Por lo tanto, el Two of Clubs tiene un Número de 1, el Three of Clubs un 2 ... As of...