No me siento cómodo con la información de Fisher, lo que mide y cómo es útil. Además, su relación con el enlace Cramer-Rao no es evidente para mí. ¿Alguien puede dar una explicación intuitiva de estos
La información de Fisher mide la curvatura del logaritmo de verosimilitud y se puede utilizar para evaluar la eficiencia de los estimadores.
No me siento cómodo con la información de Fisher, lo que mide y cómo es útil. Además, su relación con el enlace Cramer-Rao no es evidente para mí. ¿Alguien puede dar una explicación intuitiva de estos
Ok, esta es una pregunta bastante básica, pero estoy un poco confundido. En mi tesis escribo: Los errores estándar se pueden encontrar calculando el inverso de la raíz cuadrada de los elementos diagonales de la matriz (observada) de información de
Supongamos que tenemos una variable aleatoria . Si fuera el parámetro verdadero, la función de probabilidad debería maximizarse y la derivada igual a cero. Este es el principio básico detrás del estimador de máxima verosimilitud.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Según tengo entendido,...
¿Alguien puede probar la siguiente conexión entre la métrica de información de Fisher y la entropía relativa (o divergencia KL) de una manera puramente matemática rigurosa? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) )...
Dado el siguiente modelo jerárquico, y, μ ~ L un p l a c e ( 0 , c ) donde N ( ⋅ , ⋅ ) es una distribución normal. ¿Hay alguna manera de obtener una expresión exacta para la información de Fisher de la distribución marginal de X dada c . Es decir, cuál es la información de Fisher de: p ( x | c...
Deje . La matriz de información de Fisher se define como:θ ∈ Rnorteθ∈Rnorte\theta \in R^{n} yo( θ )i , j= - E[ ∂2Iniciar sesión( f( XEl | θ))∂θyo∂θj∣∣∣θ ]yo(θ)yo,j=-mi[∂2Iniciar sesión(F(XEl |θ))∂θyo∂θjEl |θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i}...
En el ajuste estándar de máxima verosimilitud (iid muestra Y1,…,YnY1,…,YnY_{1}, \ldots, Y_{n} de alguna distribución con densidad fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} )) y en el caso de un modelo correctamente especificado, la información de Fisher viene dada
Estoy volviendo a publicar una "respuesta" a una pregunta que hice hace unas dos semanas aquí: ¿Por qué es útil el Jeffreys anterior? Sin embargo, realmente era una pregunta (y tampoco tenía derecho a publicar comentarios en ese momento), así que espero que esté bien hacer esto: En el enlace...
Estoy tratando de demostrar que la matriz de información observada evaluada en el estimador de máxima verosimilitud débilmente consistente (MLE), es un estimador débilmente consistente de la matriz de información esperada. Este es un resultado ampliamente citado, pero nadie da una referencia o una...
Las pruebas de permutación (también llamadas prueba de aleatorización, prueba de aleatorización o prueba exacta) son muy útiles y resultan útiles cuando t-testno se cumple el supuesto de distribución normal requerido por ejemplo y cuando se transforman los valores mediante la clasificación de...
Diferentes libros de texto citan diferentes condiciones para la existencia de una matriz de información de Fisher. A continuación se enumeran varias de estas condiciones, cada una de las cuales aparece en algunas, pero no en todas, las definiciones de "matriz de información de Fisher". ¿Existe...
( Publiqué una pregunta similar en math.se. ) En geometría de la información, el determinante de la matriz de información de Fisher es una forma de volumen natural en una variedad estadística, por lo que tiene una buena interpretación geométrica. El hecho de que aparezca en la definición de...
Considere una variable aleatoria de Bernoulli con parámetro (probabilidad de éxito). La función de probabilidad y la información de Fisher (una matriz ) son:θ 1 × 1X∈{0,1}X∈{0,1}X\in\{0,1\}θθ\theta1×11×11 \times
De "En toda probabilidad: modelado estadístico e inferencia usando probabilidad" por Y. Pawitan, la probabilidad de una nueva parametrización se define como modo que si g es uno a uno, entonces L ^ * (\ psi) = L (g ^ {- 1} (\ psi)) (p. 45). Estoy tratando de mostrar el ejercicio 2.20 que...
Ejemplos: Tengo una oración en la descripción del trabajo: "Ingeniero senior de Java en el Reino Unido". Quiero usar un modelo de aprendizaje profundo para predecirlo en 2 categorías: English y IT jobs. Si uso el modelo de clasificación tradicional, solo puede predecir 1 etiqueta con...
Estoy tratando de entender la diferencia entre la Newton-Raphsontécnica y la Fisher scoringtécnica calculando la primera iteración para cada método para una Bernoullimuestra. (Sé que en este caso puedo calcular explícita e inmediatamenteπm l eπmetrolmi\pi_{mle} pero quiero hacerlo de forma...
Tengo problemas para encontrar un recurso en línea que derive la Matriz de información de Fisher esperada para la distribución t de Student univariada. ¿Alguien sabe de tal recurso? En ausencia de cualquier recurso existente que derive la matriz de información de Fisher esperada para la...