Acabo de comenzar a estudiar estadísticas y no puedo obtener una comprensión intuitiva de la suficiencia. Para ser más precisos, no puedo entender cómo mostrar que los dos párrafos siguientes son equivalentes:
Aproximadamente, dado un conjunto X de datos independientes distribuidos idénticamente condicionados en un parámetro desconocido θ, una estadística suficiente es una función T (X) cuyo valor contiene toda la información necesaria para calcular cualquier estimación del parámetro.
Una estadística T (X) es suficiente para el parámetro subyacente θ precisamente si la distribución de probabilidad condicional de los datos X, dada la estadística T (X), no depende del parámetro θ.
(He tomado las citas de estadística suficiente )
Aunque entiendo la segunda declaración, y puedo usar el teorema de factorización para mostrar si una estadística dada es suficiente, no puedo entender por qué una estadística con dicha propiedad también tiene la propiedad de que "contiene toda la información necesaria para calcular cualquier estimación del parámetro ". No estoy buscando una prueba formal, que de todos modos ayudaría a refinar mi comprensión, me gustaría obtener una explicación intuitiva de por qué las dos declaraciones son equivalentes.
En resumen, mis preguntas son: ¿por qué las dos declaraciones son equivalentes? ¿Podría alguien proporcionar una explicación intuitiva para su equivalencia?
fuente
Respuestas:
Siguiendo los comentarios de @whuber y @Kamster, probablemente entendí mejor. Cuando decimos que una estadística suficiente contiene toda la información necesaria para calcular cualquier estimación del parámetro, lo que realmente queremos decir es que es suficiente para calcular el estimador de máxima verosimilitud (que es una función de todas las estadísticas suficientes).
Dado que estoy respondiendo mi propia pregunta y, por lo tanto, no estoy 100% seguro de la respuesta, no la marcaré como correcta hasta que reciba algún comentario. Por favor agregue cualquier comentario y voto negativo si cree que estoy equivocado / impreciso / etc.
(Avíseme si esto no es compatible con la etiqueta SE, siendo esta mi primera pregunta le ruego me disculpe si estoy violando alguna regla)
fuente
Mientras estudiaba sobre la suficiencia, me encontré con su pregunta porque también quería entender la intuición acerca de lo que deduje de esto es lo que se me ocurrió (hágame saber lo que piensa, si cometí algún error, etc.).
Sea una muestra aleatoria de una distribución de Poisson con media θX1,…,Xn θ>0 .
Sabemos que es una estadística suficiente para θ , ya que la distribución condicional de X 1 , ... , X n dado T ( X ) está libre de θT(X)=∑ni=1Xi θ X1,…,Xn T(X) θ , en otras palabras, no depende de .θ
Ahora, el estadístico sabe que X 1 , ... , X n i . yo . d ∼ P o i s s o n ( 4 ) y crea n = 400 valores aleatorios a partir de esta distribución:A X1,…,Xn∼i.i.dPoisson(4) n=400
Para los valores que ha creado el estadístico , toma la suma y le pregunta al estadístico B lo siguiente:A B
"Tengo estos valores de muestra tomados de una distribución de Poisson. Sabiendo que ∑ n i = 1 x i = yx1,…,xn ∑ni=1xi=y=4068 , ¿qué me puede decir acerca de esta distribución?"
Para tener alguna idea sobre el significado de esto, hagamos lo siguiente (tomado de "Introducción a las estadísticas matemáticas" de Hogg & Mckean & Craig, 7ª edición, ejercicio 7.1.9):
Esto es lo que dice el ejercicio. Entonces, hagamos exactamente eso:
Vemos que también son bastante similares (como se esperaba)
fuente
Déjame darte otra perspectiva que pueda ayudar. Esto también es cualitativo, pero hay una versión rigurosa de eso particularmente importante en la teoría de la información, conocida como propiedad de Markov.
Al principio, tenemos dos objetos, datos (provenientes de una variable aleatoria, llámelo X) y parámetro,θ (otro rv, implícitamente asumido ya que estamos hablando de su estimador). Se supone que estos dos son dependientes (de lo contrario, no tiene sentido tratar de estimar uno del otro). Ahora, el tercer objeto ingresa al juego, Suficiente Estadística, T. La idea intuitiva cuando decimos T es suficiente para estimarθ realmente significa que si conocemos T (es decir, condicionado por T), X no proporciona información adicional, es decir, X y θ son independientes En otras palabras, el conocimiento de X es equivalente al conocimiento de T en cuanto a la estimación deθ está preocupado Tenga en cuenta que en las probabilidades es donde se capturan todas las incertidumbres, y por lo tanto "cualquier estimación" cuando las probabilidades (condicionales) son independientes (por ejemplo, las densidades condicionales se factorizan).
fuente