¿Cómo demostrar que una estadística suficiente NO es lo suficientemente mínima?

8

El problema de mi tarea es dar un contraejemplo en el que una estadística determinada no sea, en general, lo suficientemente mínima. Independientemente de los detalles de encontrar un contraejemplo particular para esta estadística particular, esto me plantea la siguiente pregunta:

Pregunta: ¿Cómo se puede formular la condición de no ser una estadística mínima suficiente de una manera que sea posible demostrar que una estadística suficiente satisface la condición?

Trabajo hasta ahora: La definición de estadística mínima suficiente en mi libro de texto (Keener, Estadísticas teóricas: Temas para un curso básico ) es la siguiente:

  • Una estadística T es mínimo suficiente si T es suficiente y, por cada estadística suficiente T~ existe una función f tal que T=f(T~) ae P.

Tenga en cuenta que (ae P) significa que el conjunto donde falla la igualdad es un conjunto nulo para cada distribución de probabilidad P en el modelo estadístico P, PP.

Intentando negar esto, llego a:

  • Una estadística Tno es lo suficientemente mínimo si al menos uno de los siguientes se cumple:
    1. T No es suficiente.
    2. Existe al menos una estadística suficiente T~ para el que no hay funciónf tal que T=f(T~) ae P.

Entonces, si una estadística es suficiente, entonces parece que sería extremadamente difícil demostrar que no es lo suficientemente mínima, incluso si no es lo suficientemente mínima. (Porque uno tendría que mostrar 2. en lugar de 1., ya que 1. es falso, pero 2. sería muy difícil de mostrar porque, incluso si uno tiene una estadística de contraejemploT~en mente, uno todavía tiene que mostrar la inexistencia de cualquier función con esa propiedad. Y la no existencia es a menudo difícil de mostrar).

Mi libro de texto no ofrece condiciones equivalentes (es decir, necesarias y suficientes) para que una estadística sea una estadística mínima suficiente. Ni siquiera da ninguna condición alternativa necesaria para que una estadística sea estadística mínima suficiente (además de ser una estadística suficiente).

Por lo tanto, para mi problema de tarea, si no puedo demostrar que la estadística no es suficiente (porque lo es), ¿cómo podría demostrar que no es lo suficientemente mínima?

Chill2Macht
fuente
3
¿Ha considerado comenzar con una estadística mínima suficiente y luego ampliarla para incluir más componentes?
whuber
3
En matemáticas en general, a menudo se demuestra la inexistencia de algo al suponer que existe y usarlo para encontrar una contracción.
Kodiologist
2
Una estadística es una función vectorial de los datos. Tiene componentes. Por ejemplo, una estadística mínima suficiente para la familia normal de distribuciones es el vector doble que consiste en la media muestral y la varianza muestral. Junto a más componentes, por ejemplo, agregue la asimetría de la muestra y la curtosis, le brinda una estadística con cuatro componentes. Mi sugerencia simplemente decía lo obvio: esta nueva estadística obviamente es suficiente, porque sus dos primeros componentes ya son suficientes. ¿Pero es lo suficientemente mínimo ?
whuber
2
No veo cómo alguna de esas observaciones sobre biyecciones u homeomorfismos podría ser relevante. ¿Está utilizando alguna definición inusual de "estadística" o "suficiente"?
whuber
3
Parece que está utilizando algún tipo de definición no convencional de suficiencia. En mi ejemplo, todo lo que importa es que las nuevas estadísticas son estadísticas genuinas, funciones medibles de los datos. El mapa deR4 a R2(que recupera las dos estadísticas originales, la mínima suficiente) es medible (de hecho, diferenciable). Eso es todo lo que tienes que verificar.
whuber

Respuestas:

1

Como dijiste:

Si existe x1,x2X tal que f(x1)=f(x2) pero g(x1)g(x2), entonces g no se puede escribir en función de f, es decir, no existe ninguna función h con g=hf.

Entonces, por ejemplo, en el caso donde X1,....,Xnson variables aleatorias independientes de Bernoulli. Podemos probar que(x1,....,xn) no es mínimamente suficiente al demostrar que no es una función de xi. Esto es obvio, ya que la función debe mapearse1 a ambos (1,0,0...,0,0,0) y (0,0,0...,0,0,1).

Euclides
fuente
2

He estado pensando en este problema un poco más recientemente, y esto es lo que se me ocurrió.

Dejar Ωser un espacio de probabilidad, luego una variable aleatoria X es una función medible X:ΩX, dónde X es un espacio medibleX tiene un designado σ-álgebra, y X es medible con respecto a esto σ-álgebra y el σ-álgebra en Ω) La distribución deX es solo la medida de retroceso en Xes decir PX(A)=PΩ(X1(A)). Entonces una estadística deX es cualquier función medible * f:XY, dónde Y Es otro espacio arbitrario medible.

Dadas dos estadísticas f:XY, g:XZ, ¿qué significa para "g ser una función de f"?

Por lo que puedo decir, parece significar que existe una función ** medible h:YZ tal que g=hfes decir que gpuede ser factorizado a través def.

(En otras palabras, "g debe estar bien definido como una función en f(X)Y".)

Entonces, ¿cuándo es posible tal factorización? Pensemos en términos de relaciones de equivalencia. Específicamente, defina la relación de equivalenciaf en X por x1fx2f(x1)=f(x2), asimismo, defina la relación de equivalencia g en X por x1gx2g(x1)=g(x2).

Entonces para g ser factorizable por f, las relaciones de equivalencia f y g deben ser compatibles entre sí, en el sentido de que para cualquier x1,x2X, x1fx2x1gx2es decir g no puede tomar dos elementos que son equivalentes bajo f y asignarlos a valores que no son equivalentes bajo ges decir "g no puede deshacer la reducción de información realizada previamente por f".

En otras palabras, g tiene que estar bien definido como una función en X/ff(X), es decir, existe tiene que existir una función g~:X/fZ tal que g=g~πf, dónde πf es la proyección canónica XX/f. (Para aquellos que se sienten incómodos con la falta de sentido abstracta,πf Es esencial fy g~ Es esencial h. La formulación anterior solo aclara las analogías con otras situaciones).

En palabras más simples posibles, g se puede escribir en función de f si y solo si, para cualquier x1,x2X, f(x1)=f(x2)g(x1)=g(x2).

Por ejemplo, tome X=Y=Z=R y X una variable aleatoria arbitraria de valor real, entonces g:xx2 se puede escribir en función de f:xx, pero no al revés, porque x1=x2x12=x22, pero 12=(1)2 pero 11.

En particular, suponga que cada clase de equivalencia bajo f es un singleton (es decir fes inyectiva ). Entoncesg siempre se puede escribir en función de f, ya que X/fXes decir f(x1)=f(x2)x1=x2 significa que x1=x2f(x1)=f(x2) (en general, para no necesariamente inyectiva f, solo se mantiene una dirección), por lo que nuestra condición se convierte en x1=x2g(x1)=g(x2), que está trivialmente satisfecho por cualquier g:XZ. (Definirh, puede hacer lo que quiera en Yf(X) siempre que sea medible, y luego para cualquier yf(X), es decir, tal que y=f(x) para algunos xX, definir h ser - estar h:y=f(x)g(x). Esto está bien definido cuandofes inyectiva porque hay un único xX tal que f(x)=y. En términos más generales, esto solo se define cuando, independientemente de quéx elegimos en f1(y), g(x) sigue siendo el mismo valor, es decir f(x1)=f(x2) (=y)g(x1)=g(x2).)

Además, al observar el Teorema 3.11 en Keener, su declaración es un poco torpe, pero pensando en los términos anteriores, creo que puede reescribirse como:

Suponer Tes una estadística suficiente ****. Entonces una condición suficiente paraT ser lo suficientemente mínimo es que se puede escribir en función de la razón de probabilidad.

A partir de esto, queda claro de inmediato que la razón de probabilidad tiene que ser en sí misma mínima suficiente.

Esto también lleva a la conclusión de que:

Si existe x1,x2X tal que f(x1)=f(x2) pero g(x1)g(x2), entonces gpuede no ser escrito como una función def, es decir, no existe ninguna funciónh con g=hf.

Por lo tanto, la condición no es tan difícil de mostrar como había pensado.


* Keener no aborda la cuestión de si una estadística debe ser medible o simplemente una función arbitraria o no. Sin embargo, estoy bastante seguro de que una estadística tiene que ser una función medible, porque de lo contrario no podríamos definir una distribución por ella , es decir, una medida de retirada.

**Si h no eran medibles, tendríamos una contradicción porque ambos f y gson medibles y la composición de las funciones medibles es nuevamente medible. Por lo menos,h tiene que ser medible restringido a f(X)Y, aunque creo que esto significaría en la mayoría de los casos razonables que h tendría que estar de acuerdo f(X) con una función que se puede medir en todos Y (tomar h|f(X) en f(X) y por ejemplo z en Yf(X) si existe un punto medible zZ, tenga en cuenta que ambos f(X) y Yf(X) debe ser medible en Y) así que wlog h se puede suponer que se puede medir en todos Y.

*** Al menos esto es necesario y suficiente para la existencia de una función arbitraria que factoriza a través de g y más f, y creo que ** implica que si existe tal función arbitraria, esta función también debe ser medible, ya que ambas f y g son, es decir, realmente sería una estadística YZ.

**** La condición dada es equivalente a T siendo suficiente por el teorema de factorización, 3.6.

Chill2Macht
fuente
1
¿Cómo define la razón de probabilidad?
Xi'an
@ Xi'an Realmente no recuerdo todas las estupideces que escribí arriba, así que para ser honesto, no estoy seguro de a qué parte te refieres. Si está sugiriendo implícitamente que primero demuestro que el estadístico de razón de probabilidad es lo suficientemente mínimo, y luego reduzco cualquier otra prueba de suficiencia mínima a una "equivalencia de suficiencia" adecuada con el estadístico de razón de probabilidad, eso probablemente sea útil en la práctica, pero al menos teóricamente solo parece patear la lata en el camino (porque entonces, ¿cómo se entiende la prueba de suficiencia mínima de la estadística LR?)
Chill2Macht