Contraejemplo para la condición suficiente requerida para la consistencia

8

Sabemos que si un estimador es un estimador imparcial de theta y si su varianza tiende a 0 cuando n tiende al infinito, entonces es un estimador consistente para theta. Pero esta es una condición suficiente y no necesaria. Estoy buscando un ejemplo de un estimador que sea consistente pero cuya varianza no tienda a 0 ya que n tiende al infinito. ¿Alguna sugerencia?

usuario22546
fuente
3
Ver, por ejemplo, este comentario y la discusión relacionada.
cardenal

Respuestas:

6

Me alegra ver que mi respuesta (incorrecta) generó dos más, y convirtió una pregunta muerta en un animado hilo de preguntas y respuestas. Entonces es hora de intentar ofrecer algo que valga la pena, supongo) .

Considere un proceso estocástico estacionario de covarianza, correlacionado en serie , con media y autocovarianzas . Suponga que (esto limita la "fuerza" de la autocorrelación ya que dos realizaciones del proceso están cada vez más lejos en el tiempo). Entonces tenemos eso{yt},t=1,...,nμ{γj},γjCov(yt,ytj)limjγj=0

y¯n=1nt=1nytm.sμ,asn

es decir, la media de la muestra converge en la media cuadrática a la media real del proceso y, por lo tanto, también converge en la probabilidad: por lo tanto, es un estimador consistente de .μ

Se puede encontrar que la varianza de esy¯n

Var(y¯n)=1nγ0+2nj=1n1(1jn)γj

que se muestra fácilmente para ir a cero cuando va al infinito.n

Ahora, haciendo uso del comentario de Cardinal, aleatoricemos aún más nuestro estimador de la media, al considerar el estimador

μ~n=y¯n+zn

donde es un proceso estocástico de variables aleatorias independientes que también son independientes de las 's, tomando el valor (parámetro a ser especificado por nosotros) con probabilidad , el valor con una probabilidad de , y cero en caso contrario. Entonces tiene el valor esperado y la varianza{zt}yiata>01/t2at1/t2{zt}

E(zt)=at1t2at1t2+0(12t2)=0,Var(zt)=2a2

El valor esperado y la varianza del estimador es por lo tanto

E(μ~)=μ,Var(μ~)=Var(y¯n)+2a2

Considere la distribución de probabilidad de, :toma el valor con probabilidad y el valor con probabilidad . Entonces|zn|P(|zn|ϵ),ϵ>0|zn|0(12/n2)an2/n2

P(|zn|<ϵ)12/n2=limnP(|zn|<ϵ)1=1

lo que significa que converge en probabilidad a (mientras su varianza sigue siendo finita). Por lo tantozn0

plimμ~n=plimy¯n+plimzn=μ

entonces este estimador aleatorio del valor medio del proceso estocástico permanece consistente. Pero su varianza no va a cero cuando va al infinito, ni va al infinito. yn

Cierre, ¿por qué toda la elaboración aparentemente inútil con un proceso estocástico autocorrelacionado? Debido a que Cardinal calificó su ejemplo llamándolo "absurdo", como "solo para mostrar eso matemáticamente, podemos tener un estimador consistente con varianza finita y no nula".
Quería dar una pista de que no es necesariamente una curiosidad, al menos en espíritu: hay momentos en la vida real que comienzan nuevos procesos, procesos creados por el hombre, que tienen que ver con cómo organizamos nuestras vidas y actividades. Si bien generalmente los hemos diseñado y podemos decir mucho sobre ellos, aún así, pueden ser tan complejos que razonablemente se los trata como estocásticos (la ilusión de un control completo sobre tales procesos, o de un conocimiento a priori completo sobre su evolución, procesos) eso puede representar nuevas formas de comerciar o producir, u organizar la estructura de derechos y obligaciones entre humanos, es solo eso, una ilusión). Siendo también nuevo, no tenemos suficientes realizaciones acumuladas de ellos para hacer una inferencia estadística confiable sobre cómo evolucionarán. Entonces, las correcciones ad hoc y quizás "subóptimas" son, sin embargo, un fenómeno real, cuando, por ejemplo, tenemos un proceso en el que creemos firmemente que su presente depende del pasado (de ahí el proceso estocástico auto-correlacionado), pero realmente no lo hacemos. saber cómo todavía (de ahí la aleatorización ad hoc, mientras esperamos que se acumulen los datos para estimar las covarianzas). Y tal vez un estadístico encuentre una mejor manera de lidiar con este tipo de incertidumbre severa, pero muchas entidades tienen que funcionar en un entorno incierto sin el beneficio de tales servicios científicos.

Lo que sigue es la respuesta inicial (incorrecta) (ver especialmente el comentario de Cardinal)

Existen estimadores que convergen en probabilidad a una variable aleatoria: viene a la mente el caso de "regresión espuria", donde si intentamos hacer retroceder dos caminatas aleatorias independientes (es decir, procesos estocásticos no estacionarios) entre sí mediante la estimación de mínimos cuadrados ordinarios , el estimador OLS convergerá a una variable aleatoria.

Pero no existe un estimador consistente con varianza diferente de cero, porque la consistencia se define como la convergencia en la probabilidad de un estimador a una constante , que, por concepción, tiene varianza cero.

Alecos Papadopoulos
fuente
1
@cardinal Gracias por la intervención, y estaré encantado de corregirlo. ¿Puedo dar una pista sobre cómo podría comenzar a buscar un estimador consistente cuya varianza converja a un número finito? (El caso de varianza infinito / indefinido es un caso conocido y debería haber sido mencionado, pero el caso finito distinto de cero es realmente interesante). ¿O describí la propiedad de consistencia incorrectamente?
Alecos Papadopoulos
1
El ejemplo que di en el comentario vinculado en mi nota al OP tiene una variación limitante finita. La consistencia trata con la convergencia en la probabilidad, que has notado correctamente. Pero para que la varianza llegue a cero, tenemos que controlar las colas (también). Esto está relacionado con la relación entre la convergencia y la convergencia en la probabilidad. Lp
cardenal
Aquí también pongo un ejemplo de convergencia en la probabilidad con una varianza finita y siempre positiva.
ekvall
@cardinal Si ya no cree que la respuesta actual es incorrecta, ¿tal vez podría eliminar su comentario o publicar un comentario nuevo para confirmar que la respuesta actual ya no es incorrecta? Desde el punto de vista del lector, tener una respuesta votada que dice que una respuesta es incorrecta es confuso (y obliga a uno a comenzar a verificar las cronologías de edición).
Silverfish
El comentario de @Silverfish Cardinal de hecho se refiere a mi respuesta inicial (la parte debajo de la barra gris cerca del final de la publicación). Exactamente porque esta respuesta inicial generó comentarios que todavía están presentes, la he dejado sin eliminar, debajo de la nueva respuesta. Agregué algo en la barra gris para ayudar un poco con la confusión.
Alecos Papadopoulos
2

Tome cualquier muestra de la distribución con expectativa finita y varianza infinita ( Pareto con por ejemplo). Entonces la media de la muestra convergerá a la expectativa debido a la ley o números grandes (lo cual requiere solo la existencia de media) y la varianza será infinita.α(1,2]

mpiktas
fuente
¿La varianza es infinita cuando, por ejemplo, ? ¿O es indefinido en tal caso? α=1.5
Alecos Papadopoulos
Bueno, es infinito, si miramos el área debajo de la curva para la interpretación de la integral.
mpiktas
1

Permítanme dar un ejemplo de una secuencia de variable aleatoria que converge a cero en probabilidad pero con varianza infinita. En esencia, un estimador es solo una variable aleatoria, por lo que con un poco de abstracción, puede ver que la convergencia de la probabilidad a una constante no implica una varianza cercana a cero.

Considere la variable aleatoria en donde la medida de probabilidad considerada es la medida de Lebesgue. Claramente, pero para todo entonces su varianza no llega a cero.ξn(x):=χ[0,1/n](x)x1/2[0,1]P(ξn(x)>0)=1/n0

ξn2dP=01/nx1dx=log(x)01/n=,
n

Ahora, solo invente un estimador donde a medida que su muestra crezca, calcule el valor verdadero mediante un sorteo de . Tenga en cuenta que este estimador no es imparcial para 0, pero para hacerlo imparcial puede configurar con igual probabilidad 1/2 y usarlo como su estimador. El mismo argumento para la convergencia y la varianza se mantiene claramente.μ=0ξnηn:=±ξn

Editar: si desea un ejemplo en el que la varianza sea finita, tome y nuevamente considere wp 1/2.

ξn(x):=χ[0,1/n](x)n,
ηn:=±ξn
ekvall
fuente