Utilidad práctica de convergencia puntual sin convergencia uniforme

8

Motivación

En el contexto de la inferencia posterior a la selección del modelo, Leeb y Pötscher (2005) escriben:

Aunque desde hace tiempo se sabe que la uniformidad (al menos localmente) de los parámetros es un tema importante en el análisis asintótico, esta lección a menudo se ha olvidado en la práctica diaria de la teoría econométrica y estadística, donde a menudo nos contentamos con probar resultados asintóticos puntuales ( es decir, resultados que se mantienen para cada valor de parámetro verdadero fijo). Afortunadamente, esta amnesia, y la práctica resultante, no tiene consecuencias dramáticas siempre que se consideren estimadores suficientemente "regulares" en modelos suficientemente "regulares". Sin embargo, debido a que los estimadores posteriores a la selección del modelo son bastante "irregulares", los problemas de uniformidad surgen aquí con una venganza.

Antecedentes

Convergencia uniforme

Supongamos un estimador θ^n(α)convergencias uniformemente (wrtα) en distribución a alguna variable aleatoria Z. Entonces para una precisión dadaε>0 siempre podemos encontrar un tamaño de muestra Nε tal que por cada α la distancia de la distribución de θ^n(α) y la distribución de Z (es decir, la distribución limitante) será como máximo ε para cada n>N.

Esto puede ser útil en la práctica:

  1. Al diseñar un experimento, podemos limitar la imprecisión en un nivel deseado, arbitrariamente pequeño ε encontrando el correspondiente Nε.
  2. Para una muestra dada de tamaño N, podemos encontrar εN para unir la imprecisión.

Convergencia puntual (pero no uniforme)

Por otro lado, suponga un estimador ψ^n(α)converge de manera puntual (wrtα) - pero no uniformemente - en distribución a alguna variable aleatoriaZ. Debido a la no uniformidad, existe una precisiónεnorte>0 0 tal que para cualquier tamaño de muestra norte siempre podemos encontrar un valor αnorte tal que la distancia de la distribución de ψ^norte(αnorte) y la distribución de Z (es decir, la distribución limitante) será al menos ε para algunos norte>norte.

Algunos pensamientos:

  1. Esto no nos dice qué tan grande es la εnorte estarán.
  2. Al diseñar un experimento, ya no podemos limitar nuestra imprecisión a un arbitrario ε encontrando un adecuado norteε. Pero tal vez podríamos atarεnortea un nivel bajo, entonces no deberíamos preocuparnos por eso. Pero es posible que no siempre podamos vincularlo donde queremos.
  3. Podemos o no encontrar εnorte para unir la imprecisión para una muestra dada de tamaño norte.

Preguntas

  1. ¿La falta de convergencia uniforme hace que el estimador sea en gran medida inútil?
    (Supongo que la respuesta es "no" ya que muchos artículos se centran en la convergencia puntual ...)
  2. Si no, ¿cuáles son algunos ejemplos básicos en los que es útil el estimador convergente no uniforme?

Referencias

Richard Hardy
fuente
Con respecto a 1: este es el punto de Leeb y Pötscher (y también el de Hajek). En algunos casos es casi inútil, porque la variación (en N) es muy grande. Creo que el estimador de Hodges es un gran ejemplo aquí también, que ilustra cómo la falta de uniformidad puntual puede ser engañosa.
hejseb
@hejseb, gracias. Leeb y Pötscher se refieren al estimador de Hodges. Recientemente descubrí algunos trabajos iniciales con promesas optimistas de Holcblat & Gronneberg "¿Por qué ha sido posible la inferencia econométrica?" . No estoy seguro de cuán relevante es aquí, pero pensé que es un enfoque interesante. Está más relacionado con mi otra pregunta , creo.
Richard Hardy

Respuestas:

3

Es difícil dar una respuesta definitiva, porque "útil" e "inútil" no son matemáticos y en muchas situaciones subjetivas (en algunas otras se podría tratar de formalizar la utilidad, pero esas formalizaciones están nuevamente abiertas a discusión).

Aquí hay algunos pensamientos.

(a) La convergencia uniforme es claramente mucho más fuerte que la convergencia puntual; con la convergencia puntual no hay garantía, si no conoce el verdadero valor del parámetro, que para cualquiernorte estás cerca de donde quieres estar.

(b) La convergencia puntual es aún más fuerte que no tener ninguna convergencia.

(c) Si tienes un norte eso no es una convergencia enorme y uniforme, el límite uniforme que realmente puedes mostrar con el nortepuede que no sea bueno. Esto no significa que su estimador sea malo, sino que significa que el límite de convergencia uniforme no garantiza que esté lo suficientemente cerca del valor real. Puede que aún lo estés.

(d) En caso de que no tengamos un resultado de convergencia uniforme, hay varias posibilidades:

i) La convergencia uniforme puede, de hecho, mantenerse pero nadie ha logrado demostrarlo todavía.

ii) Se puede violar la convergencia uniforme, sin embargo, solo se puede violar en áreas del espacio de parámetros que no son realistas, por lo que el comportamiento de convergencia real puede estar bien. Como en (c), el hecho de que no tenga un teorema que garantice que está cerca del valor verdadero no significa que esté lejos.

iii) Se puede violar la convergencia uniforme y puede encontrar comportamientos irregulares en todo tipo de situaciones realistas. Mala suerte

iv) Incluso puede haber pequeños norte-situaciones en las que para el norte realmente disponible en la práctica, algo que no es convergente es mejor que algo que sea puntiagudo o uniformemente convergente.

(e) Ahora puede decir que la convergencia uniforme es claramente útil porque nos brinda una garantía con un claro valor práctico y sin eso no tendremos ninguna garantía. Pero aparte del hecho de que un estimador puede ser bueno incluso si no podemos garantizar que sea bueno, de hecho, nuncatienen una garantía que realmente se aplica en la práctica, porque en la práctica los supuestos del modelo no son válidos, y la situación es en realidad más complicada que decir: OK, el modelo P está equivocado pero hay un modelo Q verdadero que es demasiado complicado y puede ser domesticado por un resultado de convergencia uniforme no paramétrico; no, todos estos modelos son idealizaciones y nada es id o sigue una dependencia regular o un patrón de no identidad en primer lugar (ni siquiera los números aleatorios que utilizamos en las simulaciones son, de hecho, números aleatorios). Así también, la garantía de convergencia uniforme se aplica a una situación idealizada, y la práctica es una historia diferente. Utilizamos teoría como la convergencia uniforme para hacer declaraciones de calidad sobre estimadores en situaciones idealizadas, porque estas son las situaciones que podemos manejar. Realmente solo podemos decir, en situaciones tan idealizadas,

Lo sentimos, no hay ejemplos específicos, pero en cualquier configuración en la que no pueda encontrar un estimador uniformemente convergente pero solo uno convergente puntual, es probable que el convergente puntual lo ayude (a veces un estimador del que ni siquiera puede mostrar convergencia puntual puede ayudarlo igual o incluso más). Entonces puede que no, pero por cualquier razón práctica (problema con los supuestos del modelo, pequeñonorte, medida, lo que sea) la convergencia uniforme también puede ser engañosa en una situación específica.

Lewian
fuente
No está mal en absoluto :) Excepto que en a) conocer el verdadero valor del parámetro anula el punto de construir un estimador para él.
Richard Hardy
Es justo, no quería afirmar que alguna vez lo sabes, pero el "si" probablemente implica eso.
Lewian