Supongamos que tengo parámetros positivos para estimar y sus correspondientes estimaciones insesgadas producidos por los estimadores , es decir, , y así sucesivamente.
Me gustaría estimar utilizando las estimaciones a la mano. Es evidente que el ingenuo estimador es parcial inferior como
Supongamos que también tengo la matriz de covarianza de la correspondiente estimadores a la mano. ¿Es posible obtener una estimación imparcial (o menos sesgada) del mínimo utilizando las estimaciones dadas y la matriz de covarianza?
unbiased-estimator
estimators
minimum
Cagdas Ozgenc
fuente
fuente
Respuestas:
No tengo una respuesta clara sobre la existencia de estimador imparcial. Sin embargo, en términos de error de estimación, estimar es un problema intrínsecamente difícil en general.min(μ1,…,μn)
Por ejemplo, sea y μ = ( μ 1 , ... , μ n ) . Vamos θ = min i μ i ser la cantidad objetivo y θ es una estimación de θ . Si utilizamos el "naive" estimador θ = min i ( ˉ Y i ) dondeY1,…,YN∼N(μ,σ2I) μ=(μ1,…,μn) θ=miniμi θ^ θ θ^=mini(Y¯i) Yyo¯= 1norte∑nortej = 1Yi , j L2 μiσ2
Por lo tanto, el estimador ingenuo es minimax óptimo hasta constante, y no hay mejor estimación de en este sentido.θ
fuente
EDITAR: lo siguiente responde a una pregunta diferente a la que se hizo: se enmarca como si se considera aleatorio, pero no funciona cuando se considera fijo, que es probablemente lo que el OP tenía en mente. Si se soluciona , no tengo una mejor respuesta queμ μ min ( μ 1 , . . . , μ n )μ μ μ min ( μ^1, . . . , μ^norte)
Si solo consideramos las estimaciones de la media y la covarianza, podemos tratar como una sola muestra de distribución normal multivariada. Una manera simple de obtener una estimación del mínimo es extraer una gran cantidad de muestras de , calcular el mínimo de cada muestra y luego tomar la media de esos mínimos.M V N ( μ , Σ )( μ1, . . . , μnorte) METROVnorte( μ^, Σ )
El procedimiento anterior y sus limitaciones se pueden entender en términos bayesianos: tomando la notación de Wikipedia en MVN , si es la covarianza conocida de los estimadores y tenemos una observación, la distribución posterior conjunta es , donde y se derivan de la anterior en la que, antes de observar cualquier dato tomamos la previa ). Como probablemente no esté dispuesto a poner prioridades en , podemos tomar el límite como , lo que da como resultado una prioridad plana y la posterior se convierte enμ ~ M V N ( μ + m λ 0Σ λμ∼MVN(μ^+mλ01+m,1n+mΣ) m μ ~ M V N ( λ 0 , m - 1 Σ μ m → 0 μ ~ M V N ( μ , Σ ) μλ0 m μ∼MVN(λ0,m−1Σ μ m→0 μ∼MVN(μ^,Σ) . Sin embargo, dado el plano anterior, suponemos implícitamente que los elementos de difieren mucho (si todos los números reales son igualmente probables, es muy poco probable obtener valores similares).μ
Una simulación rápida muestra que la estimación con este procedimiento sobreestima ligeramente cuando los elementos de difieren mucho y subestima cuando los elementos son similares. Se podría argumentar que sin ningún conocimiento previo este es un comportamiento correcto. Si está dispuesto a indicar al menos alguna información previa (por ejemplo, ), los resultados podrían comportarse un poco mejor para su caso de uso.μ m i n ( μ ) m = 0.1min(μ) μ min(μ) m=0.1
Si está dispuesto a asumir más estructura, podría elegir una mejor distribución que la multivariete normal. También podría tener sentido usar Stan u otro muestreador MCMC para ajustar las estimaciones de en primer lugar. Esto le dará un conjunto de muestras de que reflejan la incertidumbre en los estimadores mismos, incluida su estructura de covarianza (posiblemente más rica de lo que MVN puede proporcionar). Una vez más, puede calcular el mínimo para cada muestra para obtener una distribución posterior sobre mínimos, y tomar la media de esta distribución si necesita una estimación puntual.( μ 1 , . .μ (μ1,...,μn)
fuente