Tal estimador no existe.
La intuición es que la mediana puede permanecer fija mientras cambiamos libremente la densidad de probabilidad a ambos lados de la misma, de modo que cualquier estimador cuyo valor promedio sea la mediana para una distribución tendrá un promedio diferente para la distribución alterada, haciéndola sesgada. La siguiente exposición le da un poco más de rigor a esta intuición.
Nos centramos en las distribuciones tienen medianas únicas m , de modo que, por definición, F ( m ) ≥ 1Fm y F ( x ) < 1 / 2 para todos x < m . Arregle un tamaño de muestra n ≥ 1 y suponga que t : [ 0 , 1 ] n → [ 0 , 1 ] estima m . (Será suficiente que tF(m)≥1/2F(x)<1/2x<mn≥1t:[0,1]n→[0,1]mtSólo estar encerrado, pero por lo general no se considera seriamente estimadores que producen valores evidentemente imposibles) Hacemos. no hay suposiciones acerca de ; ni siquiera tiene que ser continuo en ningún lado.t
El significado de siendo imparcial (para este tamaño de muestra fijo) es quet
EF[t(X1,…,Xn)]=m
para cualquier muestra iid con . Un "estimador imparcial" t es uno con esta propiedad para todos tales F .Xi∼FtF
Supongamos que existe un estimador imparcial. Derivaremos una contradicción aplicándola a un conjunto de distribuciones particularmente simple. Considere las distribuciones tienen estas propiedades:F=Fx,y,m,ε
;0≤x<y≤1
;0<ε<(y−x)/4
;x+ε<m<y−ε
;Pr(X=x)=Pr(X=y)=(1−ε)/2
; yPr(m−ε≤X≤m+ε)=ε
es uniforme en [ m - ε , m + ε ] .F[m−ε,m+ε]
Estas distribuciones colocan la probabilidad en cada uno de x e y y una pequeña cantidad de probabilidad colocada simétricamente alrededor de m entre x e y . Esto hace que m la mediana única de F . (Si le preocupa que esta no sea una distribución continua, introdúzcala con un Gaussiano muy estrecho y trunca el resultado a [ 0 , 1 ] : el argumento no cambiará).(1−ε)/2xymxymF[0,1]
Ahora, para cualquier estimador medio putativo , una estimación fácil muestra que E [ t ( X 1 , X 2 , … , X n ) x y m x + ε y - ε ε m F x , y , m , εt es estrictamente dentro de ε de la media de la 2 n valores t ( x 1 , x 2 , … , X n ) donde x i varía sobre todas las combinaciones posibles dee. Sin embargo, podemos variarE[t(X1,X2,…,Xn)]ε2nt(x1,x2,…,xn)xixymentre e , un cambio de al menos (en virtud de las condiciones 2 y 3). Por lo tanto, existe una , y de ahí una distribución correspondiente , para lo cual esta expectativa no es igual a la mediana, QED.x+εy−εεmFx,y,m,ε
¡Encontrar un estimador imparcial sin tener un modelo paramétrico sería difícil! Pero podría usar bootstrapping, y usar eso para corregir la mediana empírica para obtener un estimador aproximadamente imparcial.
fuente
Creo que la regresión cuantil te dará un estimador consistente de la mediana. Dado el modelo . Y desea estimar med ( y ) = med ( αY=α+u ya que α es una constante. Todo lo que necesita es med ( u ) = 0, que debe ser cierto siempre que tenga sorteos independientes. Sin embargo, en cuanto a imparcialidad, no lo sé. Las medianas son difíciles.med(y)=med(α+u)=α+med(u) α med(u)=0
fuente