TΛ Λ ( u ) = [ 1 + exp { - u } ] - 1
Pr ( Yyo= 1 ∣ Tyo= 1 ) = Λ ( α + βTyo)
ΛΛ ( u ) = [ 1 + exp{ - u } ]- 1
En forma de logit tenemos
En( Pr ( Yyo= 1 ∣ Tyo= 1 )1 - Pr ( Yyo= 1 ∣ Tyo= 1 )) =α+βTyo
Tienes una muestra de talla . Denotar el número de observaciones donde y aquellos en los que , y . Considere las siguientes probabilidades condicionales estimadas:n 1 T i = 1 n 0 T i = 0 n 1 + n 0 = nnortenorte1Tyo= 1norte0 0Tyo= 0norte1+ n0 0= n
Pr^( Y= 1 ∣ T= 1 ) ≡ P^1 | 1= 1norte1∑Tyo= 1yyo
Pr^( Y= 1 ∣ T= 0 ) ≡ P^1 | 0 0= 1norte0 0∑Tyo= 0yyo
Entonces, este modelo muy básico proporciona soluciones de forma cerrada para el estimador de ML:
α^= ln( P^1 | 0 01 - P^1 | 0 0) ,β^= ln( P^1 | 11 - P^1 | 1) -ln( P^1 | 0 01 - P^1 | 0 0)
PARCIALIDAD
Aunque y son estimadores insesgados de las probabilidades correspondientes, los MLE están sesgados, ya que la función logarítmica no lineal se interpone en el camino: imagine lo que sucede con los modelos más complicados , con un mayor grado de no linealidad.PAG^1 | 1PAG^1 | 0 0
Pero asintóticamente, el sesgo desaparece ya que las estimaciones de probabilidad son consistentes. Insertando directamente el operador dentro del valor esperado y el logaritmo, tenemos
lim
limn → ∞mi[ α^] = E[ ln( limn → ∞PAG^1 | 0 01 - P^1 | 0 0) ] =E[ ln( P1 | 0 01 - P1 | 0 0) ] =α
y del mismo modo para . β
MATRIZ DE VARIANZA-COVARIANZA DE MLE
En el caso simple anterior que proporciona expresiones de forma cerrada para el estimador, uno podría, al menos en principio, continuar y derivar su distribución exacta de muestra finita y luego calcular su matriz exacta de varianza-covarianza de muestra finita . Pero en general, el MLE no tiene una solución de forma cerrada. Luego recurrimos a una estimación consistente de la matriz de varianza-covarianza asintótica, que es (lo negativo de) el inverso del hessiano de la función de log-verosimilitud de la muestra, evaluada en el MLE. Y aquí no hay ninguna "elección arbitraria", pero resulta de la teoría asintótica y de las propiedades asintóticas del MLE (consistencia y normalidad asintótica), eso nos dice que, para ,
θ0 0= ( α , β)
norte--√( θ^- θ0 0) →renorte( 0 , - ( E[ H] )- 1)
donde es el hessiano. Aproximadamente y para muestras finitas (grandes), esto nos lleva aH
Var( θ^) ≈ - 1norte( E[ H] )- 1≈ - 1norte( 1norteH^)- 1= - H^- 1