Nota: estoy publicando una pregunta de un ex alumno mío que no puede publicar por su cuenta por razones técnicas.
Dada una muestra de iid de una distribución de Weibull con pdf ¿hay una representación variable faltante útil y, por lo tanto, un algoritmo EM (expectativa-maximización) asociado que podría usarse para encontrar el MLE de , en lugar de usarlo directamente optimización numérica?
Respuestas:
Creo que la respuesta es sí, si he entendido la pregunta correctamente.
Escribe . A continuación, un tipo de algoritmo de EM de la iteración, a partir de, por ejemplo, k = 1 , eszi=xki k^=1
Ez^i=xk^i
Mk^=n[∑(z^i−1)logxi]
Este es un caso especial (el caso sin censura ni covariables) de la iteración sugerida para los modelos de riesgos proporcionales de Weibull por Aitkin y Clayton (1980). También se puede encontrar en la Sección 6.11 de Aitkin et al (1989).
Aitkin, M. y Clayton, D., 1980. El ajuste de distribuciones exponenciales, de Weibull y de valores extremos a datos de supervivencia censurados complejos utilizando GLIM. Estadística Aplicada , pp.156-163.
Aitkin, M., Anderson, D., Francis, B. e Hinde, J., 1989. Modelización estadística en GLIM . Prensa de la Universidad de Oxford. Nueva York.
fuente
El Weibull MLE solo tiene solución numérica:
Deje conβ,
1) Likelihoodfunction :
log-Likelihoodfunction :
2) Problema MLE : 3) Maximizaciónpor0-gradientes: ∂ l
This equation is only numerically solvable, e.g. Newton-Raphson algorithm.β^∗ can then be placed into λ∗ to complete the ML estimator for the Weibull distribution.
fuente
Though this is an old question, it looks like there is an answer in a paper published here: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
fuente
In this case the MLE and EM estimators are equivalent, since the MLE estimator is actually just a special case of the EM estimator. (I am assuming a frequentist framework in my answer; this isn't true for EM in a Bayesian context in which we're talking about MAP's). Since there is no missing data (just an unknown parameter), the E step simply returns the log likelihood, regardless of your choice ofk(t) . The M step then maximizes the log likelihood, yielding the MLE.
EM would be applicable, for example, if you had observed data from a mixture of two Weibull distributions with parametersk1 and k2 , but you didn't know which of these two distributions each observation came from.
fuente