Supongamos que tengo el siguiente modelo
donde , es un vector de variables explicativas, es los parámetros de la función no lineal y , donde naturalmente es matriz.
El objetivo es el habitual para estimar y . La elección obvia es el método de máxima verosimilitud. Diario de probabilidad para este modelo (suponiendo que tenemos una muestra ) se parece
Ahora, esto parece simple, se especifica la probabilidad de registro, se colocan datos y se usa algún algoritmo para la optimización no lineal. El problema es cómo garantizar que sea positivo definido. Usar, por ejemplo, optim
en R (o cualquier otro algoritmo de optimización no lineal) no me garantizará que sea positivo definido.
Entonces, la pregunta es cómo garantizar que mantenga positivo definido. Veo dos posibles soluciones:
Reparametrise como R R ′ donde R es una matriz triangular superior o simétrica. Entonces Σ siempre será positivo-definido y R puede estar sin restricciones.
Usa la probabilidad de perfil. Derivar las fórmulas para θ ( Σ ) y Σ ( θ ) . Start con algunos θ 0 y iterate Σ j = Σ ( θ j - 1 ) , θ j = θ ( Σ j - 1 ) hasta la convergencia.
¿Hay alguna otra manera y qué pasa con estos 2 enfoques, funcionarán, son estándar? Esto parece un problema bastante estándar, pero la búsqueda rápida no me dio ningún indicio. Sé que la estimación bayesiana también sería posible, pero por el momento no me gustaría participar en ella.
Respuestas:
Suponiendo que al construir la matriz de covarianza, usted se está ocupando automáticamente del problema de simetría, su probabilidad de registro será cuando Σ no es definitivo positivo debido al término log d e t Σ en el modelo, ¿verdad? Para evitar un error numérico si d e t Σ < 0 , precalcularía d e t Σ y, si no es positivo, haría que la probabilidad de registro sea igual -Inf, de lo contrario, continúe. De todos modos, debe calcular el determinante, por lo que esto no le está costando ningún cálculo adicional.−∞ Σ logdet Σ det Σ<0 det Σ
fuente
Como resultado, puede usar la máxima probabilidad de perfil para garantizar las propiedades necesarias. Se puede demostrar que para determinado θ , l ( θ , Σ ) se maximizaθ^ l(θ^,Σ)
dónde
Entonces es posible demostrar que
por lo tanto solo necesitamos maximizar
Naturally in this caseΣ will satisfy all the necessary properties. The proofs are identical for the case when f is linear which can be found in Time Series Analysis by J. D. Hamilton page 295, hence I omitted them.
fuente
An alternative parameterization for the covariance matrix is in terms of eigenvaluesλ1,...,λp and p(p−1)/2 "Givens" angles θij .
That is, we can write
whereG is orthonormal, and
(details to be added)
[1]: Hoffman, Raffenetti, Ruedenberg. "Generalization of Euler Angles to N‐Dimensional Orthogonal Matrices". J. Math. Phys. 13, 528 (1972)
fuente
Along the lines of charles.y.zheng's solution, you may wish to modelΣ=Λ+CC⊤ , where Λ is a diagonal matrix, and C is a Cholesky factorization of a rank update to Λ . You only then need to keep the diagonal of Λ positive to keep Σ positive definite. That is, you should estimate the diagonal of Λ and the elements of C instead of estimating Σ .
fuente