Con respecto a cómo ajustar los datos a una distribución normal oblicua Podría calcular el estimador de máxima verosimilitud a partir de los primeros principios. Primero tenga en cuenta que la función de densidad de probabilidad para la distribución normal sesgada con el parámetro de ubicación , el parámetro de escala y el parámetro de forma esω αξωα
2ωϕ ( x - ξω) Φ ( α ( x - ξω) )
donde es la función de densidad normal estándar y es el CDF normal estándar. Tenga en cuenta que esta densidad es un miembro de la clase descrita en mi respuesta a esta pregunta .Φ ( ⋅ )ϕ ( ⋅ )Φ ( ⋅ )
La probabilidad de registro basada en una muestra de observaciones independientes de esta distribución es:norte
- n log( ω ) + ∑i = 1norteIniciar sesiónϕ ( x - ξω) +logΦ ( α ( x - ξω) )
Es un hecho que no existe una solución de forma cerrada para este MLE. Pero, se puede resolver numéricamente. Por ejemplo, en R
, podría codificar la función de probabilidad como (tenga en cuenta que lo hice menos compacto / eficiente de lo posible para que sea completamente transparente cómo calcula esto la función de probabilidad anterior):
set.seed(2345)
# generate standard normal data, which is a special case
n = 100
X = rnorm(n)
# Calculate (negative) log likelihood for minimization
# P[1] is omega, P[2] is xi and P[3] is alpha
L = function(P)
{
# positivity constraint on omega
if( P[1] <= 0 ) return(Inf)
S = 0
for(i in 1:n)
{
S = S - log( dnorm( (X[i] - P[2])/P[1] ) )
S = S - log( pnorm( P[3]*(X[i] - P[2])/P[1] ) )
}
return(S + n*log(P[1]))
}
Ahora solo minimizamos numéricamente esta función (es decir, maximizamos la probabilidad). Puede hacer esto sin tener que calcular derivados utilizando el Algoritmo Simplex , que es la implementación predeterminada en el optim()
paquete R
.
Con respecto a cómo evaluar la asimetría: podemos probar explícitamente la asimetría normal frente a la normal (dado que normal es un submodelo) restringiendo y haciendo una prueba de razón de probabilidad .α = 0
# log likelihood constraining alpha=0.
L2 = function(Q) L(c(Q[1],Q[2],0))
# log likelihood from the constrained model
-optim(c(1,1),L2)$value
[1] -202.8816
# log likelihood from the full model
-optim(c(1,1,1),L)$value
[1] -202.0064
# likelihood ratio test statistic
LRT = 2*(202.8816-202.0064)
# p-value under the null distribution (chi square 1)
1-pchisq(LRT,1)
[1] 0.1858265
Por lo tanto, no rechazamos la hipótesis nula de que (es decir, sin sesgo).α = 0
Aquí la comparación fue simple, ya que la distribución normal era un submodelo. En otros casos, más generales, podría comparar la distribución asimétrica normal con otras distribuciones de referencia comparando, por ejemplo, los AIC (como se hace aquí ) si está utilizando estimadores de máxima verosimilitud en todos los ajustes competitivos. Por ejemplo, podría ajustar los datos por la probabilidad máxima bajo una distribución gamma y bajo la inclinación normal y ver si la probabilidad agregada justifica la complejidad agregada de la inclinación normal (3 parámetros en lugar de 2). También podría considerar usar la prueba de una muestra de Kolmogorov Smirnov para comparar sus datos con la mejor estimación de ajuste de la familia de sesgo normal.
Soy un estadístico que ha trabajado en esta profesión durante más de 30 años y antes de leer esta publicación nunca había oído hablar de la distribución normal sesgada. Si tiene datos muy asimétricos, ¿por qué específicamente quiere ver el sesgo normal en lugar de lognormal o gamma? Cada vez que tenga una familia paramétrica de distribuciones como gamma, lognormal o asimetría normal, puede aplicar una prueba de bondad de ajuste como chi-cuadrado o Kolmogorov-Smirnov.
fuente
Entonces, mi solución al final fue descargar el paquete fGarch , y fue
snormFit
proporcionado por fGarch para obtener los MLE para los parámetros en Skewed-Normal.Luego conecté esos parámetros, con la
dsnorm
función proporcionada por fGarch, a una prueba de Kolmogorov-Smirnov.fuente
Echa un vistazo a http://www.egyankosh.ac.in/bitstream/123456789/25807/1/Unit6.pdf y http://en.wikipedia.org/wiki/Skewness
Podría usar la prueba de Karl Pearson para la asimetría. La relación entre el tercer momento y el cubo de desviación estándar se llama coeficiente de asimetría. Las distribuciones simétricas tendrían asimetría = 0
fuente
en SPSS puede obtener una estimación de la asimetría (yendo a analizar y luego los descriptivos y luego marcar la asimetría), luego obtendrá una puntuación de asimetría y SE (error estándar) de asimetría. Divida la asimetría por su SE y si su puntaje está entre + -1.96, normalmente está sesgada. Si no está sesgado, ¡hay muchas pruebas no paramétricas! ¡Buena suerte y todo lo mejor!
fuente