¿Alguien podría explicarme en detalle sobre la estimación de máxima verosimilitud (MLE) en términos simples? Me gustaría conocer el concepto subyacente antes de entrar en derivación matemática o
Un método para estimar los parámetros de un modelo estadístico eligiendo el valor del parámetro que optimiza la probabilidad de observar la muestra dada.
¿Alguien podría explicarme en detalle sobre la estimación de máxima verosimilitud (MLE) en términos simples? Me gustaría conocer el concepto subyacente antes de entrar en derivación matemática o
He leído en el resumen de este artículo que: "El procedimiento de máxima verosimilitud (ML) de Hartley aud Rao se modifica adaptando una transformación de Patterson y Thompson que divide la probabilidad de normalizar en dos partes, una libre de los efectos fijos. Maximizar esta parte produce lo...
Para un estudio de simulación tengo para generar variables aleatorias que muestran un (población) de correlación prefined a una variable existente .YYY Miré en los Rpaquetes copulay CDVineque pueden producir distribuciones aleatorias multivariadas con una estructura de dependencia dada. Sin...
Los estimadores de máxima verosimilitud (MLE) son asintóticamente eficientes; vemos el resultado práctico en que a menudo les va mejor que las estimaciones del método de momentos (MoM) (cuando difieren), incluso con tamaños de muestra pequeños Aquí 'mejor que' significa en el sentido de tener...
Veo que se usan estos términos y sigo confundiéndolos. ¿Hay una explicación simple de las diferencias entre
Hay varios hilos en este sitio para recomendaciones de libros sobre estadísticas introductorias y aprendizaje automático, pero estoy buscando un texto sobre estadísticas avanzadas que incluya, en orden de prioridad: máxima probabilidad, modelos lineales generalizados, análisis de componentes...
Ok, esta es una pregunta bastante básica, pero estoy un poco confundido. En mi tesis escribo: Los errores estándar se pueden encontrar calculando el inverso de la raíz cuadrada de los elementos diagonales de la matriz (observada) de información de
¿Por favor explíqueme la diferencia en la estimación bayesiana y la estimación de máxima
Esta pregunta me ha intrigado durante mucho tiempo. Entiendo el uso de 'log' para maximizar la probabilidad, por lo que no estoy preguntando sobre 'log'. Mi pregunta es, dado que maximizar la probabilidad de registro es equivalente a minimizar la "probabilidad de registro negativa" (NLL), ¿por qué...
Me pregunto si hace una diferencia en la interpretación si solo el dependiente, tanto el dependiente como el independiente, o solo las variables independientes se transforman logarítmicamente. Considere el caso de log(DV) = Intercept + B1*IV + Error Puedo interpretar el IV como el porcentaje...
Tengo curiosidad sobre la naturaleza de Σ−1Σ−1\Sigma^{-1} . ¿Alguien puede decir algo intuitivo sobre "¿Qué dice Σ−1Σ−1\Sigma^{-1} sobre los datos?" Editar: Gracias por las respuestas Después de tomar algunos cursos excelentes, me gustaría agregar algunos puntos: Es una medida de la...
El ejemplo de Stein muestra que la estimación de máxima verosimilitud de nnn variables normalmente distribuidas con medias μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n varianzas 111 es inadmisible (bajo una función de pérdida cuadrada) si f n≥3n≥3n\ge 3 . Para una prueba clara, vea el primer capítulo de...
Esta pregunta ha estado enconándose en mi mente durante más de un mes. La edición de febrero de 2015 de Amstat News contiene un artículo del profesor Mark van der Laan de Berkeley que regaña a las personas por usar modelos inexactos. Afirma que al usar modelos, la estadística es entonces un arte...
¿Cuál es la principal diferencia entre la estimación de máxima verosimilitud (MLE) frente a la estimación de mínimos cuadrados (LSE)? ¿Por qué no podemos usar MLE para predecir valores de en regresión lineal y viceversa?yyy Cualquier ayuda sobre este tema será muy
Derivar numéricamente los MLE s de GLMM es difícil y, en la práctica, lo sé, no debemos usar la optimización de la fuerza bruta (por ejemplo, usarla optimde una manera simple). Pero para mi propio propósito educativo, quiero probarlo para asegurarme de que entiendo correctamente el modelo (vea el...
Leí esta página: http://neuralnetworksanddeeplearning.com/chap3.html y dijo que la capa de salida sigmoidea con entropía cruzada es bastante similar a la capa de salida softmax con log-verosimilitud. ¿Qué sucede si uso sigmoide con log-verosimilitud o softmax con entropía cruzada en la capa de...
Explicaré mi problema con un ejemplo. Suponga que desea predecir el ingreso de un individuo dados algunos atributos: {Edad, Sexo, País, Región, Ciudad}. Tienes un conjunto de datos de entrenamiento como este train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2,...
Supongamos que tenemos una variable aleatoria . Si fuera el parámetro verdadero, la función de probabilidad debería maximizarse y la derivada igual a cero. Este es el principio básico detrás del estimador de máxima verosimilitud.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Según tengo entendido,...
He oído hablar de la probabilidad empírica de Owen, pero hasta hace poco no le presté atención hasta que lo encontré en un documento de interés ( Mengersen et al. 2012 ). En mi esfuerzo por comprenderlo, deduje que la probabilidad de los datos observados se representa como , donde y...
Tengo una confusión sobre los estimadores sesgados de máxima verosimilitud (ML). La matemática de todo el concepto es bastante clara para mí, pero no puedo entender el razonamiento intuitivo detrás de él. Dado un determinado conjunto de datos que tiene muestras de una distribución, que en sí misma...