Si tenemos un tamaño de muestra pequeño, ¿influirá mucho la distribución previa en la distribución
Si tenemos un tamaño de muestra pequeño, ¿influirá mucho la distribución previa en la distribución
Con un previo plano, coinciden los estimadores ML (frecuentista - máxima verosimilitud) y MAP (Bayesiano - máximo a posteriori). Sin embargo, en términos más generales, estoy hablando de estimadores puntuales derivados como optimizadores de alguna función de pérdida. Es decir (Bayesiano) x...
Estoy volviendo a publicar una "respuesta" a una pregunta que hice hace unas dos semanas aquí: ¿Por qué es útil el Jeffreys anterior? Sin embargo, realmente era una pregunta (y tampoco tenía derecho a publicar comentarios en ese momento), así que espero que esté bien hacer esto: En el enlace...
Estoy tratando de implementar el algoritmo MCMC de golpe y ejecución, pero tengo algunos problemas para entender cómo hacerlo. La idea general es la siguiente: Para generar un salto de propuesta en MH, nosotros: Genere una dirección partir de una distribución en la superficie de la esfera...
El cálculo bayesiano aproximado es una técnica realmente genial para ajustar básicamente cualquier modelo estocástico, destinado a modelos donde la probabilidad es intratable (por ejemplo, puede tomar muestras del modelo si fija los parámetros pero no puede calcular la probabilidad numérica,...
Estoy buscando antecedentes no informativos para que la distribución beta funcione con un proceso binomial (Hit / Miss). Al principio pensé en usar que genera un PDF uniforme, o Jeffrey antes α = 0.5 , β = 0.5 . Pero en realidad estoy buscando antecedentes que tengan el mínimo efecto en los...
Esta pregunta se inspiró en dos interacciones recientes que tuve, una aquí en CV y la otra en economics.se. Allí, había publicado una respuesta a la conocida "Paradoja de la envoltura" (fíjate, no como la "respuesta correcta" sino como la respuesta que surge de suposiciones específicas sobre la...
Esta pregunta es un seguimiento técnico de esta pregunta . Tengo problemas para entender y replicar el modelo presentado en Raftery (1988): Inferencia para el parámetro binomial : un enfoque jerárquico de BayesNNN en WinBUGS / OpenBUGS / JAGS. Sin embargo, no se trata solo de código, por lo que...
He estado usando el MCMCglmmpaquete recientemente. Estoy confundido por lo que se refiere en la documentación como estructura R y estructura G. Estos parecen relacionarse con los efectos aleatorios, en particular especificando los parámetros para la distribución previa sobre ellos, pero la...
En su artículo ampliamente citado Distribuciones previas para parámetros de varianza en modelos jerárquicos (916 citas hasta ahora en Google Scholar) Gelman propone que las distribuciones anteriores no informativas para la varianza en un modelo bayesiano jerárquico son la distribución uniforme y la...
Conozco 3 métodos para hacer estimaciones de parámetros, ML, MAP y enfoque de Bayes. Y para el enfoque de MAP y Bayes, tenemos que elegir prioridades para los parámetros, ¿verdad? Digamos que tengo este modelo , en el que son parámetros, para hacer la estimación utilizando MAP o Bayes, leí en el...
Un revisor nos pidió que proporcionáramos valores p para comprender mejor las estimaciones del modelo en nuestro modelo bayesiano multinivel. El modelo es un modelo típico de múltiples observaciones por participante en un experimento. Estimamos el modelo con Stan, por lo que podemos calcular...
Los algoritmos MCMC como el muestreo de Metropolis-Hastings y Gibbs son formas de muestreo de las distribuciones posteriores conjuntas. Creo que entiendo y puedo implementar la aceleración de las metrópolis con bastante facilidad: simplemente elige los puntos de partida de alguna manera y...
Dadas dos matrices x e y, ambas de longitud n, calzo un modelo y = a + b * x y quiero calcular un intervalo de confianza del 95% para la pendiente. Esto es (b - delta, b + delta) donde b se encuentra de la manera habitual y delta = qt(0.975,df=n-2)*se.slope y se.slope es el error estándar en la...
Como estudiante de física, he experimentado la conferencia "Por qué soy bayesiano" tal vez media docena de veces. Siempre es lo mismo: el presentador explica con aire de suficiencia cómo la interpretación bayesiana es superior a la interpretación frecuentista supuestamente empleada por las masas....
Pr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} se...
Tengo un vago sentido de lo que es un método de paso de mensajes: un algoritmo que construye una aproximación a una distribución construyendo iterativamente aproximaciones de cada uno de los factores de la distribución condicional a todas las aproximaciones de todos los demás factores. Creo que...
Después de leer esta publicación de blog sobre los modelos de series de tiempo estructurales bayesianas, quería analizar su implementación en el contexto de un problema para el que había usado ARIMA anteriormente. Tengo algunos datos con algunos componentes estacionales conocidos (pero ruidosos):...
Para un problema de inferencia dado, sabemos que un enfoque bayesiano generalmente difiere tanto en la forma como en los resultados de un enfoque fequentista. Los frecuentes (por lo general me incluyen a mí) a menudo señalan que sus métodos no requieren un previo y, por lo tanto, están más "basados...
Estoy analizando un conjunto de datos utilizando un modelo de efectos mixtos con un efecto fijo (condición) y dos efectos aleatorios (participante debido al diseño del sujeto y al par). El modelo se ha generado con el lme4paquete: