Como estoy seguro de que todos aquí ya lo saben, el PDF de la distribución Beta está dado por
He estado buscando por todo el lugar una explicación de los orígenes de esta fórmula, pero no puedo encontrarla. Todos los artículos que he encontrado en la distribución Beta parecen dar esta fórmula, ilustran algunas de sus formas, luego continúan discutiendo sus momentos y desde allí.
No me gusta usar fórmulas matemáticas que no puedo derivar y explicar. Para otras distribuciones (por ejemplo, el gamma o el binomio) hay una clara derivación que puedo aprender y usar. Pero no puedo encontrar algo así para la distribución Beta.
Entonces mi pregunta es: ¿cuáles son los orígenes de esta fórmula? ¿Cómo puede derivarse de los primeros principios en cualquier contexto en el que se desarrolló originalmente?
[Para aclarar, no estoy preguntando cómo usar la distribución Beta en las estadísticas bayesianas, o qué significa intuitivamente en la práctica (he leído el ejemplo del béisbol). Solo quiero saber cómo derivar el PDF. Hubo una pregunta anterior que preguntaba algo similar, pero se marcó (creo que incorrectamente) como un duplicado de otra pregunta que no abordó el problema, por lo que no he podido encontrar ayuda aquí hasta ahora.]
EDITAR 2017-05-06: Gracias a todos por las preguntas. Creo que una buena explicación de lo que quiero proviene de una de las respuestas que obtuve cuando le pregunté a algunos de mis instructores del curso:
"Supongo que las personas podrían derivar la densidad normal como un límite de una suma de n cosas divididas por sqrt (n), y usted puede derivar la densidad de Poisson a partir de la idea de que los eventos ocurran a una velocidad constante. Del mismo modo, para derivar el densidad beta, tendrías que tener una idea de lo que hace que una distribución beta sea independiente y lógicamente anterior a la densidad ".
Entonces, la idea "ab initio" en los comentarios es probablemente la más cercana a lo que estoy buscando. No soy matemático, pero me siento más cómodo usando las matemáticas que puedo obtener. Si los orígenes son demasiado avanzados para que yo pueda manejarlos, que así sea, pero si no, me gustaría entenderlos.
fuente
Respuestas:
Como ex físico, puedo ver cómo podría haberse derivado. Así es como proceden los físicos:
cuando encuentran una integral finita de una función positiva, como la función beta : definen instintivamente una densidad: dondef ( s | x , y ) = s x - 1 ( 1 - s ) y - 1
Le hacen esto a todo tipo de integrales todo el tiempo con tanta frecuencia que ocurre de forma reflexiva sin siquiera pensar. Llaman a este procedimiento "normalización" o nombres similares. Observe cómo, por definición, trivialmente la densidad tiene todas las propiedades que desea que tenga, como siempre positiva y suma una.
La densidad que di arriba es de distribución Beta.F( t )
ACTUALIZAR
@ whuber pregunta qué tiene de especial la distribución Beta, mientras que la lógica anterior podría aplicarse a un número infinito de integrales adecuadas (como señalé en mi respuesta anterior).
La parte especial proviene de la distribución binomial . Escribiré su PDF usando una notación similar a mi beta, no la notación habitual para parámetros y variables:
Aquí, - número de éxitos y fracasos, y - probabilidad de éxito. Puede ver cómo esto es muy similar al numerador en la distribución Beta. De hecho, si busca la distribución Binomial anterior, será la distribución Beta. No es sorprendente también porque el dominio de Beta es 0 a 1, y eso es lo que haces en el teorema de Bayes: integrar sobre el parámetro , que es la probabilidad de éxito en este caso como se muestra a continuación: aquí - probabilidad (densidad) de probabilidad de éxito dada la configuración previa de la distribución Beta ys s f ( x | X ) = f ' ( X | s ) f ( s )x,y s s f(s)f′(X|s)s
fuente
Thomas Bayes (1763) derivó la distribución Beta [sin usar este nombre] como el primer ejemplo de distribución posterior , anterior al trabajo de Leonhard Euler (1766) sobre la integral Beta señalado por Glen_b por unos años, pero la integral también aparece en Euler (1729 o 1738) [Opera Omnia, I14, 1 {24] como una forma de generalizar la función factorial que puede ser la razón por la normalización Beta constante también se llama la función Euler . DaviesB ( a , b ) -− B(a,b) − Menciona Wallis (1616-1703), Newton (1642-1726) y Stirling (1692-1770) que tratan casos especiales de la integral incluso antes. Karl Pearson (1895) catalogó por primera vez esta familia de distribuciones como Pearson Tipo I .
Aunque históricamente no apareció en ese orden, una entrada intuitiva a la distribución Beta es a través de la distribución Fisher , que corresponde a la distribución de una relación donde deliberadamente las anotaciones habituales para estimadores de varianza, ya que así es como esta distribución apareció y estaba motivado, para probar la igualdad de dos variaciones. Entonces mientras que, por el contrario, si , entonces Encontrar la densidad de aF(p,q)
fuente
En primer lugar, no soy bueno en descripciones matemáticamente precisas de conceptos en mi cabeza, pero haré lo mejor que pueda con un ejemplo simple:
Imagina que tienes un arco, muchas flechas y un objetivo. Digamos además que su índice de aciertos (para alcanzar el objetivo) es precisamente una función de la distancia al centro del objetivo y de la siguiente forma donde x es la distancia al centro del objetivo ( ). Para esto sería una aproximación de primer orden de un gaussiano. Eso significaría que con mayor frecuencia le das al blanco. Del mismo modo, se aproxima a cualquier curva en forma de campana, por ejemplo, resultante de la difusión de partículas brownianas.λ λ=g(x)=λmax−(q|x−x0|)1q, q>0, 0≤λ≤λmax x0 q= 1 / 2
Ahora, supongamos además que alguien realmente valiente / estúpido intenta engañarte y desplaza al objetivo en cada disparo. De este modo, hacemos que sea una variable aleatoria. Si la distribución de los movimientos de esa persona puede describirse mediante una potencia (p-1) de (es decir, ), un simple La transformación de variables aleatorias (recuerde ) conduce a una Beta distribuida :X0 0 sol( x ) PAG( x0 0) = C⋅ g( x )p - 1) PAG( λ ) dλ = P( x0 0) dX0 0 λ
donde la constante de normalización es la función beta. Para la parametrización estándar de la distribución beta, estableceríamos .C′ λm a x= 1
En otras palabras, la distribución beta puede verse como la distribución de probabilidades en el centro de una distribución fluctuada.
Espero que esta derivación se acerque un poco a lo que su instructor quiso decir. Tenga en cuenta que las formas funcionales de y son muy flexibles y se extienden desde distribuciones en forma de triángulos y distribuciones en forma de U (ver ejemplo a continuación) hasta distribuciones puntiagudas.sol( x ) PAG( x0 0)
FYI: descubrí esto como un efecto secundario en mi trabajo de doctorado y lo informé en mi tesis en el contexto de las curvas de sintonización neural no estacionarias que conducen a distribuciones de recuento de picos inflados a cero (bimodal con un modo en cero). La aplicación del concepto descrito anteriormente produjo la distribución de la mezcla Beta-Poisson para la actividad neuronal. Esa distribución puede ajustarse a los datos. Los parámetros ajustados permiten estimar tanto la distribución como la distribución jitter aplicando las lógicas inversas. La mezcla Beta-Poisson es una alternativa muy interesante y flexible a la distribución binomial negativa ampliamente utilizada (que es una mezcla Gamma-Poisson) para modelar la sobredispersión. A continuación encontrará un ejemplo de "Jittersol( x ) p ( x0 0) → Beta "- idea en acción:
A : desplazamiento de prueba 1D simulado, extraído de la distribución de jitter en el recuadro ( ). El campo de disparo promediado de prueba (línea negra continua) es más amplio y tiene una tasa de pico más baja en comparación con la curva de sintonización subyacente sin fluctuación (línea azul continua, parámetros utilizados: . B : La distribución resultante de en en N = 100 ensayos y el pdf analítico de la distribución Beta. C : Distribución simulada de recuento de picos de un proceso de Poisson con parámetros donde los índices de los ensayos y la distribución resultante de Beta-Poisson derivada como se bosquejó anteriormente.PAG( j i t t e r ) ∝ g( x )p - 1 λm a x= 10 , p = .6 , q= .5 λ x0 λi D : Situación análoga en 2D con ángulos de desplazamiento aleatorios que conducen a estadísticas idénticas.
fuente