Función inversa de varianza

9

Para un número constante dado (por ejemplo, 4), ¿es posible encontrar una distribución de probabilidad para , de modo que tengamos ?X V a r ( X ) = rrXVar(X)=r

amiref
fuente
1
No, a menos que tenga información adicional.
Hemant Rupani
@Hemant Rupani, ¿qué información adicional se necesita?
amiref
1
any Nature of Random Variable 'X' ...
Hemant Rupani
3
Le sugiero que edite su pregunta para reemplazar "valor para X" con "distribución para X": si X tiene un solo valor, entonces X tiene una distribución degenerada y tendrá una varianza cero.
Silverfish
1
A menos que sea ​​negativo, la respuesta es obviamente sí, una varianza puede ser cualquier número positivo. r
dsaxton

Respuestas:

13

Considerando cuidadosamente los casos para : si entonces la distribución es degenerada, pero podría tener alguna media. Es decir, y \ Pr (X = c) = 0 para cualquier c \ neq \ mu . Por lo tanto, podemos encontrar muchas distribuciones posibles para X , pero están indexadas y completamente especificadas por \ mu \ in \ mathbb {R} .r = 0 X Pr ( X = μ ) = 1 Pr ( X = c ) = 0 c μ X μ Rrr=0XPr(X=μ)=1Pr(X=c)=0cμXμR

Si , no se puede encontrar distribución, ya que .V a r ( X ) = E ( X - μ X ) 20r<0Var(X)=E(XμX)20

Para , la respuesta dependerá de lo que se conoce información adicional sobre . Por ejemplo, si se sabe que tiene una media , entonces para cualquier y podemos encontrar una distribución con estos momentos tomando . Esta no es una solución única al problema de emparejar la media y la varianza, pero es la única solución distribuida normalmente (y de todas las soluciones posibles, esta es la que maximiza la entropía, como señala Daniel). Si también quisiera igualar, por ejemplo, el tercer momento central , o superior, entonces necesitaría considerar un rango más amplio de distribuciones de probabilidad.X X μ μ R r > 0 X N ( μ , r )r>0XXμμRr>0XN(μ,r)

Supongamos que tenemos información sobre la distribución de lugar de sus momentos. Por ejemplo, si sabemos que sigue una distribución de Poisson, entonces la solución única sería . Si sabemos que sigue una distribución exponencial, nuevamente existe una solución única , donde hemos encontrado el parámetro resolviendo .X X P o i s s o n ( r ) X X E x p o n e n t i a l ( 1XXXPoisson(r)XVar(X)=r=1XExponential(1r)Var(X)=r=1λ2

En otros casos podemos encontrar una familia completa de soluciones. Si sabemos que sigue una distribución rectangular (continua uniforme), entonces podemos encontrar un ancho único para la distribución resolviendo . Pero habrá toda una familia de soluciones, parametizada por : las distribuciones en este conjunto son todas traducciones entre sí. Del mismo modo, si es normal, cualquier distribución funcionaría (por lo que tenemos un conjunto completo de soluciones indexadas por , que nuevamente puede ser cualquier número real, y nuevamente la familia son todas traducciones el uno del otro). Siw V a r ( X ) = r = w 2Xw XU(a,a+w)aRXXN(μ,r)μXXGamma(rVar(X)=r=w212XU(a,a+w)aRXXN(μ,r)μX sigue una distribución gamma y luego, usando la parametrización de la escala de forma, podemos obtener una familia completa de soluciones, parametized by . Los miembros de esta familia no son traducciones unos de otros. Para ayudar a visualizar cómo podría ser una "familia de soluciones", aquí hay algunos ejemplos de distribuciones normales indexadas por , y luego distribuciones gamma indexadas por , todas con una varianza igual a cuatro, correspondiente al ejemplo en tu pregunta.θ>0μθr=4XGamma(rθ2,θ)θ>0μθr=4

Distribuciones normales con varianza cuatro Distribuciones gamma con varianza cuatro

Por otro lado, para algunas distribuciones puede o no ser posible encontrar una solución, dependiendo del valor de . Por ejemplo, si debe ser una variable de Bernoulli, entonces para hay dos posibles soluciones porque hay dos probabilidades que resuelven la ecuación , y de hecho estas dos probabilidades son complementarias, es decir, . Para solo existe la solución única , y para ninguna distribución de Bernoulli tiene una varianza suficientemente alta.rX0r<0.25XBernoulli(p)pVar(X)=r=p(1p)p1+p2=1r=0.25p=0.5r>0.25

Siento que también debería mencionar el caso . También hay soluciones para este caso, por ejemplo, una distribución de Student con dos grados de libertad.r=t

Código R para parcelas

require(ggplot2)

x.df  <- data.frame(x = rep(seq(from=-8, to=8, length=100), times=5),
    mu = rep(c(-4, -2, 0, 2, 4), each=100))
x.df$pdf <- dnorm(mean=x.df$mu, x.df$x)
ggplot(x.df, aes(x=x, y=pdf, group=factor(mu), colour=factor(mu))) + theme_bw() + 
    geom_line(size=1) + scale_colour_brewer(name=expression(mu), palette="Set1") +
    theme(legend.key = element_blank()) + ggtitle("Normal distributions with variance 4")

x.df  <- data.frame(x = rep(seq(from=0, to=20, length=1000), times=5),
    theta = rep(c(0.25, 0.5, 1, 2, 4), each=1000))
x.df$pdf <- dgamma(x.df$x, shape=4/(x.df$theta)^2, scale=x.df$theta)
ggplot(x.df, aes(x=x, y=pdf, group=factor(theta), colour=factor(theta))) + theme_bw() + 
    geom_line(size=1) + scale_colour_brewer(name=expression(theta), palette="Set1") +
    theme(legend.key = element_blank()) + ggtitle("Gamma distributions with variance 4") +
    coord_cartesian(ylim = c(0, 1)) 
Lepisma
fuente
17

Suponiendo que quiere decir "¿es posible encontrar una distribución de probabilidad para ", entonces la respuesta es sí, ya que no ha especificado ningún criterio que deba satisfacer. De hecho, hay un número infinito de posibles distribuciones que satisfarían esta condición. Solo considere una distribución Normal, . Puede configurar y puede tomar cualquier valor que desee; entonces tendrá según sea necesario.X N ( x ; μ , σ 2 ) σ 2 = r μ V a r [ X ] = rXXN(x;μ,σ2)σ2=rμVar[X]=r

De hecho, la distribución Normal es bastante especial en este sentido, ya que es la distribución de probabilidad de entropía máxima para una media y varianza dada.

Daniel
fuente
tienes razón, lo corregí. ¿podría explicar más?
amiref
@AmirEf ¿Qué no está claro?
Daniel
66
No está nada claro qué más debe explicar Daniel; la respuesta aquí parece tratar con todo en su pregunta publicada.
Glen_b -Reinstate Monica
15

Esta pregunta puede interpretarse de una manera que la haga interesante y no del todo trivial. Dado algo que parece una variable aleatoria, ¿en qué medida es posible asignar probabilidades a sus valores (o cambiar las probabilidades existentes) de tal manera que su varianza sea igual a algún número r especificado previamente ? La respuesta es que todos los valores posibles r 0 son admisibles, hasta un límite determinado por el rango de X .Xrr0X

El interés potencial en dicho análisis radica en la idea de cambiar una medida de probabilidad, mientras se mantiene fija una variable aleatoria, para lograr un fin particular. Aunque esta aplicación es simple, muestra algunas de las ideas subyacentes al teorema de Girsanov , un resultado fundamental en las finanzas matemáticas.


Replanteemos esta pregunta de manera rigurosa y sin ambigüedades. Suponer

X:(Ω,S)R

es una función medible definida en un espacio de medida con sigma-álgebra S . Para un número real dado r > 0 , ¿cuándo es posible encontrar una medida de probabilidad P en este espacio para el que Var ( X ) = r ?ΩSr>0PVar(X)=r

Creo que la respuesta es que esto es posible cuando . sup(X)inf(X)>2r (La igualdad puede mantenerse si se alcanzan tanto el supremum como el infimum: es decir, en realidad son el máximo y el mínimo de). Cuandosup(X)=oinf(X)=-, esta condición no impone límite ar, y luego todos los valores no negativos de la varianza son posibles.Xsup(X)=inf(X)=r

La prueba es por construcción. Comencemos con una versión simple de la misma, para cuidar los detalles y precisar la idea básica, y luego pasar a la construcción real.

  1. Deje ser la imagen de X : esto significa que hay un ω xOhmio para los que X ( ω x ) = x . Defina la función de conjunto P : S[ 0 , 1 ] como el indicador de ω x : es decir, P ( A ) = 0 si ω xA y P ( A ) = 1 cuando ω xxXωxΩX(ωx)=xP:S[0,1]ωxP(A)=0ωxAP(A)=1 .ωxA

    Como , obviamente P satisface los dos primeros axiomas de probabilidad . Es necesario mostrar que satisface el tercero; a saber, que es sigma-aditivo. Pero esto es casi tan obvio: siempre que { E i , i = 1 , 2 , ... } es un conjunto finito o infinitamente contable de eventos mutuamente excluyentes, entonces ninguno de ellos contiene ω x - en cuyo caso P ( E i ) = 0 para todo iP(Ω)=1P{Ei,i=1,2,}ωxP(Ei)=0i--o exactamente uno de ellos contiene , en cuyo caso P ( E j ) = 1 para algún j particular y de lo contrario P ( E i ) = 0 para todo i j . En cualquier casoωxP(Ej)=1jP(Ei)=0ij

    P(iEi)=iP(Ei)

    porque ambos lados son ambos o ambos 1 .01

    Desde concentra toda la probabilidad en ω x , la distribución de X se concentra en x y X debe tener cero varianza.PωxXxX

  2. Sea dos valores en el rango de X ; es decir, X ( ω 1 ) = x 1 y X ( ω 2 ) = x 2 . De manera similar al paso anterior, defina una medida P como un promedio ponderado de los indicadores de ω 1 y ω 2 . Utilice pesos no negativos 1 - p y p para determinar p . Al igual que antes, encontramos que Px1x2XX(ω1)=x1X(ω2)=x2Pω1ω21pppP--ser una combinación convexa de las medidas del indicador discutidas en (1) - es una medida de probabilidad. La distribución de con respecto a esta medida es una distribución de Bernoulli ( p ) que ha sido escalada por x 2 - x 1 y desplazada por - x 1 . Como la varianza de una distribución de Bernoulli ( p ) es p ( 1 - p ) , la varianza de X debe ser ( x 2 - x 1 ) 2 p (X(p)x2x1x1(p)p(1p)X .(x2x1)2p(1p)

Una consecuencia inmediata de (2) es que cualquier para la que exista x 1x 2 en el rango de X y 0 p < 1 para la cualrx1x2X0p<1

r=(x2x1)2p(1p)

puede ser la varianza de . Desde 0 p ( 1 - p ) 1 / 4 , esto implicaX0p(1p)1/4

2r=4rrp(1p)=(x2x1)2=x2x1sup(X)inf(X),

con igualdad manteniendo si y solo si tiene un máximo y un mínimo.X

A la inversa, si excede este ligado de ( sup ( X ) - inf ( X ) ) 2 / 4 , entonces no hay solución posible, puesto que ya sabemos que la varianza de cualquier variable aleatoria acotado no puede exceder de una cuarta parte del cuadrado de su rango.r(sup(X)inf(X))2/4

whuber
fuente
3
Amigo, creo que estás en un nivel completamente diferente al OP.
Mark L. Stone
44
@ Mark Probablemente. (Creo que detectó una bocanada de humor muy seco aquí.) Pero cualquiera que aplique la etiqueta de estadística matemática a su publicación debería esperar este tipo de cosas :-).
whuber
2
Me recuerda cuando tomé una clase de 4 estudiantes del difunto profesor Samuel Karlin (de la fama de Karlin y Taylor, entre otras cosas) sobre "Positividad total". El tema de la teoría de juegos surgió de alguna manera. Él dijo, oh, teoría del juego. Tiene dos medidas no negativas sigma-finitas ... Ahora imagínelo presentando la teoría de juegos de esta manera a los estudiantes en una clase de economía de primer año en una universidad de artes liberales. Eso es lo que tu publicación me hizo pensar.
Mark L. Stone
@Mark Entendido. Uno no haría eso y tendría éxito. Como usted señala, estoy escribiendo aquí para (un subconjunto de) lectores generales en lugar de uno específico. Por otro lado, el tema abstracto no es difícil (en este nivel elemental) y ha demostrado ser accesible para estudiantes de secundaria motivados en las universidades de artes liberales. Vea los comentarios en stats.stackexchange.com/a/94876 por ejemplo.
whuber
44
@ MarkL.Stone Las respuestas son para algo más que el interlocutor inmediato (SE pretende ser un depósito de buenas preguntas y buenas respuestas valiosas para personas posteriores con preguntas similares), y ya tenemos respuestas para la vista más elemental de la pregunta aquí. . Algunos otros lectores pueden obtener algo de la versión menos elemental de las cosas, por lo que una variedad de estilos y niveles de respuesta hace que la pregunta sea útil para más personas.
Glen_b -Reinstate Monica
10

Sí, es posible encontrar dicha distribución. De hecho, puede tomar cualquier distribución con una variación finita y escalar para que coincida con su condición, porque

Var[cX]=c2Var[X]

Por ejemplo, una distribución uniforme en el intervalo tiene varianza: σ 2 = 1[0,1] Por lo tanto, una distribución uniforme en el intervalo[0,1

σ2=112
tendrá varianzar.[0,112r]r

De hecho, esta es una forma común de agregar parámetros a algunas distribuciones, como Student t. Tiene solo un parámetro, - grados de libertad. Cuando ν la distribución converge a una normal estándar. Tiene forma de campana y se parece mucho a lo normal, pero tiene colas más gordas. Es por eso que a menudo se usa como una alternativa a una distribución normal cuando las colas son gordas. El único problema es que la distribución gaussiana tiene dos parámetros. Entonces, viene la versión escalada de Student t, que a veces se denomina distribución de "escala de ubicación t" . Esta es una transformación muy simple: ξ = t - μνν , dondeμ,sson ubicación y escala. Ahora, puede establecer la escala de modo que la nueva variableξtenga cualquier varianza requerida y tenga una forma de distribución t de Student.ξ=tμsμ,sξ

Aksakal
fuente