Estoy confundido al aplicar la expectativa en el denominador.
E ( 1 / X ) =?
puede ser 1 / E ( X )
expected-value
Shan
fuente
fuente
Respuestas:
No, en general no puede; La desigualdad de Jensen nos dice que si XX es una variable aleatoria y φφ es una función convexa, entonces φ ( E [ X ] ) ≤ E [ φ ( X ) ]φ(E[X])≤E[φ(X)] . Si XX es estrictamente positivo, entonces 1 / X1/X es convexo, entonces E [ 1 / X ] ≥ 1 / E [ X ]E[1/X]≥1/E[X] , y para una función estrictamente convexa, la igualdad solo ocurre si XX tiene cero varianza ... así que en los casos en que tendemos a interesarnos, los dos son generalmente desiguales.
Suponiendo que estamos tratando con una variable positiva, si está claro para usted que XX y 1 / X1/X estarán inversamente relacionados ( Cov ( X , 1 / X ) ≤ 0Cov(X,1/X)≤0 ), entonces esto implicaría E ( X ⋅ 1 / X ) - E ( X ) E ( 1 / X ) ≤ 0E(X⋅1/X)−E(X)E(1/X)≤0 que implica E ( X ) E ( 1 / X ) ≥1E(X)E(1/X)≥1 , entonces E ( 1 / X ) ≥ 1 / E ( X )E(1/X)≥1/E(X) .
Usa la ley del estadístico inconsciente
E [ g ( X ) ] = ∫ ∞ - ∞ g ( x ) f X ( x ) d x
(en el caso continuo)
entonces cuando g ( X ) = 1Xg(X)=1X ,E[1X ]=∫ ∞ - ∞ f(x)x dxE[1X]=∫∞−∞f(x)xdx
En algunos casos, la expectativa se puede evaluar mediante inspección (por ejemplo, con variables aleatorias gamma), o derivando la distribución de la inversa, o por otros medios.
fuente
Como Glen_b dice que probablemente eso esté mal, porque el recíproco es una función no lineal. Si desea una aproximación a E ( 1 / X ),E(1/X) tal vez pueda usar una expansión de Taylor alrededor de E ( X )E(X) :
E ( 1X )≈E(1E ( X ) -1E ( X ) 2 (X-E(X))+1E ( X ) 3 (X-E(X))2)== 1E ( X ) +1E ( X ) 3 Var(X),E(1X)≈E(1E(X)−1E(X)2(X−E(X))+1E(X)3(X−E(X))2)==1E(X)+1E(X)3Var(X)
por lo que solo necesita la media y la varianza de X, y si la distribución deXX es simétrica, esta aproximación puede ser muy precisa.
EDITAR: lo que tal vez arriba es bastante crítico, vea el comentario de BioXX a continuación.
fuente
Others have already explained that the answer to the question is NO, except trivial cases. Below we give an approach to finding E1XE1X when X>0X>0 with probability one, and the moment generating function MX(t)=EetXMX(t)=EetX do exist. An application of this method (and a generalization) is given in Expected value of 1/x1/x when xx follows a Beta distribution, we will here also give a simpler example.
First, note that ∫∞0e−txdt=1x∫∞0e−txdt=1x (simple calculus exercise). Then, write
E(1X)=∫∞0x−1f(x)dx=∫∞0(∫∞0e−txdt)f(x)dx=∫∞0(∫∞0e−txf(x)dx)dt=∫∞0MX(−t)dt
fuente
An alternative approach to calculating E(1/X)E(1/X) knowing X is a positive random variable is through its moment generating function E[e−λX]E[e−λX] .
Since by elementary calculas
∫∞0e−λxdλ=1x
fuente
To first give an intuition, what about using the discrete case in finite sample to illustrate that E(1/X)≠1/E(X) (putting aside cases such as E(X)=0)?
In finite sample, using the term average for expectation is not that abusive, thus if one has on the one hand
E(X)=1N∑Ni=1Xi
and one has on the other hand
E(1/X)=1N∑Ni=11/Xi
it becomes obvious that, with N>1,
E(1/X)=1N∑Ni=11/Xi≠N∑Ni=1Xi=1/E(X)
Which leads to say that, basically, E(1/X)≠1/E(X) since the inverse of the (discrete) sum is not the (discrete) sum of inverses.
Analogously in the asymptotic 0-centered continuous case, one has
E(1/X)=∫∞−∞f(x)xdx≠1/∫∞−∞xf(x)dx=1/E(X).
fuente