limite de

8

Me pregunto si mostrar que el límite: donde \ overline {F} = 1-F es la función de distribución de cola, \ overline {F} (x) = 1 − F (x) , donde F es la función de distribución acumulativa

limxxF¯(x)=0
F¯=1FF¯(x)=1F(x)F

Como x , F¯0 , entonces tenemos forma indeterminada, reescribo como:

limxF¯(x)1/x
y use la regla de L'Hôpital :
limxf(x)1/x2
pero esto requiere el conocimiento de f como x que no tener.

¿Cómo evalúo este límite?

dimebucker91
fuente
1
Debe aclarar sus suposiciones: el resultado reclamado no es cierto en general (por ejemplo, para Pareto), pero se cumple cuando X es positivo E[X]< . Sugerencia: use xPr{X>x}E[X1{X>x}] .
Yves
@ Nitpicking solitario un poco, pero la condición es en realidad un poco más débil que requiere integrabilidad. Por ejemplo, uno puede mostrar xpPr{|X|>x}0 implica E[|X|q]< para todos q estrictamente menos que p . Pero no es cierto para q=p en general. Fuera de mi cabeza, creo que la densidad proporcional a 1/[xp+1logx] para x>2 da el contraejemplo, pero confieso que no he hecho los cálculos.
chico
Esto se demuestra en un documento con un nombre tonto, la regla de Darth Vader en la página 2. Este documento no trata exactamente de su pregunta, pero sí responde a su pregunta.
RayVelcoro

Respuestas:

8

Asumiendo que existe la expectativa y por conveniencia de que la variable aleatoria tiene una densidad (equivalente a que es absolutamente continua con respecto a la medida de Lebesgue), vamos a demostrar que

limxx[1F(x)]=0

La existencia de la expectativa implica que la distribución no tiene mucha cola, a diferencia de la distribución de Cauchy, por ejemplo.

Como existe la expectativa, tenemos que

E(X)=limuuxf(x)dx=xf(x)dx<

y esto siempre está bien definido. Ahora tenga en cuenta que para ,u0

uxf(x)dxuuf(x)dx=u[1F(u)]

y de estos dos se deduce que

limu[E(X)uxf(x)dx]=limuuxf(x)dx=0

como en el límite, el término acerca a la expectativa. Por nuestra desigualdad y la no negatividad del integrando entonces, tenemos nuestro resultado.uxf(x)dx

Espero que esto ayude.

JohnK
fuente
44
Gracias (+1) Relajando la suposición: cuando, por ejemplo, es una distribución de Cauchy, entonces el valor límite de es , no cero. Para distribuciones Student con un parámetro menor que ( denota el Cauchy), este límite es infinito. Fx(1F(x))1/πt11
whuber
5

Para cualquier variable aleatoria no negativa , hemos (ver (21.9) de Billingsley 's Probabilidad y medida ): Para , reemplazar por conduce de a Y

(*)E[Y]=YdP=0P[Y>t]dt.
M>0YXI[X>M]()
(**)XI[X>M]dP=MP[X>M]+MP[X>t]dtMP[X>M].

Suponga que es integrable (es decir, ), entonces el lado izquierdo de converge a como , por el teorema de convergencia dominado. Luego se deduce que Por lo tanto, el resultado sigue.XE[|X|]<()0M

0lim supMMP[X>M]lim infMMP[X>M]0.

Observación: esta prueba utiliza alguna teoría de la medida, que creo que vale la pena, ya que la prueba que supone la existencia de densidades no aborda una clase mayoritaria de variables aleatorias, por ejemplo, variables aleatorias discretas como binomial y Poisson.

Zhanxiong
fuente
44
La prueba realmente no requiere que sea ​​integrable, sino solo que sea ​​tal para algunos finitos , por lo tanto, puede tener una cola izquierda pesada. La identidad del libro de Billingsley no es realmente necesaria ya que tiende a para con probabilidad uno. XX1{X>x0}x0XX1{X>x}0x
Yves
@ Yves @ chico Sí, buen punto. La integrabilidad es solo una condición suficiente pero nunca necesaria. Sin embargo, podría ser la condición más sucinta y normal impuesta para derivar la relación solicitada por OP.
Zhanxiong
OKAY. Alternativa sucinta: . E(X+)<
Yves
@Yves Por supuesto :)
Zhanxiong