Tomando la expectativa de la serie Taylor (especialmente el resto)

43

Mi pregunta se refiere a tratar de justificar un método ampliamente utilizado, es decir, tomar el valor esperado de la serie Taylor. Supongamos que tenemos una variable aleatoria X con media positiva μ y varianza σ2 . Además, tenemos una función, por ejemplo, log(x) .

Al hacer la expansión de Taylor de logX alrededor de la media, obtenemos

logX=logμ+Xμμ12(Xμ)2μ2+13(Xμ)3ξX3,
donde, como siempre,ξXes st|ξXμ|<|Xμ|.

Si tomamos una expectativa, obtendremos una ecuación aproximada a la que las personas generalmente se refieren como algo aparente (vea el signo en la primera ecuación aquí) :

ElogXlogμ12σ2μ2

PREGUNTA : Estoy interesado en cómo demostrar que el valor esperado del término restante es realmente insignificante, es decir,

E[(Xμ)3ξX3]=o(σ2)
(o, en otras palabras,E[o(Xμ)2]=o(E[(Xμ)2])).

Lo que intenté hacer : suponiendo que σ20 (que, a su vez, significa Xμ en P ), traté de dividir la integral en dos, rodeando μ con algo de ε -vicinidad Nε :

Rp(x)(xμ)3ξx3dx=xNεdx+xNεdx

El primero puede limitarse debido al hecho de que y, por lo tanto, 1 / ξ 3 no molesta. Pero con el segundo tenemos dos hechos concurrentes: por un lado P ( | X - μ | > ε ) 0 (como σ 20 ). Pero, por otro lado, no sabemos qué hacer con 1 / ξ 3 .0Nε1/ξ3

P(|Xμ|>ε)0
σ201/ξ3

Otra posibilidad podría ser intentar usar el lema de Fatou, pero no puedo entender cómo.

Agradecería cualquier ayuda o sugerencia. Me doy cuenta de que esta es una pregunta muy técnica, pero necesito analizarla para confiar en este método de "expectativa de Taylor". ¡Gracias!

PD: Lo comprobé aquí , pero parece que es otra cosa.

agronskiy
fuente
¿Por qué hay un signo menos frente al tercer término de la expansión Taylor? ¡También por qué en el cuarto término hay y no 3 ! ? ¿Qué me estoy perdiendo? 33!
Alecos Papadopoulos
@Alecos: mirada Justo en el º derivado del registro x . Eso responderá a sus dos preguntas. nlogx
cardenal
44
(+1) Este problema surgió recientemente en las discusiones de dos preguntas relacionadas con la búsqueda de los momentos de . Vale la pena tener cuidado adicional con tales asuntos. :-)X1
cardenal
1
La aproximación de primer orden en realidad puede ser mejor en algunos casos, debido al teorema del valor medio. No estoy seguro si el teorema del valor medio ayudaría en el caso general.
probabilityislogic
1
Yo hubiera pensado que el teorema de convergencia dominada podría ser útil en este caso, como la ecuación Es un intercambio de límites y la integración. E(o(..))=o(E(..))
probabilityislogic

Respuestas:

32

Tienes razón en ser escéptico de este enfoque. El método de la serie Taylor no funciona en general, aunque la heurística contiene un núcleo de verdad. Para resumir la discusión técnica a continuación,

  • Una fuerte concentración implica que el método de la serie Taylor funciona para funciones agradables
  • Las cosas pueden y van a ir dramáticamente mal para distribuciones de cola pesada o funciones no tan agradables

Como lo indica la respuesta de Alecos, esto sugiere que el método de la serie Taylor debería desecharse si sus datos pueden tener colas pesadas. (Profesionales de finanzas, te estoy mirando).

Como señaló Elvis, el problema clave es que la variación no controla los momentos más altos . Para ver por qué, simplifiquemos su pregunta lo más posible para llegar a la idea principal.

Supongamos que tenemos una secuencia de variables aleatorias con σ ( X n ) 0 como n .Xnσ(Xn)0n

P: ¿Podemos garantizar que como n ?E[|Xnμ|3]=o(σ2(Xn))n?

Como hay variables aleatorias con segundos momentos finitos e terceros momentos infinitos, la respuesta es rotundamente no . Por lo tanto, en general, el método de la serie Taylor falla incluso para polinomios de tercer grado . La repetición de este argumento muestra que no puede esperar que el método de la serie Taylor proporcione resultados precisos, incluso para polinomios, a menos que todos los momentos de su variable aleatoria estén bien controlados.

Entonces, ¿qué vamos a hacer? Ciertamente, el método funciona para variables aleatorias limitadas cuyo soporte converge a un punto, pero esta clase es demasiado pequeña para ser interesante. Supongamos, en cambio, que la secuencia proviene de una familia altamente concentrada que satisface (digamos)Xn

(1)P{|Xnμ|>t}eCnt2

para cada y algo de C > 0 . Tales variables aleatorias son sorprendentemente comunes. Por ejemplo, cuando X n es la media empíricat>0C>0Xn

Xn:=1ni=1nYi

YiXnp

E[|Xnμ|p](p2Cn)p/2.

fEmm

Em:=|E[f(Xn)]p=0mf(p)(μ)p!E(Xnμ)p|1(2Cn)(m+1)/2p=m+1|f(p)(μ)|pp/2p!

n>C/2p!pp1/2

(2)Em=O(n(m+1)/2) as nwheneverp=0p(1p)/2|f(p)(μ)|<.

Xnff(p)(μ)/p!=O(pp/2)fXn

ff(x)=1/xXnNormal(1,1/n)XnE[f(Xn)]=n. En otras palabras, tenemos una variable aleatoria acotada altamente concentrada, y aún así el método de la serie Taylor falla cuando la función tiene una sola singularidad.

Algunas palabras sobre rigor. Me parece más agradable presentar la condición que aparece en (2) como derivada en lugar de una deus ex machina que se requiere en un riguroso teorema / formato de prueba. Para que el argumento sea completamente riguroso, primero tenga en cuenta que el lado derecho en (2) implica que

E[|f(Xn)|]i=0|f(p)(μ)|p!E[|Xnμ|p]<

por la tasa de crecimiento de los momentos subgaussianos desde arriba. Por lo tanto, el teorema de Fubini proporciona

E[f(Xn)]=i=0f(p)(μ)p!E[(Xnμ)p]

El resto de la prueba procede como se indicó anteriormente.

Mike McCoy
fuente
1
Xlog(X)logX
2
X0<X<2μ
2
X(1,1)(0,2)μ=1f(x)=1/x=1/(1(1x))1(0,2μ)E[f(X)]
1
f(x)=1/x|f(p)(μ)|=p!/μp
(2)=p!p(1p/2)μp
μ>0log(p!f(p)(μ))/pf
1
[0+ε,2με]ε>0Em
10

Aunque mi respuesta en ninguna parte se acercará al nivel de sofisticación matemática de las otras respuestas, decidí publicarla porque creo que tiene algo que aportar, aunque el resultado será "negativo", como dicen.

En un tono ligero, diría que la OP es "reacia al riesgo" (como la mayoría de las personas, así como la ciencia misma), porque la OP requiere una condición suficiente para que la aproximación de expansión de la serie Taylor de segundo orden sea " aceptable". Pero es no una condición necesaria.

En primer lugar, un requisito previo necesario pero no suficiente para que el valor esperado del Remanente sea de orden inferior a la varianza del rv, como lo requiere el OP, es que la serie converja en primer lugar. ¿Deberíamos asumir la convergencia? No.

La expresión general que examinamos es

E[g(Y)]=fY(y)[i=0g(i)(μ)(yμ)ii!]dy[1]

Como Loistl (1976) afirma, haciendo referencia al libro "Cálculo y estadística" de Gemignani (1978, p. 170), una condición para la convergencia de la suma infinita es (una aplicación de la prueba de relación para convergencia)

yμ<|yμ|<limi|(g(i)(μ)g(i+1)(μ)(i+1))|[2]

μ

g()yμ0<y[2]

yμ<μ0<y<2μ

Esto significa que si nuestra variable varía fuera de este rango, la expansión de Taylor que tiene como centro de expansión la media de la variable divergerá.

Entonces: para algunas formas funcionales, el valor de una función en algún punto de su dominio es igual a su expansión de Taylor infinita, sin importar qué tan lejos esté este punto del centro de expansión. Para otras formas funcionales (logaritmo incluido), el punto de interés debería estar algo "cerca" del centro de expansión elegido. En el caso de que tengamos un rv, esto se traduce en una restricción en el soporte teórico de la variable (o un examen de su rango observado empíricamente).

Loitl, utilizando ejemplos numéricos, mostró también que aumentar el orden de la expansión antes del truncamiento podría empeorar las cosas para la precisión de la aproximación. Debemos notar que empíricamente, las series temporales de variables observadas en el sector financiero exhiben una variabilidad mayor que la requerida por la desigualdad. Entonces, Loitl abogó por que la metodología de aproximación de la serie Taylor se descartara por completo, con respecto a la Teoría de elección de cartera.

El repunte se produjo 18 años después de Hlawitschka (1994) . La valiosa información y el resultado aquí fue, y cito

... aunque una serie puede finalmente converger, poco se puede decir sobre cualquiera de sus series parciales; La convergencia de una serie no implica que los términos disminuyan inmediatamente de tamaño o que cualquier término en particular sea lo suficientemente pequeño como para ser ignorado. De hecho, es posible, como se demuestra aquí, que una serie parezca divergir antes de finalmente converger en el límite. Las aproximaciones de calidad de momento a la utilidad esperada que se basan en los primeros términos de una serie de Taylor, por lo tanto, no pueden determinarse por las propiedades de convergencia de la serie infinita. Este es un tema empírico, y empíricamente, las aproximaciones de dos momentos a las funciones de utilidad estudiadas aquí funcionan bien para la tarea de selección de cartera. Hlawitschka (1994)

E(g(Y) que siempre dio resultados cuantitativos que estaban lo suficientemente cerca de este valor exacto (ver su tabla A1 en la p. 718).

Entonces, ¿dónde nos deja eso? En el limbo, diría. Parece que tanto en la teoría como en la empírica, la aceptabilidad de la aproximación de Taylor de segundo orden depende de manera crítica de muchos aspectos diferentes del fenómeno específico en estudio y de la metodología científica empleada. Depende de los supuestos teóricos, de las formas funcionales utilizadas. sobre la variabilidad observada de la serie ...

Pero terminemos esto positivamente: hoy en día, la energía de la computadora sustituye a muchas cosas. Entonces podríamos simular y probar la validez de la aproximación de segundo orden, para una amplia gama de valores de la variable a bajo costo, ya sea que trabajemos en un problema teórico o empírico.

Alecos Papadopoulos
fuente
8

No es una respuesta real, sino un ejemplo para mostrar que las cosas no son tan agradables y que se necesitan hipótesis adicionales para que este resultado sea cierto.

XnU([1n;1n])N(nn1,1n)1n11n=n1nE(Xn)=10n

E(Xn2)=13n2×1n+((nn1)2+1n)×n1n,

f(x)=1/xf(0)=0f(Xn)

1n1n1xdx
n

fXn

PD. ¿No es este ejemplo un contraejemplo a la respuesta de Nick? ¿Quién se equivoca entonces?

Elvis
fuente
1
E[Xk]k=1,2,3
f(x)x=μf(x)=1xx=0f
μ=1
1
Elvis, sí, necesitamos una condición global. Esencialmente, el resto tiene que comportarse bien después de ser ponderado por las colas de la distribución. Para algo similar a su ejemplo que apareció recientemente, vea aquí , aquí y aquí .
Cardenal
4

Esta no es una respuesta completa, solo una forma diferente de llegar a la aproximación de segundo orden.

f(X)=f(μ)+f(ξ1)(Xμ)

Xξ1μXμXξ1μXμf(ξ1)

f(ξ1)=f(μ)+f(ξ2)(ξ1μ)

para algunos cuando o cuando . poner esto en el primer fomula daXξ1ξ2μXμXξ1ξ2μXμ

f(X)=f(μ)+f(μ)(Xμ)+f(ξ2)(ξ1μ)(Xμ)

Tenga en cuenta que este resultado solo requiere que sea ​​continua y dos veces diferenciable entre y . Sin embargo, esto solo se aplica a una fija , y cambiar significará un cambio correspondiente en . El método delta de segundo orden puede verse como una suposición global de que y en todo el rango del soporte de , o al menos sobre la región de alta probabilidad de masa.X μ X X ξ i ξ 1 - μ = 1fXμXXξiξ2=μXξ1μ=12(Xμ)ξ2=μX

probabilidadislogica
fuente