Límites en en términos de además de la desigualdad de Jensen?

21

Si es una función convexa, la desigualdad de Jensen establece que , y mutatis mutandis cuando es cóncava. Claramente, en el peor de los casos, no puede el límite superior en términos de para una convexa , pero ¿hay un límite que vaya en esta dirección si es convexo pero "no demasiado convexo"? ¿Existe algún límite estándar que proporcione condiciones en una función convexa (y posiblemente también la distribución, si es necesario) que le permita concluir que \ textbf {E} [f (x)] \ le \ varphi (f) f (\ textbf {E} [x]) , donde \ varphi (f)ff(E[x])E[f(x)]fE[f(x)]f(E[x])fffmi[F(X)]φ(F)F(mi[X])φ(f)¿alguna función de la curvatura / grado de convexidad de ? ¿Algo parecido a una condición de Lipschitz, tal vez?f

Ian
fuente
Votación para cerrar como fuera de tema. math.stackexchange.com tal vez?
Aryabhata
77
Creo que esta pregunta debería permanecer abierta; Este es el tipo de desigualdad que muchos teóricos que trabajan encontrarían útil regularmente.
Aaron Roth el
10
Sé que esto está más cerca de las matemáticas puras que la mayoría de las preguntas publicadas hasta ahora, pero diría que esto es sobre el tema, ya que este tipo de cosas aparece con frecuencia en el análisis de algoritmos aleatorios (que es la aplicación que tengo en mente). Creo que las matemáticas que se usan mucho en informática deberían considerarse un juego justo para las preguntas.
Ian
66
vote para mantenerse abierto. definitivamente sobre el tema
Suresh Venkat
1
También voto para mantenerme abierto.
Jeff el

Respuestas:

21

EDITAR: la versión original perdió un valor absoluto. ¡¡lo siento!!

Hola, Ian. Brevemente describiré dos desigualdades de muestra, una usando un límite de Lipschitz, la otra usando un límite en la segunda derivada, y luego discutiré algunas dificultades en este problema. Aunque estoy siendo redundante, dado que un enfoque que usa una derivada explica lo que sucede con más derivadas (a través de Taylor), resulta que la segunda versión de derivada es bastante buena.

Primero, con un límite de Lipschitz: simplemente reelabora la desigualdad estándar de Jensen. Se aplica el mismo truco: calcular la expansión de Taylor en el valor esperado.

Específicamente, Sea medida correspondiente μ , y establezca m : = E ( x ) . Si f tiene Lipschitz constante L , entonces por el teorema de TaylorXμm:=E(x)fL

f(x)=f(m)+f(z)(xm)f(m)+L|xm|,

donde (nota que x m y x > m son posibles). Usando esto y volviendo a trabajar la prueba de Jensen (estoy paranoico y verifiqué que el estándar está en Wikipedia),z[m,x]xmx>m

E(f(X))=f(x)dμ(x)f(m)dμ(x)+L|xm|dμ(x)=f(E(X))+LE(|XE(X)|).

Ahora, supongamos . En este caso,|f(x)|λ

f(x)=f(m)+f(m)(xm)+f(z)(xm)22f(m)+f(m)(xm)+λ(xm)22,

y entonces

E(f(X))f(m)+f(m)(E(X)m)+λE((Xm)2)2=f(E(X))+λVar(X)2.

Me gustaría mencionar brevemente algunas cosas. Lo siento si son obvios.

Una es que no puedes decir simplemente "wlog " cambiando la distribución, porque estás cambiando la relación entre f y μ .E(X)=0fμ

El siguiente es que el límite debe depender de la distribución de alguna manera. Para ver esto, imaginar que y f ( x ) = x 2 . Cualquiera sea el valor de σ , aún obtienes f ( E ( X ) ) = f ( 0 ) = 0 . Por otro lado, E ( f ( X ) ) = E ( XXGaussian(0,σ2)f(x)=x2σf(E(X))=f(0)=0 . Por lo tanto, al cambiar σ , puede hacer que la brecha entre las dos cantidades sea arbitraria. Intuitivamente, se aleja más masa de la media y, por lo tanto, para cualquier función estrictamente convexa, E ( f ( X ) ) aumentará.E(f(X))=E(X2)=σ2σE(f(X))

Por último, no veo cómo obtener un límite multiplicativo como sugieres. Todo lo que he usado en esta publicación es estándar: el teorema de Taylor y los límites derivados son pan y mantequilla en los límites estadísticos, y automáticamente dan errores aditivos, no multiplicativos.

Sin embargo, lo pensaré y publicaré algo. La vaga intuición es que necesitará condiciones muy difíciles tanto en la función como en la distribución, y que el límite aditivo está realmente en el centro de la misma.

matus
fuente
Cada vez que edito, la respuesta se topa. Así que señalaré: el segundo límite derivado es ajustado para el ejemplo que di.
matus
Creo que tienes razón en que los límites aditivos son los mejores posibles sin condiciones mucho más fuertes en la función.
Ian
Estimado Ian, pensé en este problema un poco más, pero la principal dificultad en mi mente se insinúa en el ejemplo que di, donde , pero E ( f ( X ) ) > 0 . Puede restringir tanto la familia de funciones (derivadas, derivadas limitadas, integrables) como la distribución (momentos suaves, acotados, limitados), y aún tiene estos ejemplos. Es suficiente tener una función simétrica, no negativa, igual a cero en la media de la distribución. Dicho esto, todo depende de las restricciones en su problema exacto. En el caso general, creo que la naturaleza aditiva es fundamental.F(mi(X))=0 0mi(F(X))>0 0
matus
@ Ian: Las pruebas de las desigualdades de Chernoff y Azuma-Hoeffding utilizan argumentos que recuerdan esto, por lo que es posible que desee leerlos para inspirarse. Véase, por ejemplo, el libro de Mitzenmacher y Upfal sobre aleatorización en informática.
Warren Schudy
3

Para una idea, considere una distribución concentrada en dos valores; digamos, con probabilidades iguales de 1/2 que es igual a 1 o 3, de donde . Tomar N > > 0 y ε > 0 . Considere las funciones f para las cuales f ( 1 ) = f ( 3 ) = N ϵ y f ( E [ x ] ) = f ( 2 ) = ϵ . Haciendomi[X]=2norte>>0 0ϵ>0 0FF(1)=F(3)=norteϵF(mi[X])=F(2)=ϵ suficientemente pequeño y conectando f continuamente entre estos tres puntos, podemos hacer que la curvatura de f sea tan pequeña como se desee. LuegoϵFF

, aúnmi[F(X)]=norteϵ

.N=Nϵ/ϵ=E[f(x)]/f(E[x])φ(f)

Esto muestra que debe ser arbitrariamente grande.φ(f)

whuber
fuente