Hola
No. Cunado una función [texx]g[/texx] es convexa tenemos que [texx]g(\mathbb{E}[Z])\leq\mathbb{E}[g(Z)],[/texx] (creo que el_manco tuvo un error de tipeo).
No, es que yo estaba pensando en una función cóncava. Cuando es cóncava la desigualdad es al revés:
[texx]\mathbb{E}[g(Z)]\leq g(\mathbb{E}[Z])[/texx]
que es lo que yo pretendía usar. El problema es que como bien dices, no es cóncava (me precipité haciendo un gráfico rápido en un intervalo demasiado pequeño).
Sin embargo la función definida por [texx]f(x)=\frac{1}{a+(b+x)^{2}}[/texx] no es ni cóncava ni convexa, tiene partes donde es cóncava y partes donde es convexa. Si no me he equivocado en las cuentas ocurre que [texx]f[/texx] es convexa en el intervalo [texx][-b+\sqrt{a/3},+\infty{\color{blue})}.[/texx] Entonces si en nuestro problema hacemos que el valor de [texx]m[/texx] crezca de modo que esta condición se satisfaga obtendremos, para [texx]g(y)=\frac{1}{\sigma_{X}^{2}+(y+\mu_{X})^{2}}[/texx] (convexa en un intervalo adecuado) y [texx]Z=Y{\bf 1}_{\{Y> m\}}[/texx] (para un conveniente valor de [texx]m[/texx]) funcionaría la desigualdad de Jensen. Observa que [texx]g[/texx] se evalúa en [texx]Y{\bf 1}_{\{Y> m \}},[/texx] luego directamente de la desigualdad [texx]g(\mathbb{E}[Y{\bf 1}_{\{Y> m\}}])\leq\mathbb{E}[g(Y{\bf 1}_{\{Y> m\}})][/texx] obtenemos lo que el_manco mencionó más arriba.
Pero la convexidad no ayuda. ¿No?.
Nostros queremos acotar:
[texx]E[g(Z)]\leq algo[/texx]
La desigualdad de Jensen para convexas nos da lo contrario:
[texx]g(E[Z])\leq algo[/texx]
No hay una errata en el denominador [texx]\mu_X[/texx] está al cuadrado?
Sí hay errata, en realidad debe ser [texx]\mu_{X}[/texx] en lugar de [texx]\mu_{X}^{2}.[/texx]
Ya lo he corregido. Gracias.
Es que con el grado de generalidad que tenemos podemos decir que nuestra cota superior es óptima, (de hecho incluso la cota que obtenemos luego de aplicar la desigualdad de Jensen). Para construir ejemplos que muestren eso podemos empezar considerando [texx]X[/texx] con soporte en [texx]\{-1,1\}[/texx] tal que [texx]\mathbb{P}[X=-1]=\mathbb{P}[X=1]=1/2[/texx] e [texx]Y[/texx] siendo una variable constante igual a [texx]1-\delta[/texx] (pensando en [texx]\delta>0[/texx] como un número pequeño). Con esta elección, como [texx]\mu_{X}=0[/texx] y [texx]\sigma_{X}=1,[/texx] nuestra cota superior se convierte en
[texx]\mathbb{P}[X+Y<0]\leq\dfrac{\sigma_{X}^{2}}{\sigma_{X}^{2}+(1-\delta)^{2}}=\dfrac{1}{1+(1-\delta)^{2}}=:C(\delta).[/texx]
Por otro lado, tenemos que el verdadero valor de la probabilidad es [texx]\mathbb{P}[X+Y<0]=\mathbb{P}[X<-1+\delta]=\mathbb{P}[X=-1]=1/2.[/texx] Ahora, notemos que cuando [texx]\delta\to0[/texx] nuestra cota [texx]C(\delta)[/texx] tiende al verdadero valor, es decir [texx]\lim_{\delta\to 0}C(\delta)=1/2.[/texx] Entonces podemos decir que nuestra cota es en cierto sentido óptima.
Pero me parece una concepción demasiado poco exigente de cota óptima. Ten en cuenta que el planteamiento de Quema [texx]\mu_X,\sigma_X,\mu_Y,\sigma_Y[/texx] son datos prefijados.
Es decir yo entiendo así el problema general:
PROBLEMA 1) Dadas [texx]\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2[/texx] encontrar [texx]f(\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2)[/texx] tal que para cualquier para de variables aleatorias independientes [texx]X,Y[/texx] con las medias y varianzas indicadas:
[texx]P(X+Y<0)\leq f(\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2)[/texx]
La cota es óptima si para cualquier [texx]\alpha<f(\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2)[/texx] existen variable [texx]X,Y[/texx] en las condiciones indicadas tales que [texx]P(X+Y<0)>\alpha.[/texx]
En particular sería óptima si para algún par de variables [texx]X,Y[/texx] en las condiciones dadas se alcanza la cota.
O también un problema más particular:
PROBLEMA 2) Dada una variable aletoria [texx]Y[/texx] (Quema sugería la normal) y [texx]\mu_X,\sigma^2_X[/texx] encontrar [texx]f(\mu_X,\sigma_X^2)[/texx] tal que para cualquier variable [texx]X[/texx] independiente de [texx]Y[/texx] con la media y varianza dadas:
[texx]P(X+Y<0)\leq f(\mu_X,\sigma_X^2)[/texx]
La cota es óptima si para cualquier [texx]\alpha<f(\mu_X,\sigma_X^2)[/texx] existe variable [texx]X[/texx] en las condiciones indicadas tales que [texx]P(X+Y<0)>\alpha.[/texx]
Saludos.