Matemática => Probabilidad => Mensaje iniciado por: Quema en 08/04/2017, 12:09:49 pm



Título: Chebyschev
Publicado por: Quema en 08/04/2017, 12:09:49 pm
Hola

Dada una variable aleatoria [texx]X[/texx] con media [texx]\mu_X[/texx] y varianza [texx]\sigma_X^2[/texx], sabemos que:

[texx]P(X<-a)\leq{}\displaystyle\frac{1}{1+b^2}[/texx] siendo [texx]b=\displaystyle\frac{a+\mu_X}{\sigma_X}[/texx] y [texx]a>0[/texx]. Ahora, esto se cumple siempre que [texx]a+\mu_X>0[/texx].

1) Se puede encontrar una cota superior, interesante si [texx]a+\mu_X<0[/texx]?.

2) Supongamos que en  lugar de [texx]a[/texx] ser un número es una variable aleatoria [texx]Y[/texx]  con media [texx]\mu_Y[/texx] y varianza [texx]\sigma_Y^2[/texx], supongamos que es independiente a [texx]X[/texx] ¿cuál sería la versión de la desigualdad para

[texx]P(X+Y<0)\leq{}?[/texx]


Saludos


Título: Re: Chebyschev
Publicado por: EnRlquE en 12/04/2017, 08:50:26 pm
Hola Quema.

 No estoy seguro exactamente a qué tipo de desigualdad te refieres cuando dices [texx]a+\mu_{X}<0.[/texx] La desigualdad que escribes es conocida como la desigualdad de Cantelli (https://en.wikipedia.org/wiki/Cantelli%27s_inequality). En el enlace que acabo de escribir está enunciada con otra notación, pero es exactamente la misma. El caso [texx]\lambda<0[/texx] de la Wikipedia corresponde al caso [texx]a+\mu_{X}>0[/texx] que presentas en tu pregunta. La desigualdad de Cantelli tiene una segunda parte donde (con la notación de la Wikipedia) se considera [texx]\lambda<0;[/texx] pero no estoy seguro si es una versión de ese tipo lo que esperas.

 Sobre la parte en la que [texx]Y[/texx] es independiente de [texx]X,[/texx] yo creo que además de saber la media y la varianza de [texx]Y[/texx] tendríamos que saber dónde está soportada la variable. Por ejemplo si [texx]Y[/texx] asume únicamente valores positivos y además [texx]\mu_{X}+Y>0[/texx], estamos en el caso de una de las desigualdades de Cantelly y tendríamos que

\begin{align*}(\;\mathbb{P}[X+Y<0]= \; )\quad\mathbb{E}[{\bf 1}_{\{X+Y<0\}}]&=\int\Big(\int{\bf 1}_{\{x+y<0\}}\,d\mathbb{P}_{X}(x)\Big)\,d\mathbb{P}_{Y}(y)\\&=\int\mathbb{E}[{\bf 1}_{\{X+y<0\}}]\,d\mathbb{P}_{Y}(y)\\&\leq \int \frac{\sigma_{X}^{2}}{\sigma_{X}^{2}+(y+\mu_{X})^{2}}\,d\mathbb{P}_{Y}(y)\\&=\sigma_{X}^{2}\mathbb{E}\Big[\frac{1}{\sigma_{X}^{2}+(Y+\mu_{X})^{2}}\Big].
\end{align*}

 Si la variable [texx]Y[/texx] fuese discreta, las anteriores desigualdades quedarían, tal vez, más claras con sumatorias y esperanza condicional, pero el resultado sería el mismo. No se si esto te sea útil, ahora no veo como acotar la última esperanza para que quede una expresión más limpia que sólo dependa de [texx]\mu_{X},\;\mu_{Y},\;\sigma_{X}[/texx] y [texx]\sigma_{Y}.[/texx]

Saludos,

Enrique.


Título: Re: Chebyschev
Publicado por: Quema en 18/04/2017, 02:30:15 pm
Hola

Si tengo una variable aleatoria [texx]X[/texx] con media [texx]\mu_X[/texx] y varianza [texx]\sigma_X^2[/texx] y otra variable aleatoria [texx]Y[/texx] con distribución Normal [texx]N(\mu_Y,\sigma_Y^2)[/texx] independiente de [texx]X[/texx] puedo decir algo respecto a la cota superior de [texx]P(X+Y<0)[/texx]. Creo que se puede hallar la esperanza que puso EnRiquE (ahora me doy cuenta que no, pues [texx]Y[/texx] tiene que ser positiva), pero la cota para que sea interesante tiene que ser menor a uno, obviamente, no?

Se puede aplicar algún resultado del artículo adjunto?

Saludos






Título: Re: Chebyschev
Publicado por: EnRlquE en 18/04/2017, 04:25:10 pm
Hola Quema.

Se puede aplicar algún resultado del artículo adjunto?

 Lo veo difícil, la desigualdad de las notas es una desigualdad tipo Azuma (https://en.wikipedia.org/wiki/Azuma%27s_inequality) que se usa mayormente para probar decaimiento exponencial al comparar cantidad más o menos parecidas. En nuestro caso el problema es que cuando la variable [texx]Y[/texx] es negativa no tenemos cotas superiores (al menos no conozco ni he conseguido probar ninguna) para la probabilidad del evento [texx]\{X+Y<0\}.[/texx]

 Si no estas interesado en cotas muy finas tal vez en el último caso que nos cuentas te pueda funcionar lo siguiente: Si llamamos [texx]m=\max\{0,-\mu_{X}\},[/texx] gracias a que [texx]X+Y\leq X+Y{\bf 1}_{\{Y\geq m\}}[/texx] obtenemos que

[texx]\displaystyle\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0]\leq\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx]

que es una desigualdad donde básicamente sólo aprovechamos la parte en que [texx]Y[/texx] es positiva.

Saludos,

Enrique.

Nota: Ver la respuesta #27 (http://rinconmatematico.com/foros/index.php?topic=94445.msg381910#msg381910), la desigualdad [texx]\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0][/texx] está MAL.


Título: Re: Chebyschev
Publicado por: Quema en 18/04/2017, 04:28:24 pm
Hola

Y eso con [texx]Y[/texx] Normal da muy cerca de uno?

Saludos


Título: Re: Chebyschev
Publicado por: EnRlquE en 18/04/2017, 04:41:10 pm
Depende de los valores de las medias y varianzas de las variables. Por ejemplo cuando [texx]\mu_{X}>0,[/texx] como [texx]Y{\bf 1}_{\{Y>m\}}+\mu_{X}>\mu_{X}[/texx] tenemos que

[texx]\displaystyle\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big]\leq \sigma^{2}\mathbb{E}\Big[\frac{1}{\sigma_{X}^{2}+\mu_{X}^{2}}\Big]=\frac{\sigma_{X}^{2}}{\sigma_{X}^{2}+\mu_{X}^{2}}<1.[/texx]

El cálculo exacto de la integral mejora la cota, que definitivamente será menor que uno. Nota que para esto no necesitamos que [texx]Y[/texx] sea normal. En el caso en que [texx]\mu_{X}\leq0[/texx] lo buena que sea la cota que tenemos empieza a depender más de la distribución de [texx]Y.[/texx] En este caso, mientras [texx]\mu_{Y}[/texx] sea "suficientemente" grande deberíamos obtener valores menores que uno.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 18/04/2017, 04:52:01 pm
Hola

En la aplicación que estoy pensando [texx]\mu_X>0[/texx]. Esta cota que no depende de la distribución de [texx]Y[/texx] es la mejor cota que se puede obtener? Es decir, si tuviera la media y la varianza de [texx]Y[/texx] debería poder mejorarse, creo. Con más información debería poder ajustar más la cota.

Saludos


Título: Re: Chebyschev
Publicado por: EnRlquE en 18/04/2017, 05:03:58 pm
En la aplicación que estoy pensando [texx]\mu_X>0[/texx]. Esta cota que no depende de la distribución de [texx]Y[/texx] es la mejor cota que se puede obtener?

No, la cota superior [texx]\frac{\sigma^{2}_{X}}{\sigma^{2}_{X}+\mu^{2}_{X}}[/texx] no es óptima, sólo la escribí para mostrar que lo que obtengamos con [texx]\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx] será menor que uno. Si queremos una cota mejor habrá que calcular esta esperanza o estimarla teniendo en cuenta la distribución de [texx]Y.[/texx]

Es decir, si tuviera la media y la varianza de [texx]Y[/texx] debería poder mejorarse, creo. Con más información debería poder ajustar más la cota.

Exacto, el cálculo de la esperanza mejora la cota.

Saludos,

Enrique.


Título: Re: Chebyschev
Publicado por: Quema en 18/04/2017, 05:05:31 pm
Hola

En este artículo habla algo de eso yo no lo pude conseguir

http://www.tandfonline.com/doi/abs/10.1080/01621459.1962.10482149

En el adjunto hay más desigualdades con poca información sobre las variables aleatorias, claro pero con soporte positivo.

Saludos


Título: Re: Chebyschev
Publicado por: EnRlquE en 18/04/2017, 05:46:48 pm
Hola.

 Por lo que veo en ese artículo se tratan desigualdades de concentración, nuevamente comparando cantidades cercanas se obtienen decaimientos exponenciales. En concreto se consideran variables [texx]X_{1},\dots, X_{n}[/texx] independientes con sus respectivas medias [texx]M_{i}[/texx] (que se asumen iguales a cero para simplificar) y varianzas [texx]\sigma_{i}^{2}.[/texx] Luego, bajo la hipótesis de que existen contantes [texx]M_{i}[/texx] tales que [texx]|X_{i}|\leq M_{i},[/texx] y llamando [texx]S=X_{1}+\dots+X_{n}[/texx] y [texx]\sigma^{2}=\text{Var}(S)[/texx] se obtienen cotas del tipo

[texx]\mathbb{P}[S\geq\sigma t]\leq f(t)e^{g(t)}.[/texx]

Lo malo es que en nuestro caso creo que no nos sirven porque en principio no tenemos las variables acotadas y tampoco están centradas. Además las cotas del artículo funcionan (o son interesantes) cuando de [texx]t[/texx] es un valor positivo "grande". De hecho para [texx]t=0[/texx] pasa que [texx]f(t)=1[/texx] y [texx]g(t)=0[/texx] obteniéndose que [texx]\mathbb{P}[S\geq 0]\leq 1,[/texx] que es trivial.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 19/04/2017, 09:09:51 am
Hola

Adjunto algunos artículos con desigualdades de esta probabilidad.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 19/04/2017, 11:50:41 am
Hola

Depende de los valores de las medias y varianzas de las variables. Por ejemplo cuando [texx]\mu_{X}>0,[/texx] como [texx]Y{\bf 1}_{\{Y>m\}}+\mu_{X}>\mu_{X}[/texx] tenemos que

[texx]\displaystyle\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big]\leq \sigma^{2}\mathbb{E}\Big[\frac{1}{\sigma_{X}^{2}+\mu_{X}^{2}}\Big]=\frac{\sigma_{X}^{2}}{\sigma_{X}^{2}+\mu_{X}^{2}}<1.[/texx]

El cálculo exacto de la integral mejora la cota, que definitivamente será menor que uno. Nota que para esto no necesitamos que [texx]Y[/texx] sea normal. En el caso en que [texx]\mu_{X}\leq0[/texx] lo buena que sea la cota que tenemos empieza a depender más de la distribución de [texx]Y.[/texx] En este caso, mientras [texx]\mu_{Y}[/texx] sea "suficientemente" grande deberíamos obtener valores menores que uno.

Teniendo en cuenta que:

[texx]g(y)=\dfrac{1}{\sigma^2_X+(y+\mu_X)^2}[/texx]

es cóncava (¡NO LO ES!) por la desigualdad de Jensen se tiene:

[texx]\displaystyle\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big]\leq \frac{\sigma_{X}^{2}}{\sigma^2_X+(E[Y{\bf1}_{\{Y>m\}}]+\color{red}\mu_{X}\color{black})^2}[/texx]

Saludos.

CORREGIDO


Título: Re: Chebyschev
Publicado por: Quema en 19/04/2017, 11:57:28 am
Hola

[texx]Eg(Y)=E(\displaystyle\frac{1}{\sigma^2+(Y+\mu)^2})\leq{}g(E(\displaystyle\frac{1}{\sigma^2+(Y+\mu)^2}))[/texx], se puede luego tomar la razón de las esperanzas? Si creo que si pq el numerador y el denominador son independientes.

No hay una errata en el denominador [texx]\mu_X[/texx] está al cuadrado?

Otra pregunta, con la información de la medias y varianzas  e independencia de [texx]X,Y[/texx] en principio no se puede decir mucho más de esta desigualdad, aunque no podemos afirmar que ésta es óptima, no? Se requiere la independencia entre [texx]X,Y[/texx] para esta desigualdad? No veo que Enrique la haya usado.

Saludos


Título: Re: Chebyschev
Publicado por: EnRlquE en 19/04/2017, 01:31:48 pm
Hola Quema.

[texx]Eg(Y)=E(\displaystyle\frac{1}{\sigma^2+(Y+\mu)^2})\leq{}g(E(\displaystyle\frac{1}{\sigma^2+(Y+\mu)^2}))[/texx], se puede luego tomar la razón de las esperanzas? Si creo que si pq el numerador y el denominador son independientes.

 No. Cunado una función [texx]g[/texx] es convexa tenemos que [texx]g(\mathbb{E}[Z])\leq\mathbb{E}[g(Z)],[/texx] (creo que el_manco tuvo un error de tipeo). Sin embargo la función definida por [texx]f(x)=\frac{1}{a+(b+x)^{2}}[/texx] no es ni cóncava ni convexa, tiene partes donde es cóncava y partes donde es convexa. Si no me he equivocado en las cuentas ocurre que [texx]f[/texx] es convexa en el intervalo [texx][-b+\sqrt{a/3},+\infty{\color{blue})}.[/texx] Entonces si en nuestro problema hacemos que el valor de [texx]m[/texx] crezca de modo que esta condición se satisfaga obtendremos, para [texx]g(y)=\frac{1}{\sigma_{X}^{2}+(y+\mu_{X})^{2}}[/texx] (convexa en un intervalo adecuado) y [texx]Z=Y{\bf 1}_{\{Y> m\}}[/texx] (para un conveniente valor de [texx]m[/texx]) funcionaría la desigualdad de Jensen. Observa que [texx]g[/texx] se evalúa en [texx]Y{\bf 1}_{\{Y> m \}},[/texx] luego directamente de la desigualdad [texx]g(\mathbb{E}[Y{\bf 1}_{\{Y> m\}}])\leq\mathbb{E}[g(Y{\bf 1}_{\{Y> m\}})][/texx] obtenemos lo que el_manco mencionó más arriba.

Cita
No hay una errata en el denominador [texx]\mu_X[/texx] está al cuadrado?

 Sí hay errata, en realidad debe ser [texx]\mu_{X}[/texx] en lugar de [texx]\mu_{X}^{2}.[/texx]

Cita
Otra pregunta, con la información de la medias y varianzas  e independencia de [texx]X,Y[/texx] en principio no se puede decir mucho más de esta desigualdad, aunque no podemos afirmar que ésta es óptima, no?

 Esta desigualdad es una generalización de la desigualdad que mencionas el inicio, cuando [texx]Y[/texx] es una constante. No sé hasta qué punto esta desigualdad sea óptima, sospecho que si queremos mantener el grado de generalidad de [texx]X[/texx] e [texx]Y[/texx] independientes donde sólo se conocen las medias y las varianzas es óptima; pero sólo es una sospecha, no me he puesto a buscar ejemplos que lo prueben.

Cita
Se requiere la independencia entre [texx]X,Y[/texx] para esta desigualdad? No veo que Enrique la haya usado.

Sí usé la independencia en mi primera respuesta para poder expresar [texx]\mathbb{E}[{\bf1}_{\{X+Y<0\}}][/texx] como una integral doble.

Saludos,

Enrique.

P.S. Reviso esta respuesta más tarde cuando tenga más tiempo, espero que todo esté ben.

Nota: Me parece que todo está bien, en la función [texx]f[/texx] que defino más arriba estoy suponiendo que [texx]a>0.[/texx] Para poder usar la desigualad de Jensen podemos tomar [texx]m=\max\{0,-\mu_{X},-\mu_{X}+\sigma_{X}/\sqrt{3}\}.[/texx]

Nota: Ver la respuesta #27 (http://rinconmatematico.com/foros/index.php?topic=94445.msg381910#msg381910), la convexidad de la función a partir de cierto momento, NO ayuda.


Título: Re: Chebyschev
Publicado por: Quema en 19/04/2017, 02:55:08 pm
Hola
Si, parece que tienes razón, hice el gráfico y tiene forma de campana, con partes convexas y cóncavas.

Sería más que interesante encontrar la desigualdad óptima con la información que tenemos.

Saludos


Título: Re: Chebyschev
Publicado por: EnRlquE en 19/04/2017, 06:02:41 pm
Hola.

Sería más que interesante encontrar la desigualdad óptima con la información que tenemos.

 Es que con el grado de generalidad que tenemos podemos decir que nuestra cota superior es óptima, (de hecho incluso la cota que obtenemos luego de aplicar la desigualdad de Jensen). Para construir ejemplos que muestren eso podemos empezar considerando [texx]X[/texx] con soporte en [texx]\{-1,1\}[/texx] tal que [texx]\mathbb{P}[X=-1]=\mathbb{P}[X=1]=1/2[/texx] e [texx]Y[/texx] siendo una variable constante igual a [texx]1-\delta[/texx] (pensando en [texx]\delta>0[/texx] como un número pequeño). Con esta elección, como [texx]\mu_{X}=0[/texx] y [texx]\sigma_{X}=1,[/texx] nuestra cota superior se convierte en

[texx]\mathbb{P}[X+Y<0]\leq\dfrac{\sigma_{X}^{2}}{\sigma_{X}^{2}+(1-\delta)^{2}}=\dfrac{1}{1+(1-\delta)^{2}}=:C(\delta).[/texx]

 Por otro lado, tenemos que el verdadero valor de la probabilidad es [texx]\mathbb{P}[X+Y<0]=\mathbb{P}[X<-1+\delta]=\mathbb{P}[X=-1]=1/2.[/texx] Ahora, notemos que cuando [texx]\delta\to0[/texx] nuestra cota [texx]C(\delta)[/texx] tiende al verdadero valor, es decir [texx]\lim_{\delta\to 0}C(\delta)=1/2.[/texx] Entonces podemos decir que nuestra cota es en cierto sentido óptima.

 Ejemplos similares con distribuciones continuas son posibles, basta por ejemplo considerar variables continuas que sean muy similares a las [texx]X[/texx] e [texx]Y[/texx] de este ejemplo.

Saludos,

Enrique.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 05:23:56 am
Hola


 No. Cunado una función [texx]g[/texx] es convexa tenemos que [texx]g(\mathbb{E}[Z])\leq\mathbb{E}[g(Z)],[/texx] (creo que el_manco tuvo un error de tipeo).

No, es que yo estaba pensando en una función cóncava. Cuando es cóncava  la desigualdad es al revés:

[texx]\mathbb{E}[g(Z)]\leq g(\mathbb{E}[Z])[/texx]

que es lo que yo pretendía usar. El problema es que como bien dices, no es cóncava (me precipité haciendo un gráfico rápido en un intervalo demasiado pequeño).

Cita
Sin embargo la función definida por [texx]f(x)=\frac{1}{a+(b+x)^{2}}[/texx] no es ni cóncava ni convexa, tiene partes donde es cóncava y partes donde es convexa. Si no me he equivocado en las cuentas ocurre que [texx]f[/texx] es convexa en el intervalo [texx][-b+\sqrt{a/3},+\infty{\color{blue})}.[/texx] Entonces si en nuestro problema hacemos que el valor de [texx]m[/texx] crezca de modo que esta condición se satisfaga obtendremos, para [texx]g(y)=\frac{1}{\sigma_{X}^{2}+(y+\mu_{X})^{2}}[/texx] (convexa en un intervalo adecuado) y [texx]Z=Y{\bf 1}_{\{Y> m\}}[/texx] (para un conveniente valor de [texx]m[/texx]) funcionaría la desigualdad de Jensen. Observa que [texx]g[/texx] se evalúa en [texx]Y{\bf 1}_{\{Y> m \}},[/texx] luego directamente de la desigualdad [texx]g(\mathbb{E}[Y{\bf 1}_{\{Y> m\}}])\leq\mathbb{E}[g(Y{\bf 1}_{\{Y> m\}})][/texx] obtenemos lo que el_manco mencionó más arriba.

Pero la convexidad no ayuda. ¿No?.

Nostros queremos acotar:

[texx]E[g(Z)]\leq algo[/texx]

La desigualdad de Jensen para convexas nos da lo contrario:

[texx]g(E[Z])\leq algo[/texx]

Cita
Cita
No hay una errata en el denominador [texx]\mu_X[/texx] está al cuadrado?

 Sí hay errata, en realidad debe ser [texx]\mu_{X}[/texx] en lugar de [texx]\mu_{X}^{2}.[/texx]

Ya lo he corregido. Gracias.

Es que con el grado de generalidad que tenemos podemos decir que nuestra cota superior es óptima, (de hecho incluso la cota que obtenemos luego de aplicar la desigualdad de Jensen). Para construir ejemplos que muestren eso podemos empezar considerando [texx]X[/texx] con soporte en [texx]\{-1,1\}[/texx] tal que [texx]\mathbb{P}[X=-1]=\mathbb{P}[X=1]=1/2[/texx] e [texx]Y[/texx] siendo una variable constante igual a [texx]1-\delta[/texx] (pensando en [texx]\delta>0[/texx] como un número pequeño). Con esta elección, como [texx]\mu_{X}=0[/texx] y [texx]\sigma_{X}=1,[/texx] nuestra cota superior se convierte en

[texx]\mathbb{P}[X+Y<0]\leq\dfrac{\sigma_{X}^{2}}{\sigma_{X}^{2}+(1-\delta)^{2}}=\dfrac{1}{1+(1-\delta)^{2}}=:C(\delta).[/texx]

 Por otro lado, tenemos que el verdadero valor de la probabilidad es [texx]\mathbb{P}[X+Y<0]=\mathbb{P}[X<-1+\delta]=\mathbb{P}[X=-1]=1/2.[/texx] Ahora, notemos que cuando [texx]\delta\to0[/texx] nuestra cota [texx]C(\delta)[/texx] tiende al verdadero valor, es decir [texx]\lim_{\delta\to 0}C(\delta)=1/2.[/texx] Entonces podemos decir que nuestra cota es en cierto sentido óptima.

 Pero me parece una concepción demasiado poco exigente de cota óptima. Ten en cuenta que el planteamiento de Quema [texx]\mu_X,\sigma_X,\mu_Y,\sigma_Y[/texx] son datos prefijados.

 Es decir yo entiendo así el problema general:

PROBLEMA 1) Dadas [texx]\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2[/texx] encontrar [texx]f(\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2)[/texx] tal que para cualquier para de variables aleatorias independientes [texx]X,Y[/texx] con las medias y varianzas indicadas:

[texx]P(X+Y<0)\leq f(\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2)[/texx]

 La cota es óptima si para cualquier [texx]\alpha<f(\mu_X,\mu_Y,\sigma_X^2,\sigma_Y^2)[/texx] existen variable [texx]X,Y[/texx] en las condiciones indicadas tales que [texx]P(X+Y<0)>\alpha.[/texx]

 En particular sería óptima si para algún par de variables [texx]X,Y[/texx] en las condiciones dadas se alcanza la cota.

O también un problema más particular:

PROBLEMA 2) Dada una variable aletoria [texx]Y[/texx] (Quema sugería la normal) y [texx]\mu_X,\sigma^2_X[/texx] encontrar [texx]f(\mu_X,\sigma_X^2)[/texx] tal que para cualquier variable [texx]X[/texx] independiente de [texx]Y[/texx] con la media y varianza dadas:

[texx]P(X+Y<0)\leq f(\mu_X,\sigma_X^2)[/texx]

 La cota es óptima si para cualquier [texx]\alpha<f(\mu_X,\sigma_X^2)[/texx] existe variable [texx]X[/texx] en las condiciones indicadas tales que [texx]P(X+Y<0)>\alpha.[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 06:21:47 am
Hola

 Respecto a Problema 1.

- El caso más trivial y menos útil es en el que [texx]\mu_X,\mu_Y<0[/texx] en ese caso la cota óptima es [texx]1[/texx] (es decir nada valiosa  ;)).

 Basta tener en cuenta que dadas [texx]\mu_X<0[/texx] y [texx]\sigma_X^2>0[/texx] se puede construir una variable aleatoria (una discreta en dos puntos por ejemplo) con soporte negativo y las medias y varianzas indicadas. Por tanto para un par de tales variables cumplirán que [texx]P(X+Y\leq 0)=1[/texx].

- Si [texx]\mu_X+\mu_Y\geq 0[/texx] usando Cantelli para la variable [texx]X+Y[/texx] se puede dar la siguiente cota:

[texx]P(X+Y\leq 0)\color{red}\leq \color{black}\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx]

Pero no creo que sea óptima.

Saludos.

CORREGIDO


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 07:37:38 am
Hola

 Creo que hay otro fallo:

Si llamamos [texx]m=\max\{0,-\mu_{X}\},[/texx] gracias a que [texx]X+Y\leq X+Y{\bf 1}_{\{Y\geq m\}}[/texx] obtenemos que

[texx]\displaystyle\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0]\leq\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx]

que es una desigualdad donde básicamente sólo aprovechamos la parte en que [texx]Y[/texx] es positiva.

Si: [texx]X+Y\leq X+Y{\bf 1}_{\{Y\geq m\}}[/texx] entonces:

[texx]\{X+Y{\bf 1}_{\{Y\geq m\}}\leq 0\}\subset \{X+Y\leq 0\}[/texx]

y la desigualdad entre probabiliades sería la opuesta:

[texx]\displaystyle\mathbb{P}[X+Y<0]\color{red}\geq\color{black}\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0][/texx]

Esto se puede arreglar así:

[texx]P(X+Y\leq 0)=P(X+Y\leq 0|Y<m)P(Y\leq m)+P(X+Y\leq 0|Y> m)[/texx]

Para el primer término usamos la peor de las cotas (porque de momento no tenemos otra); para el segundo la desigualdad de Cantelli. Quedaría:

[texx]P(Y\leq m)+\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx]

En el caso particular en que apliquemos esto a lo que llamé Problema 2, esa cota es pefectamente calculable dado que la distribución de [texx]Y[/texx] es conocida (por ejemplo una normal).

En el caso general si además se tiene que [texx]\mu_Y>-m[/texx] aplicando de nuevo Cantelli tendríamos la cota:

[texx]\dfrac{\sigma^2_Y}{\sigma^2_Y+(\mu_Y-m)^2}+\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx]

Pero esto ya se parece mucho a la otra cota que comenté en mi mensaje anterior y no sé si será mejor:

- Si [texx]\mu_X+\mu_Y\geq 0[/texx] usando Cantelli para la variable [texx]X+Y[/texx] se puede dar la siguiente cota:

[texx]P(X+Y\leq 0)=\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx]

Pero no creo que sea óptima.

Ahora bien realmente no sé si estas cotas son efectivas o demasiado toscas en la práctica.

Lo que realmente me gustaría es encontrar las óptimas.  ;)

Saludos.

P.D. Aquí tengo otra duda EnRIquE. ¿Por qué tomas [texx]m=max\{0,-\mu_X\}[/texx] y no simplemente [texx]m=-\mu_x[/texx]?. ¿Es decir porque necesitamos [texx]Y[/texx] positiva para aplicar Cantelli?.

Entiendo que para una variable [texx]Z[/texx] con [texx]media positiva[/texx] se tiene que:

[texx]P(Z\leq 0)\leq \dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx]

Para aplicar esto a [texx]Z=X+y[/texx] basta que [texx]\mu_X+y>0[/texx] es decir que [texx]y>-\mu_X[/texx]. ¿No?-


Título: Re: Chebyschev
Publicado por: Quema en 20/04/2017, 09:06:20 am
Hola

Para acotar un poco el problema supongamos que [texx]P(X>0)=1,P(-1\leq{}Y\leq{}1)=1[/texx] y quiero encontrar [texx]P(X+Y<0)=P(\left\{{-1\leq{}Y<-X}\right\}\cap{}\left\{{X<1}\right\})[/texx] y luego separar las probabilidades, pero me doy cuenta que los eventos no son independientes.

Ahora, pensando un poco, capaz que es un divague esto que voy a decir: No puedo hallar una función cuadrática que pase por [texx]\mu_X>0[/texx] y [texx]\mu_Y>0[/texx] y sea tangente a lar recta [texx]y=-x[/texx] en el intervalo [texx]x\in(0,1)[/texx] y la probabilidad en ese punto será una cota superior de [texx] P(-1\leq{}Y<-X)[/texx] y creo que no puedo ser mejorado. Para la otra probabilidad usamos las desigualdades de probabilidades conocidas. Algo parecido al utilizado en el artículo adjunto.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 11:39:00 am
Hola

Ahora, pensando un poco, capaz que es un divague esto que voy a decir: No puedo hallar una función cuadrática que pase por [texx]\mu_X>0[/texx] y [texx]\mu_Y>0[/texx] y sea tangente a lar recta [texx]y=-x[/texx] en el intervalo [texx]x\in(0,1)[/texx] y la probabilidad en ese punto será una cota superior de [texx] P(-1\leq{}Y<-X)[/texx] y creo que no puedo ser mejorado. Para la otra probabilidad usamos las desigualdades de probabilidades conocidas. Algo parecido al utilizado en el artículo adjunto.

El razonamiento del articulo es en una variable; aquí tenemos dos. El razonamiento del artículo se puede usar por ejemplo para probar la desigualdad de Cantelli en una variable.

En dos variables habría que hacer algo así. Considerar la función:

[texx]f(x,y)={\bf 1}_{X+Y<0}(x,y)=\begin{cases} 1 & \text{si}& X+Y<0\\0 & \text{si}& X+Y\geq 0\end{cases}[/texx]

de forma que:

[texx]P(X+Y<0)=E[f(X,Y)][/texx]

después construir una función de grado [texx]2[/texx], [texx]z=g(x,y)[/texx] verficando:

[texx]f(x,y)\geq g(x,y)[/texx] para todo [texx](x,y)\in \mathbb{R^2}[/texx]

de forma que:

[texx]P(X+Y<0)=E[f(X,Y)]\leq E[g(X,Y)][/texx]

Como [texx]g(X,Y)[/texx] es da grado dos su esperanza puede calcularse en términos de la esperanza, varianza y covarianza (si fuesen dependientes) de [texx]X[/texx] e [texx]Y[/texx].

Finalmente de todas las [texx]g(x,y)[/texx] en esas condiciones escoger la que de menor valor de [texx]E[g(x,y)].[/texx]

La cosa es que aquí no es tan obvio como escoger la superficie [texx]z=g(x,y)[/texx]  En principo tiene que ser:

1- positiva.
2- tangente al plano [texx]z=0[/texx].
3- tangente a la recta [texx]x+y=0[/texx], [texx]z=1[/texx].

Si uno escoge por ejemplo un cilindro parábolico con generatices paralelas a [texx]x+y=0[/texx] la cota que se obtiene es exactamente la de Cantelli para la variable [texx]X+Y[/texx].

Se podría intentar ver que sale más en general con una superficie cumpliendo (1),(2),(3).

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 20/04/2017, 12:12:09 pm
Hola

Manco, si la desigualdad de Cantelli es óptima para una variable, por qué motivo crees que no lo es para dos variables? Tu has definido [texx]Z=X+Y[/texx] y utilizás esa desigualdad.

Saludos

PD : Manco tienes algunas erratas luego de la probabilidad, va menor igual y has puesto igual.



Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 02:40:59 pm
Hola

Manco, si la desigualdad de Cantelli es óptima para una variable, por qué motivo crees que no lo es para dos variables? Tu has definido [texx]Z=X+Y[/texx] y utilizás esa desigualdad.

Pues básicamente porque no encuentro un ejemplo donde se alcance la cota. He probado con un par de distribuciones discretas haciendo las cuentas con Mathematica y no se alcanza la cota con ella; se consiguen valores de [texx]P(X+Y<0)[/texx] menores para cualquier posible par de distribuciones discretas con media y varianza dadas.

Cita
PD : Manco tienes algunas erratas luego de la probabilidad, va menor igual y has puesto igual.

¿Dónde?.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 20/04/2017, 03:02:34 pm
Hola

Pero para la desigualdad de Cantelli univariable es óptima, no? Y por lo tanto llamando [texx]Z=X+Y[/texx] debería esta ser también óptima.

Creo que la distribución Bernoulli, para la versión univariante de esta desigualdad, se cumple con igualdad.

https://math.stackexchange.com/questions/1632135/how-to-show-that-cantellis-inequality-has-no-better-result


Saludos

PD En algunas probabilidades [texx]P(X+Y<0)[/texx] pones igual, y es menor o igual.


[texx]P(X+Y\leq 0)=\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx]




Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 03:22:13 pm
Hola

Cita
Pero para la desigualdad de Cantelli univariable es óptima, no? Y por lo tanto llamando [texx]Z=X+Y[/texx] debería esta ser también óptima.

Creo que la distribución Bernoulli, para la versión univariante de esta desigualdad, se cumple con igualdad.

https://math.stackexchange.com/questions/1632135/how-to-show-that-cantellis-inequality-has-no-better-result

Si, en una variable es fácil ver que se alcanza la cota con una discreta en dos puntos (una Bernoulli en esencia). Pero el problema es que no es obvio (al menos para mi) que la variable discreta para la cuál se alcanzaría la cota [texx]Z[/texx] con media [texx]u_Z=u_X+u_Y[/texx] y varianza [texx]\sigma^2_Z=\sigma^2_X+\sigma^2_Y[/texx] pueda ser obtenida como suma de dos variables independientes [texx]X,Y[/texx] con las medias y varianzas indicadas.

Saludos

Cita
PD En algunas probabilidades [texx]P(X+Y<0)[/texx] pones igual, y es menor o igual.


[texx]P(X+Y\leq 0)=\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx]

Ok. Esa ya la he corregido. Gracias.


Título: Re: Chebyschev
Publicado por: Quema en 20/04/2017, 03:34:49 pm
Hola

En muchas de las desigualdades que estamos estudiando en la cota superior interviene la función exponencial.

Saludos


Título: Re: Chebyschev
Publicado por: Quema en 20/04/2017, 04:32:35 pm
Hola

Probé [texx]P(X=10000000)=0.99,P(X=0)=1-0.99[/texx]  y [texx]P(Y=0)=0.01,P(Y=-0.0001)=0.99[/texx] y tiende a la cota de Cantelli para dos variables, si no me equivoqué con los cálculos.

Saludos




Título: Re: Chebyschev
Publicado por: EnRlquE en 20/04/2017, 06:22:49 pm
Hola.


Pero la convexidad no ayuda. ¿No?.

Nostros queremos acotar:

[texx]E[g(Z)]\leq algo[/texx]

La desigualdad de Jensen para convexas nos da lo contrario:

[texx]g(E[Z])\leq algo[/texx]

 Sí, tienes razón, me dí cuenta del cruce de cables que tuve en mi anterior mensaje hoy por la mañana  :banghead:.

Cita
Es que con el grado de generalidad que tenemos podemos decir que nuestra cota superior es óptima, (de hecho incluso la cota que obtenemos luego de aplicar la desigualdad de Jensen). Para construir ejemplos que muestren eso podemos empezar considerando [texx]X[/texx] con soporte en [texx]\{-1,1\}[/texx] tal que [texx]\mathbb{P}[X=-1]=\mathbb{P}[X=1]=1/2[/texx] e [texx]Y[/texx] siendo una variable constante igual a [texx]1-\delta[/texx] (pensando en [texx]\delta>0[/texx] como un número pequeño). Con esta elección, como [texx]\mu_{X}=0[/texx] y [texx]\sigma_{X}=1,[/texx] nuestra cota superior se convierte en

[texx]\mathbb{P}[X+Y<0]\leq\dfrac{\sigma_{X}^{2}}{\sigma_{X}^{2}+(1-\delta)^{2}}=\dfrac{1}{1+(1-\delta)^{2}}=:C(\delta).[/texx]

 Por otro lado, tenemos que el verdadero valor de la probabilidad es [texx]\mathbb{P}[X+Y<0]=\mathbb{P}[X<-1+\delta]=\mathbb{P}[X=-1]=1/2.[/texx] Ahora, notemos que cuando [texx]\delta\to0[/texx] nuestra cota [texx]C(\delta)[/texx] tiende al verdadero valor, es decir [texx]\lim_{\delta\to 0}C(\delta)=1/2.[/texx] Entonces podemos decir que nuestra cota es en cierto sentido óptima.

 Pero me parece una concepción demasiado poco exigente de cota óptima. Ten en cuenta que el planteamiento de Quema [texx]\mu_X,\sigma_X,\mu_Y,\sigma_Y[/texx] son datos prefijados.

 Sí, de acuerdo con lo que dices, la noción de óptima que dí más arriba es muy floja, en particular permite variar la variable [texx]Y[/texx] a voluntad.

Hola

 Creo que hay otro fallo:

Si llamamos [texx]m=\max\{0,-\mu_{X}\},[/texx] gracias a que [texx]X+Y\leq X+Y{\bf 1}_{\{Y\geq m\}}[/texx] obtenemos que

[texx]\displaystyle\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0]\leq\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx]

que es una desigualdad donde básicamente sólo aprovechamos la parte en que [texx]Y[/texx] es positiva.

Si: [texx]X+Y\leq X+Y{\bf 1}_{\{Y\geq m\}}[/texx] entonces:

[texx]\{X+Y{\bf 1}_{\{Y\geq m\}}\leq 0\}\subset \{X+Y\leq 0\}[/texx]

y la desigualdad entre probabiliades sería la opuesta:

[texx]\displaystyle\mathbb{P}[X+Y<0]\color{red}\geq\color{black}\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0][/texx]

Esto se puede arreglar así: [...]

De acuerdo de nuevo, aquí la embarré mucho  :-[.

Cita
P.D. Aquí tengo otra duda EnRIquE. ¿Por qué tomas [texx]m=max\{0,-\mu_X\}[/texx] y no simplemente [texx]m=-\mu_x[/texx]?. ¿Es decir porque necesitamos [texx]Y[/texx] positiva para aplicar Cantelli?.

Entiendo que para una variable [texx]Z[/texx] con [texx]media positiva[/texx] se tiene que:

[texx]P(Z\leq 0)\leq \dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx]

Para aplicar esto a [texx]Z=X+y[/texx] basta que [texx]\mu_X+y>0[/texx] es decir que [texx]y>-\mu_X[/texx]. ¿No?-

¡Es verdad!, al escribir eso estaba vendo la versión de la desigualdad que Quema puso al inicio. Basta con tomar [texx]m=-\mu_{X}[/texx] y no importa si la media de [texx]X[/texx] es positiva o negativa.

Para acotar un poco el problema supongamos que [texx]P(X>0)=1,P(-1\leq{}Y\leq{}1)=1[/texx] y quiero encontrar [texx]P(X+Y<0)=P(\left\{{-1\leq{}Y<-X}\right\}\cap{}\left\{{X<1}\right\})[/texx] y luego separar las probabilidades, pero me doy cuenta que los eventos no son independientes.

Ahora, pensando un poco, capaz que es un divague esto que voy a decir: No puedo hallar una función cuadrática que pase por [texx]\mu_X>0[/texx] y [texx]\mu_Y>0[/texx] y sea tangente a lar recta [texx]y=-x[/texx] en el intervalo [texx]x\in(0,1)[/texx] y la probabilidad en ese punto será una cota superior de [texx] P(-1\leq{}Y<-X)[/texx] y creo que no puedo ser mejorado. Para la otra probabilidad usamos las desigualdades de probabilidades conocidas. Algo parecido al utilizado en el artículo adjunto.

 Con esas restricciones seguro que obtenemos algo mejor, en particular como [texx]Y[/texx] es acotada, sabemos que los momentos de todos sus órdenes son finitos, de hecho variables como [texx]e^{\theta Y}[/texx] tienen esperanza finita para cualquier valor de [texx]\theta\in\mathbb{R}[/texx] y esto suele ayudar mucho a la hora de obtener cotas. Pero tengo que pensarlo con calma, no tengo mucho tiempo y no quiero empezar a equivocarme como en todo lo que va del hilo  :D.

Saludos,

Enrique.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/04/2017, 06:39:42 pm
Hola

Probé [texx]P(X=10000000)=0.99,P(X=0)=1-0.99[/texx]  y [texx]P(Y=0)=0.01,P(Y=-0.0001)=0.99[/texx] y tiende a la cota de Cantelli para dos variables, si no me equivoqué con los cálculos.

¿Qué quiere decir que "tiende"?. Hay que ter un poco de cuidado. Como le dije a Enrique las medias de y covarianzas tiene que estar prefijadas; no puedes cambiarlas en cada aproximación. Además no me vale que sólo para una media y varianza concreta alcances la cota; habría que hacerlo en general.

Yo he probado con el Mathematica con toda generalidad, y con un par de variables de Bernoulli (discretas con valores en dos puntos) NO se alcanza la cota (a no ser que me equivocase algo en el programa, pero lo he revisado y parece que no).

Saludos.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 08:29:13 am
Hola

 Revisando tenemos probado un caso muy particular, variante del problema 1:

 - Dadas [texx]\mu_X,\sigma^2_X[/texx] y [texx]\mu_Y\in [-\mu_X,-\mu_X+\sigma_X/\sqrt{3}] [/texx] para cualquier par de variables aleatorias independientes [texx]X,Y[/texx] con las medias y varianzas indicadas y [texx]soporte(Y)\subset [-\mu_x,-\mu_x+\sigma_x/\sqrt{3}] [/texx] se cumple:

[texx]P(X+Y\leq 0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+\mu_Y)^2}[/texx]

 Además la cota es óptima (basta tomar [texx]Y=\mu_y[/texx] con probabilidad segura y aplicar la optimalidad de la desigualdad de Cantelli).

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 09:20:17 am
Hola,

No entendí este caso particular, puedes explicarlo un poco mejor. Y en la cota superior, no entra la varianza de [texx]Y[/texx]?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 10:03:09 am
Hola

No entendí este caso particular, puedes explicarlo un poco mejor. Y en la cota superior, no entra la varianza de [texx]Y[/texx]?

Pues es usar este argumento de Enrique (con la hipótesis del soporte de [texx]Y[/texx], [texx]Y=Y\cdot 1_{Y\geq -\mu_X}[/texx] y por tanto el argumento funciona):

Si no estas interesado en cotas muy finas tal vez en el último caso que nos cuentas te pueda funcionar lo siguiente: Si llamamos [texx]m=\max\{0,-\mu_{X}\},[/texx] gracias a que [texx]X+Y\leq X+Y{\bf 1}_{\{Y\geq m\}}[/texx] obtenemos que

[texx]\displaystyle\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0]\leq\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx]

que es una desigualdad donde básicamente sólo aprovechamos la parte en que [texx]Y[/texx] es positiva.

combinado con la desigualdad de Jensen que comentaba en el tramo en que la función:

[texx]g(y)=\dfrac{\sigma^2_X}{(\sigma^2_X+(\mu_X+y)^2}[/texx]

es cóncava, y por eso se exige (para no salirse del tramo cóncavo que [texx]soporte(Y)\subset [-\mu_x,-\mu_x+\sigma_x/\sqrt{3}][/texx]).

Efectivamente no interviene la covarianza de [texx]Y[/texx]; por eso digo que es una variante del Problema 1. Con el dato adicional de la covarianza en teoría la cota debería de poder mejorarse. Es óptima sin ese dato adicional; es decir exactamente en las condiciones que enuncié en mi mensaje anterior.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 11:00:02 am
Hola

Para tener más claro las ideas:

Dentro del problema 1. Se cumple que para dos variables aleatorias [texx]X,Y[/texx] independientes entonces
[texx]P(X+Y\leq 0)=\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx],  pero no estamos seguros que sea óptima. Si le exigimos a [texx]Y[/texx] la condición de soporte del último mensaje del manco entonces esa cota modificada es óptima

Del problema 2, a qué conclusión hemos llegado?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 12:44:34 pm
Hola

Dentro del problema 1. Se cumple que para dos variables aleatorias [texx]X,Y[/texx] independientes entonces
[texx]P(X+Y\leq 0)=\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx],  pero no estamos seguros que sea óptima.

Correcto.

Cita
Si le exigimos a [texx]Y[/texx] la condición de soporte del último mensaje del manco entonces esa cota modificada es óptima

Si; pero ojo porque no es sólo que añadamos la condición del soporte, sino que eliminamos el dato de la covarianza. Es decir, no es exactamente el problema 1. Con la información adicional de la covarianza la cota pudiera afinarse.

Cita
Del problema 2, a qué conclusión hemos llegado?

No mucho. Esta cota:

[texx]P(Y\leq -\mu_X)+\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>-\mu_X\}}+\mu_{X})^{2}}\Big][/texx]

que dado que en los supuestos del problema 2, la distribución de [texx]Y[/texx] es conocida es una cota calculable explícitamente.

Puede que sea óptima si [texx]P(Y\leq -\mu_X)=0.[/texx] (nunca ocurriría eso en el caso de [texx]Y[/texx] normal).

Saludos.


CORREGIDO


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 12:48:11 pm
Hola

No entendí, covarianza o varianza?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 12:54:24 pm
Hola

No entendí, covarianza o varianza

Perdón. Fue una errata. Mientras estemos hablando de variables independientes nada de covarianzas.  ;)

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 02:27:49 pm
Hola

Pero en la cota del problema 1, se exige independencia?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 04:28:25 pm
Hola

Pero en la cota del problema 1, se exige independencia?

Si, porque hemos usado que la varianza de la suma es la suma de varianzas. Sin independencia quedaría:

[texx]P(X+Y\leq 0)=\dfrac{\sigma^2_X+\sigma^2_Y+2Cov(X,Y)}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y+2Cov(X,Y)}[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 04:33:39 pm
Hola

Y si no fueran independientes la segunda cota sigue siendo óptima? Supongo que cambia la condición que se impuso.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 04:37:16 pm
Hola

Y si no fueran independientes la segunda cota sigue siendo óptima? Supongo que cambia la condición que se impuso.

En la segunda, la dependencia cambia por completo el panorama. Estamos de manera troncal que la variable [texx]X[/texx] no depende de [texx]Y[/texx], y por tanto la media y la varianza de [texx]X[/texx] condicionadas a [texx]Y=y[/texx], son independientes del valor de [texx]y[/texx] e iguales a la media y varianza de [texx]X[/texx].

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 07:35:23 pm
Hola

En el caso de la cota que es óptima, no se exigió el conocimiento de la varianza. Yo comparé numéricamente las cotas

[texx]\dfrac{\sigma^2_X}{(\mu_X+\mu_Y)^2+\sigma^2_X}[/texx]

con

[texx]\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx]

tirando algunos datos y la primera me da, al menos para los valores que puse, siempre menor que la otra, respetando la condición de la media y agregando el conocimiento de la varianza. No veo entonces cómo se puede mejorar aún más la cota óptima con la información adicional de la varianza de [texx]Y[/texx], salvo que esto demuestre que la segunda cota no es óptima.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 21/04/2017, 08:04:34 pm
Hola

Hola

En el caso de la cota que es óptima, no se exigió el conocimiento de la varianza. Yo comparé numéricamente las cotas

[texx]\dfrac{\sigma^2_X}{(\mu_X+\mu_Y)^2+\sigma^2_X}[/texx]

con

[texx]\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}[/texx]

tirando algunos datos y la primera me da, al menos para los valores que puse, siempre menor que la otra, respetando la condición de la media y agregando el conocimiento de la varianza. No veo entonces cómo se puede mejorar aún más la cota óptima con la información adicional de la varianza de [texx]Y[/texx], salvo que esto demuestre que la segunda cota no es óptima.

Las cotas pueden escribirse respectivamente como:

[texx]\dfrac{\sigma^2_X}{(\mu_X+\mu_Y)^2+\sigma^2_X}=\dfrac{1}{\dfrac{(\mu_x+\mu_y)^2}{\sigma^2_X}+1}[/texx]

y


[texx]\dfrac{\sigma^2_X+\sigma^2_Y}{(\mu_X+\mu_Y)^2+\sigma^2_X+\sigma^2_Y}=\dfrac{1}{\dfrac{(\mu_x+\mu_y)^2}{\sigma^2_X+\sigma^2_Y}+1}[/texx]

Dado que la función [texx]f(x)=\dfrac{1}{x^2+1}[/texx] es decreciente para [texx]x>0[/texx] efectivamente la primera cota siempre es más pequeña que la segunda.

Pero tienes que tener en cuenta una cosa, en la primera usamos un dato adicional, el soporte de [texx]Y[/texx] y no es válida para cualquier soporte; sólo cuando cumple la cota indicada. En ese caso lo que digo es que si además de conocer ese dato sobre el soporte, conociésemos la varianza de [texx]Y[/texx] previsiblemente podría mejorarse. Eso no contradice la comparación con las cotas que indicas, porque como te digo la segunda no usa el supuesto del soporte.

Por otra parte tampoco nos sirve para asegurar 100% que la segunda cota no es óptima; pudiera existir una distribución [texx]Y[/texx] con el soporte fuera del que exigimos para la primera cota, que alcanzase el valor de la segunda cota.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 21/04/2017, 08:17:39 pm
Hola

Estoy viendo que la cota que llegamos sabiendo la media de [texx]Y[/texx] en si no ayuda mucho, pues es igual a la cota de mi primer mensaje tomando [texx]Y=\mu_Y[/texx].

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 22/04/2017, 03:54:13 am
Hola

Estoy viendo que la cota que llegamos sabiendo la media de [texx]Y[/texx] en si no ayuda mucho, pues es igual a la cota de mi primer mensaje tomando [texx]Y=\mu_Y[/texx].

No sé muy bien que quieres decir con que "no ayuda mucho". Fíjate que de hecho la cota general para dos variables [texx]X,Y[/texx] (frente una variable [texx]X[/texx] y una constante [texx]Y=a[/texx]) TIENE que ser igual... o peor. Me explico:

La cota de tu primer mensaje es la cota de Cantelli que sabemos que es óptima; es un caso particular de cota conocidas varianza y media de [texx]X[/texx] y media de [texx]Y[/texx], cuando la variable [texx]Y[/texx] es constante igual a esa media.

Pero no es obvio ni trivial que esa misma cota siga funcionando cuando [texx]Y[/texx] no es constante igual a su media; de hecho nosotros solo hemos probado que sigue funcionando cuando el soporte de [texx]Y[/texx] está acotado de la forma indicada. En general, sin esa restricción del soporte, quizá esa cota no funcione.

Saludos.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 22/04/2017, 05:19:42 am
Hola

 Usando las técnicas del artículo de Scarf he hallado otra cota para el caso en el que tenemos datos sobre el soporte de [texx]Y[/texx] (soporte acotado) pero usando también su varianza. No es óptima.

 Esencialmente la idea es acotar superiormente [texx]g(y)=\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx] por una parábola [texx]h(y)=1-a(\mu_x+y)^2[/texx].

 Llego a lo siguiente (convendría revisarlo):

 Si [texx]X[/texx] es una variable aleatoria de media [texx]\mu_X[/texx] y varianza [texx]\sigma_X^2[/texx], e [texx]Y[/texx] es una variable aleatoria independiente de [texx]X[/texx] con media [texx]\mu_Y[/texx], varianza [texx]\sigma_X^2[/texx] y soporte en [texx][-\mu_X,-\mu_X+b][/texx] y [texx]\color{red}\cancel{b^2+\sigma_X^2\geq 1}\color{black}[/texx], entonces:

[texx]\bf{\color{green}P(X+Y\leq 0)\leq 1-\dfrac{\sigma_Y^2+(\mu_X+\mu_Y)^2}{\sigma_X^2+b^2}\color{black}}[/texx] (COTA 3)  (válida si [texx]sop(Y)\subset [-\mu_X,-\mu_X+b][/texx] y [texx]\color{red}\cancel{b^2+\sigma_X^2\geq 1}\color{black}[/texx])

 Nótese que para que sea compatible con el soporte, la varianza de [texx]Y[/texx] como máximo vale [texx]b^2/4[/texx].

 Las otras cotas que tenemos son:

[texx]\bf{P(X+Y\leq 0)\leq \dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}}[/texx] (COTA 1) (válida si [texx]\mu_X+\mu_Y\geq 0[/texx])

[texx]\bf{\color{blue}P(X+Y\leq 0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+\mu_Y)^2}\color{black}}[/texx] (COTA 2) (válida si [texx]sop(Y)\subset [-\mu_X,-\mu_X+\sqrt{\sigma_X^2/3}][/texx]

 Puede verse la comparación entre ellas en este gráfico, donde el eje de las [texx]X[/texx] corresponde al valor de la media de [texx]Y[/texx]. En rojo está dibujado también el valor de la COTA 3-COTA 2, para que se vea mejor cual es más pequeña.


Saludos.

P.D. En cuanto a la posiblidad de encontrar cotas óptimas conocida la varianza de [texx]Y[/texx], habría que cambiar de estrategia. En todo lo que hemos hecho usamos de manera indpendiente la desigualdad de Cantelli para la variable [texx]X[/texx]. Está desigualdad es óptima pero la dsitribuciónd e [texx]X[/texx] que alcanza el óptimo para [texx]P(X+a\leq 0)[/texx] depende de [texx]a[/texx]. Si la usamos para [texx]P(X+Y\leq 0)[/texx] solo podemos aspirar a cota óptima cuando [texx]Y[/texx] puede tomar un sólo valor; si exigimos varianza de [texx]Y[/texx] no nula esto ya no se da.

CORREGIDO


Título: Re: Chebyschev
Publicado por: Quema en 22/04/2017, 09:26:04 am
Hola

Lo revisaré todo. La condición [texx]V(Y)\leq{}b^2/4[/texx] se cumple por la desigualdad de Gruss de covarianzas. En resumen, tendríamos tres cotas. En la segunda cota, también se cumple [texx]\mu_X+\mu_Y>0[/texx], pues la media de [texx]Y[/texx] necesariamente es un valor de su soporte. La cota 3 es muy parecida a la cota 2, pero se le agrega una nueva restricción. Hay algo raro en el gráfico, si se mueve [texx]b[/texx] la varianza de [texx]Y[/texx] debería incrementarse y de hecho baja.

En muchas de las desigualdades existentes (ver archivos adjuntos de otros mensajes Bennett.pdf y Bounds.pdf) se llegan a cotas del estilo

[texx]P(X+Y>t\sigma_{X+Y})<e^{f(t)}[/texx] con [texx]f(0)=0.[/texx] aunque el signo dentro de la probabilidad es distinto al nuestro.

Saludos




Título: Re: Chebyschev
Publicado por: Luis Fuentes en 22/04/2017, 01:23:11 pm
Hola

Lo revisaré todo. La condición [texx]V(Y)\leq{}b^2/4[/texx] se cumple por la desigualdad de Gruss de covarianzas.

Si, eso es lo que quise decir. Lo puntualizaba no como condición a exigir en el teorema, sino simplemente para tener cuidado a la hora de tomar ejemplos; no tiene sentido tomar uno donde no se cumpla esa cota porque no existirían distribuciones en esas condiciones. Eso lo he tenido en cuenta en el gráfico y el propio Geogebra controla que no se supere esa cota. Por esto en algún caso al modificar el valor de [texx]b[/texx] o el de la varianza se ve a su vez cambiado el otro, para respetar la condición.

De hecho olvidé que debido a que también es un dato la media de [texx]Y[/texx], la condición es todavía más restrictiva (y  por eso para ciertos ejemplos me salía una cota 3 negativa, lo cuál no es posible). Se tiene que cumplir que:

[texx]\sigma_2^Y\leq (-\mu_X+b-\mu_Y)(\mu_Y+\mu_X)[/texx]

Eso no lo tiene en cuenta el gráfico, y por eso pudiera haber algún resultado extraño. Una vez más esa condición no es que sea un hipótesis de la cota, sino que no existen distribuciones [texx]Y[/texx] que NO la cumplan.

Cita
En resumen, tendríamos tres cotas. En la segunda cota, también se cumple [texx]\mu_X+\mu_Y>0[/texx], pues la media de [texx]Y[/texx] necesariamente es un valor de su soporte.


Si, por supuesto. En las tres cotas se cumple eso.

Cita
La cota 3 es muy parecida a la cota 2, pero se le agrega una nueva restricción. Hay algo raro en el gráfico, si se mueve [texx]b[/texx] la varianza de [texx]Y[/texx] debería incrementarse y de hecho baja.

Las posibles interacciones entre [texx]b[/texx] y la varianza son debidas al "esfuerzo" de geogebra por respetar la desigualdad de Gruss. Sea como sea , fuera del control cota, en realidad son dos parámetros independientes que podemos elegir al gusto; no hay ningún motivo para que uno baje o suba al subir o bajar el otro.

Cita
La cota 3 es muy parecida a la cota 2, pero se le agrega una nueva restricción

OJO. La cota 3 es más rica que la cota 2; vale para cualquier soporte finito de [texx]Y[/texx] a la derecha de [texx]-\mu_X[/texx] y en ella interviene la varianza de [texx]Y[/texx]. Es significativamente mejor que la 2, cuando la varianza de [texx]Y[/texx] es alta.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 22/04/2017, 06:21:55 pm
Hola

No me queda muy claro las pruebas de las cotas. La desigualdad de Cantelli dice que [texx]P(X-\mu\geq{}\lambda)\leq{\displaystyle\frac{\sigma^2}{\sigma^2+\lambda^2}}[/texx]. Decimos que [texx]\bf{P(X+Y\leq 0)\leq \dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}}[/texx], no veo muy claro que es [texx]\lambda[/texx].

Ahora en la segunda cota creo

[texx]\bf{\color{blue}P(X+Y\leq 0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+\mu_Y)^2}\color{black}}[/texx] utilizamos
[texx]
\displaystyle\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0]\leq\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx] y la desigualdad de Jensen? Primero como [texx]\mu_X>0[/texx] el [texx]m=0[/texx], pero como definimos el soporte entonces [texx]Y\left\{{1Y>0}\right\}[/texx] es cero, salvo que [texx]-mu_X+\sqrt{\sigma_X^2/3}>0[/texx], pero en principio no tiene por qué cumplirse. Y no entiendo cómo se llega a la media de [texx]Y[/texx] en el denominador.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 23/04/2017, 08:14:34 am
Hola

No me queda muy claro las pruebas de las cotas. La desigualdad de Cantelli dice que [texx]P(X-\mu\geq{}\lambda)\leq{\displaystyle\frac{\sigma^2}{\sigma^2+\lambda^2}}[/texx].

Si, dice eso para [texx]\lambda>0[/texx]. Podemos usar esa desigualdad para probar que:

 [texx]P(Z+a\leq 0)\leq{\displaystyle\frac{\sigma^2}{\sigma^2+(\mu_Z+a)^2}}[/texx].

si [texx]\mu_Z+a\geq 0[/texx].

 Para ello basta considerar la variable aleatoria [texx]X=-Z[/texx] y [texx]\lambda=\mu_Z+a=a-\mu_X[/texx]. Entonces:

[texx]P(Z+a\leq 0)=P(-X+a\leq 0)=P(X-a\geq 0)=P(X-\mu_X\geq a-\mu_X)=P(X-\mu_X\geq \mu_Z+a)[/texx]

y usar que [texx]\sigma_X^2=\sigma_Z^2[/texx].

Cita
Decimos que [texx]\bf{P(X+Y\leq 0)\leq \dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}}[/texx], no veo muy claro que es [texx]\lambda[/texx].

Ahora basta usar la desigualdad que indiqué antes para [texx]Z=X+Y[/texx] y [texx]a=0[/texx]. Para aplicarla necesitamos que [texx]\mu_X+\mu_y>0[/texx].

Cita
Ahora en la segunda cota creo

[texx]\bf{\color{blue}P(X+Y\leq 0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+\mu_Y)^2}\color{black}}[/texx] utilizamos
[texx]
\displaystyle\mathbb{P}[X+Y<0]\leq\mathbb{P}[X+Y{\bf 1}_{\{Y\geq m\}}<0]\leq\sigma^{2}_{X}\mathbb{E}\Big[\frac{1}{\sigma^{2}_{X}+(Y{\bf1}_{\{Y>m\}}+\mu_{X})^{2}}\Big][/texx] y la desigualdad de Jensen? Primero como [texx]\mu_X>0[/texx] el [texx]m=0[/texx], pero como definimos el soporte entonces [texx]Y\left\{{1Y>0}\right\}[/texx] es cero, salvo que [texx]-mu_X+\sqrt{\sigma_X^2/3}>0[/texx], pero en principio no tiene por qué cumplirse. Y no entiendo cómo se llega a la media de [texx]Y[/texx] en el denominador.

No. Usamos lo siguiente:

[texx]P(X+Y<0)=E[1_{X+Y<0}]=E[E[1_{X+y<0}|Y=y]][/texx]

Bajo el supueso de que [texx]sop(Y)\subset [-\mu_X,+\infty)[/texx] se tiene que [texx]\mu_X+y>0[/texx] y podemos aplicar la desigualdad de Cantelli (en la versión que demostré arriba). Además por la independencia de [texx]X[/texx] e [texx]Y[/texx] el condicionamiento de [texx]X[/texx] a [texx]Y=y[/texx] no varía su media y varianza. Por tanto:

[texx]P(X+Y<0)=E[1_{X+Y<0}]=E[E[1_{X+y<0}|Y=y]]\leq E\left[\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+Y)^2}\right][/texx]

Tengo que irme ahora.. lo último es aplicar Jensen para la función cóncava:

[texx]g(y)=\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 23/04/2017, 10:34:07 am
Hola
La primera cota cómo es este paso

[texx]E[E[1_{X+y<0}|Y=y]]\leq E\left[\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+Y)^2}\right][/texx]. Puede ser

[texx]P(X+y<0|Y=y)\leq{}\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]?

Pero no tiene que ir dividido por la [texx]P(Y=y)[/texx]?

En la prueba de la segunda, no es que el soporte de [texx]Y[/texx] estaba acotado superiormente, de forma que [texx]g(y)[/texx] fuera cóncava, debe haber una errata ahí. Y si puedes ser un poco más específico en la prueba de la cota 3.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 24/04/2017, 03:59:50 am
Hola

La primera cota cómo es este paso

[texx]E[E[1_{X+y<0}|Y=y]]\leq E\left[\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+Y)^2}\right][/texx]. Puede ser

[texx]P(X+y<0|Y=y)\leq{}\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]?

Pero no tiene que ir dividido por la [texx]P(Y=y)[/texx]?

Más o menos. Ten en cuenta que por ejemplo para Y discreta tendríamos:

[texx]
P(X+y<0|Y=y)=\dfrac{P(X+y<0\cap Y=y)}{P(Y=y)}[/texx]

por la independencia de [texx]X,Y[/texx] en el numerador:

[texx]
P(X+y<0\cap Y=y)=P(X+Y<0)P(Y=y)[/texx]

y [texx]P(Y=y) [/texx]se cancela con el denominador.

Digo más o menos porque escribirlo así, usando [texx]P(Y=y)[/texx] requiere que esa probabilidad sea no nula (imposible por ejemplo en una variable continua). Entonces de manera más general, por la independencia de [texx]X[/texx] e [texx]Y[/texx]:

[texx]E[1_{X+y<0}|Y=y]=E[1_{X+y<0}][/texx]

y después:

[texx]E[1_{X+y<0}]=P(X+y<0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]

Cita
En la prueba de la segunda, no es que el soporte de [texx]Y[/texx] estaba acotado superiormente, de forma que [texx]g(y)[/texx] fuera cóncava, debe haber una errata ahí.


Es que me quedé en ese paso. En lo que escribí simplemente he usado que el soporte de [texx]Y[/texx] está en [texx][-\mu_X,+\infty)[/texx].

Continuando. Si llamamos:

[texx]g(y)=\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]

Comprueba que su segunda derivada es negativa en el intervalo [texx][-\mu_X,-\mu_X+\color{red}\sigma_x/\sqrt{3}\color{black}][/texx]

y por tanto cóncava.

Entonces si [texx]Y[/texx] tiene el soporte en [texx][-\mu_X,-\mu_X+\color{red}\sigma_x/\sqrt{3}\color{black}][/texx], por la desigualdad de Jensen:

[texx]E[g(Y)]\leq g(E[Y])=g(\mu_Y)[/texx]

De ahí directamente:

[texx]E\left[\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+Y)^2}\right]\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+\mu_Y)^2}[/texx]

Cita
Y si puedes ser un poco más específico en la prueba de la cota 3.

Continuará...

Saludos.

CORREGIDO


Título: Re: Chebyschev
Publicado por: Quema en 24/04/2017, 09:15:27 am
Hola

Ahora si me queda claro. Una pregunta, cuando se exige que el soporte de [texx]Y[/texx] dependa de la media de [texx]X[/texx], de alguna forma eso no invalida que [texx]X,Y[/texx] sean independientes?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 24/04/2017, 11:05:24 am
Hola

Ahora si me queda claro. Una pregunta, cuando se exige que el soporte de [texx]Y[/texx] dependa de la media de [texx]X[/texx], de alguna forma eso no invalida que [texx]X,Y[/texx] sean independientes?

No. No invalida. Simplemente restringe las condiciones bajo las cuales podemos aplicar nuestra cota.

Pero que sean independientes o no, no tiene nada que ver con que sus medias y varianzas estén más o menos próximas o cumplan tal o cual relación; tiene que ver con si la distribución marginal de una variable varia o no cuando conocemos datos sobre la otra.

Saludos.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 24/04/2017, 01:15:36 pm
Hola

 Para la última cota. Con la hipótesis de que [texx]sop(Y)\subset [-\mu_X,+\infty)[/texx] partimos de que:

[texx]P(X+Y\leq 0)\leq E[g(Y)][/texx]

 con:

[texx]g(y)=\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]

 Notamos que esa función es siempre positiva, tiene un máximo en [texx]y=-\mu_X[/texx] igual a [texx]1[/texx] y luego decrece. Buscamos una parábola cóncava (una función de grado dos para que luego la esperanza de [texx]h(Y)[/texx] quede en  función de la media y la varianza) [texx]h(y)[/texx] tal que:

[texx]g(y)\leq h(y)[/texx] en el soporte de [texx]Y[/texx]

 y luego usar que [texx]E[g(Y)]\leq E[h(Y)][/texx]

 Esto ya nos obliga a que el soporte sea acotado, ya que una parábola [texx]h(y)[/texx] cóncava toma valores negativos para [texx]y[/texx] alto, mientras que [texx]g(y)[/texx] siempre es positivo.

 Para que [texx]h(y)[/texx] tenga también el máximo en [texx]y=-\mu_X[/texx] tomamos:

[texx] h(y)=1-a(y+\mu_X)^2[/texx]

 Operando observamos que:

[texx]h(y)-g(y)=(\mu_x+y)^2\left(\dfrac{1}{\sigma_X^2-(\mu_X+y)^2}-a\right)[/texx] (**)

 Si el soporte de [texx]Y[/texx] es [texx][-\mu_X,-\mu_X+b][/texx] para que (**) sea positivo en ese soporte necesitamos que [texx]h(b)-g(b)=0[/texx]. Despejando obtenemos:

[texx]a=\dfrac{1}{\sigma_X^2+b^2}[/texx]

 Por tanto:

[texx] h(y)=1-a(\mu_x+y)^2=1-\dfrac{1}{\sigma_X^2+b^2}(\mu_X^2+2y\mu_X+y^2)[/texx]

 y

 [texx]E[h(Y)]=1-\dfrac{1}{\sigma_X^2+b^2}(\mu_X^2+2\mu_Y\mu_X+E[Y^2])[/texx]

 Recordemos que [texx]E[Y^2]=\sigma_Y^2+\mu_Y^2[/texx]. Queda entonces:

 [texx]E[h(Y)]=1-\dfrac{1}{\sigma_X^2+b^2}(\mu_X^2+2\mu_Y\mu_X+\sigma_Y^2+\mu_Y^2)[/texx]

 [texx]E[h(Y)]=1-\dfrac{1}{\sigma_X^2+b^2}((\mu_X+\mu_Y)^2+\sigma_Y^2)[/texx]

 De ahí la cota 3 (me sobraba una hipótesis que he tachado).

Saludos.



Título: Re: Chebyschev
Publicado por: Quema en 24/04/2017, 02:36:10 pm
Hola

Lo voy a mirar detenidamente. El [texx]b\geq{}0[/texx]?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 24/04/2017, 02:38:10 pm
Hola

Lo voy a mirar detenidamente. El [texx]b\geq{}0[/texx]?

Si.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 24/04/2017, 02:53:42 pm
Hola,

Como [texx]h(y)[/texx] es cóncava y [texx]g(y)[/texx] es casi siempre convexa, parece que queda bastante espacio libre entre las dos. No se tendría que aproximar [texx]g(y)[/texx] con una función convexa o al menos con tramos convexos para que se aproxime más?

Y si expandimos [texx]g(y)[/texx] por Taylor? Y utilizamos el polinomio cuadrático de esta expansión? Viendo si cumple que es mayor o igual a [texx]g(y)[/texx].

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 24/04/2017, 03:08:29 pm
Hola

Cita
Como [texx]h(y)[/texx] es cóncava y [texx]g(y)[/texx] es casi siempre convexa, parece que queda bastante espacio libre entre las dos. No se tendría que aproximar [texx]g(y)[/texx] con una función convexa o al menos con tramos convexos para que se aproxime más?

Lo de casi siempre convexa es relativo; tiene forma de campana y es convexa para valores de [texx]y[/texx] grandes (o muy pequeños), pero cóncava en su parte central, la de valores más altos y por tanto más significativos.

Ten en cuenta además que tenemos que acotar por una función de grado dos; sino el método no funciona. Ya que al final [texx]E[h(y)] [/texx]tiene que quedar en función de [texx]E[Y][/texx] e [texx]E[Y^2][/texx].

Tendría sentido acotar por una parábola convexa si [texx]Y[/texx] tuviese su soporte en la zona donde la función [texx]g(Y)[/texx] a la que nos referimos es convexa, es decir, mucho más a la derecha de [texx]-\mu_X.[/texx] Se podría explorar esa otra posibilidad.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 24/04/2017, 03:13:05 pm
Hola

Si claro, si pudiéramos encontrar una cota óptima, aún tirando hacia la derecha el soporte de [texx]Y[/texx] sería bueno. Creo que se puede utilizar la desigualdad de Williassen, que es para funciones crecientes y cóncavas sabiendo la media y varianza a la parte convexa de [texx]g(y)[/texx] y cómo ésta cota es óptima obtendríamos una cota óptima. No?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 07:18:27 am
Hola

Si claro, si pudiéramos encontrar una cota óptima, aún tirando hacia la derecha el soporte de [texx]Y[/texx] sería bueno. Creo que se puede utilizar la desigualdad de Williassen, que es para funciones crecientes y cóncavas sabiendo la media y varianza a la parte convexa de [texx]g(y)[/texx]

La desigualdad de Williassen para una función convexa decreciente [texx]g(y)[/texx] con soporte en [texx][a,+\infty)[/texx] si no me equivoco queda así:

[texx]E[g(y)]\leq \dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}g\left(\mu_x+\dfrac{\sigma_Y^2}{\mu_Y-a}\right)+
\dfrac{\sigma_Y^2}{\sigma_Y^2+(\mu_Y-a)^2}g(a)[/texx]

En nuestro caso habría que aplicarlo para la función:

[texx]g(y)=\dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+y)^2}[/texx]

y [texx]a=-\mu_X+\sigma_X/\sqrt{3}[/texx], bajo el supuesto de que el soporte de [texx]Y[/texx] está en [texx][a,+\infty).[/texx]

Cita
y cómo ésta cota es óptima obtendríamos una cota óptima. No?

No. O al menos no necesariamente. Eso es lo que traté de explicar aquí:

P.D. En cuanto a la posiblidad de encontrar cotas óptimas conocida la varianza de [texx]Y[/texx], habría que cambiar de estrategia. En todo lo que hemos hecho usamos de manera indpendiente la desigualdad de Cantelli para la variable [texx]X[/texx]. Está desigualdad es óptima pero la dsitribuciónd e [texx]X[/texx] que alcanza el óptimo para [texx]P(X+a\leq 0)[/texx] depende de [texx]a[/texx]. Si la usamos para [texx]P(X+Y\leq 0)[/texx] solo podemos aspirar a cota óptima cuando [texx]Y[/texx] puede tomar un sólo valor; si exigimos varianza de [texx]Y[/texx] no nula esto ya no se da.

Estamos combinando dos acotaciones: una para la variable [texx]X[/texx], la de Cantelli; otra para la variable [texx]Y[/texx] (mi primer intento o la de Williassen ahora). Las dos por separado son óptimas. El problema es que la distribución que da la cota óptima para Cantelli depende de el valor de [texx]y[/texx]. A su vez la distribución óptima de Williassen toma dos valores de [texx]Y[/texx] distintos, entonces al menos para uno de ellos no será el valor de [texx]y[/texx] que hemos usado para la optimización de la cota de Cantelli.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 09:12:28 am
Hola

Pero en Willassen no se exige que [texx]g(0)=0[/texx], con el soporte nuevo, debería ser [texx]g(a)=0[/texx], no? condición que no cumple nuestra función?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 11:02:04 am
Hola

Pero en Willassen no se exige que [texx]g(0)=0[/texx], con el soporte nuevo, debería ser [texx]g(a)=0[/texx], no? condición que no cumple nuestra función?

Correcto. Pero lo que he hecho es aplicarla para la función [texx]h(y)=g(y)-g(a)[/texx].

Es decir para una función [texx]h(xy[/texx] convexa decreciente con soporte en [texx][a,+\infty)[/texx] y [texx]h(a)=0[/texx] Williassen dice que:

[texx]E[h(y)]\leq \dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}h\left(\mu_x+\dfrac{\sigma_Y^2}{\mu_Y-a}\right)[/texx]

Si lo aplicamos para [texx]h(y)=g(y)-g(a)[/texx] queda:

[texx]E[g(y)]=E[h(y)]+E[g(a)]=E[h(y)]+g(a)\leq  \dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}h\left(\mu_x+\dfrac{\sigma_Y^2}{\mu_Y-a}\right)+g(a)=[/texx]

    [texx]=\dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}\left(g\left(\mu_x+\dfrac{\sigma_Y^2}{\mu_Y-a}\right)-g(a)\right)+g(a)=[/texx]


    [texx]=\dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}g\left(\mu_x+\dfrac{\sigma_Y^2}{\mu_Y-a}\right)+\left(1-\dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}\right)g(a)=[/texx]

    [texx]=\dfrac{(\mu_Y-a)^2}{\sigma_Y^2+(\mu_Y-a)^2}g\left(\mu_x+\dfrac{\sigma_Y^2}{\mu_Y-a}\right)+\dfrac{\sigma_Y^2}{\sigma_Y^2+(\mu_Y-a)^2}g(a)[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 11:10:12 am
Hola

Ok, y esta cota final, no es óptima de [texx]P(X+Y<0)[/texx] aún siendo [texx]X,Y[/texx] independientes? Pq si entendí bien en la primer desigualdad la aplicamos a [texx]X[/texx] y en la segunda a [texx]Y[/texx], pero al ser independientes, me suena a que podría resultar óptima.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 12:06:24 pm
Hola

Ok, y esta cota final, no es óptima de [texx]P(X+Y<0)[/texx] aún siendo [texx]X,Y[/texx] independientes? Pq si entendí bien en la primer desigualdad la aplicamos a [texx]X[/texx] y en la segunda a [texx]Y[/texx], pero al ser independientes, me suena a que podría resultar óptima.

A ver si me explico.

La primera cota la utilizamos para acotar [texx]P(X+y<0)[/texx]:

[texx]P(X+y<0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu+y)^2}[/texx]

La distribución que [texx]X[/texx] que da esa cota óptima depende del valor de [texx]y[/texx] (esa es la clave del problema). Es una distribución discreta que toma valores en dos puntos que dependen de [texx]y[/texx].

A su vez la distribución que da la cota óptima para [texx]Y[/texx] (la de Williasen) también toma valore en dos puntos [texx]y_1[/texx] e [texx]y_2[/texx].

 El problema al combinar ambas, es que la distribución que usemos para la cota óptima de [texx]X[/texx] o bien usa [texx]y_1[/texx] o bien usa [texx]y_2[/texx], pero no ambas. Entonces la combinación de ambas distribuciones no va a dar la cota óptima.

 Sea como sea, si estoy confundido y la cota es óptima la forma, la forma de probarlo es dar un ejemplo de distribución donde se alcanza.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 12:19:42 pm
Hola

Pero, en general, estas cotas, si son óptimas, se llega con una distribución con dos valores de soporte por cada variable aleatoria, no?. Si no es fácil hallarlos, puede que no sean óptimas, no?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 12:49:25 pm
Hola

Pero, en general, estas cotas, si son óptimas, se llega con una distribución con dos valores de soporte por cada variable aleatoria, no?. Si no es fácil hallarlos, puede que no sean óptimas, no?

Si, normalmente si son óptimas se prueba con el tipo de distribución que dices. Pero no puedo afirmar rigurosamente que tenga que ser así.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 12:51:51 pm
Hola

El problema primario es hallar la menor cota superior de [texx]P(X+Y<0)=E(1\left\{{X+Y<0}\right\})[/texx] no se debería hallar la cota óptima de la función indicatriz y luego tomar esperanza.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 12:57:26 pm
Hola

El problema primario es hallar la menor cota superior de [texx]P(X+Y<0)=E(1\left\{{X+Y<0}\right\})[/texx] no se debería hallar la cota óptima de la función indicatriz y luego tomar esperanza.

La cota óptima es la propia función; la cota "óptima" por un polinomio de grado dos (para hacer intervenir al aplicar esperanza la media y varianza). Esa es la idea que planteé aquí:

En dos variables habría que hacer algo así. Considerar la función:

[texx]f(x,y)={\bf 1}_{X+Y<0}(x,y)=\begin{cases} 1 & \text{si}& X+Y<0\\0 & \text{si}& X+Y\geq 0\end{cases}[/texx]

de forma que:

[texx]P(X+Y<0)=E[f(X,Y)][/texx]

después construir una función de grado [texx]2[/texx], [texx]z=g(x,y)[/texx] verficando:

[texx]f(x,y)\geq g(x,y)[/texx] para todo [texx](x,y)\in \mathbb{R^2}[/texx]

de forma que:

[texx]P(X+Y<0)=E[f(X,Y)]\leq E[g(X,Y)][/texx]

Como [texx]g(X,Y)[/texx] es da grado dos su esperanza puede calcularse en términos de la esperanza, varianza y covarianza (si fuesen dependientes) de [texx]X[/texx] e [texx]Y[/texx].

Finalmente de todas las [texx]g(x,y)[/texx] en esas condiciones escoger la que de menor valor de [texx]E[g(x,y)].[/texx]

La cosa es que aquí no es tan obvio como escoger la superficie [texx]z=g(x,y)[/texx]  En principo tiene que ser:

1- positiva.
2- tangente al plano [texx]z=0[/texx].
3- tangente a la recta [texx]x+y=0[/texx], [texx]z=1[/texx].

Si uno escoge por ejemplo un cilindro parábolico con generatices paralelas a [texx]x+y=0[/texx] la cota que se obtiene es exactamente la de Cantelli para la variable [texx]X+Y[/texx].

Se podría intentar ver que sale más en general con una superficie cumpliendo (1),(2),(3).

Estuve intentado algo en ese sentido pero no he llegado a nada concreto.

Cuando usamos [texx]Z=X+Y[/texx] y Cantelli es como si cogíesemos como función de grado dos un cilindro parabólico paralelo a la recta [texx]X+Y[/texx]; a vuelvapluma parecería la mejor opción posible.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 02:15:31 pm
Es decir, la función tendrá esta forma?

[texx]g(x,y)=ax^2+by^2+cxy+dx+ey+f[/texx], siendo [texx]a,b,c,d,e,f[/texx] constantes.






Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 02:25:58 pm
Hola

Es decir, la función tendrá esta forma?

[texx]g(x,y)=ax^2+by^2+cxy+dx+ey+f[/texx], siendo [texx]a,b,c,d,e,f[/texx] constantes.

Exacto. Dado que queremos acotar superiormente [texx]1_{X+Y<0}[/texx] es razonable constuirla tangente al plano [texx]z=0[/texx] en un punto [texx](x_0,y_0)[/texx] con [texx]x_0+y_0\geq 0[/texx]. Se puede probar que eso la deja con esta "pinta":
[texx]
g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 02:30:49 pm
[texx](x_0,y_0)[/texx] qué valores puede tomar? [texx](0,0)[/texx], digo para simplificar o capaz [texx](\mu_X,\mu_Y)[/texx] de moda que cuando se tomen esperanzas queda la covarianza y si son independientes quedaría cero y queda las sumas de las varianzas, sin saber qué es [texx]a,b[/texx] ???


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 02:36:48 pm
Hola

[texx](x_0,y_0)[/texx] qué valores puede tomar? [texx](0,0)[/texx], digo para simplificar o capaz [texx](\mu_X,\mu_Y)[/texx] de moda que cuando se tomen esperanzas queda la covarianza y si son independientes quedaría cero y queda las sumas de las varianzas, sin saber qué es [texx]a,b[/texx] ???

[texx](x_0,y_0)[/texx] puede tomar cualquier valor con la condición [texx]x_0+y_0>0[/texx].

Cualquier limitación (que no emane de la condición ineludible de que [texx]g(x,y)\geq 1_{X+Y>0}[/texx] o de algún criterio obvio de optimización) que le pongamos, a priori podría dejar fuera la cota óptima.

En concreto las condiciones que hay que añadir son:

1) [texx]a\geq 0[/texx], [texx]c\geq  0[/texx] y [texx]4ac-b^2\geq 0[/texx], todo esto para garantizar que en [texx](x_0,y_0)[/texx] efectivamente hay un mínimo y no un máximo.

2) Que la superficie [texx]z=g(x,y)[/texx] sea tangente a la recta [texx]x+y=0[/texx], [texx]z=1[/texx]. Esto se traduce a una ecuación que relaciona los coeficientes [texx]a,b,c,x_0,y_0[/texx].

Con esas restricciones hay que hallar [texx]a,b,c,x_0,y_0[/texx] para que [texx]E[g(x,y)][/texx] sea mínimo.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 02:45:36 pm
Pero en el problema original [texx]X[/texx] tiene soporte positivo, por lo tanto [texx]x\leq{}0[/texx] y [texx]Y[/texx] puede tomar valores negativos, creo que el análisis que estamos buscando no le imponemos esta condición del soporte, no?. Entonces [texx](x_0,y_0)[/texx] surgen del proceso de optimización, no puede tomarse las medias, por ejemplo?

Quedaría


[texx]min \left\{{aE(X-x_0)^2+bE(X-x_0)(Y-y_0)+cE(Y-y_0)^2}\right\}[/texx], no queda muy lindo, pq [texx]a=c=0[/texx] hay algo que no me gusta.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 03:04:32 pm
Hola

Pero en el problema original [texx]X[/texx] tiene soporte positivo, por lo tanto [texx]x\leq{}0[/texx] y [texx]Y[/texx] puede tomar valores negativos, creo que el análisis que estamos buscando no le imponemos esta condición del soporte, no?.

No entiendo que quieres decir con ese párrafo. Efectivamente todo lo que he razonado en mis últimos mensajes es sin ninguna condición en los soportes.

Cita
Entonces [texx](x_0,y_0)[/texx] surgen del proceso de optimización, no puede tomarse las medias, por ejemplo?

Pero nada asegura que tomando ese punto sobre las medias se obtenga la cota óptima; de hecho en el análogo de una dimensión (Cantelli) que puede probarse acotando con una parábola de forma análoga a lo que intentamos aquí, si mal no recuerdo el vértice de esa parábola, su mínimo, NO está sobre la media.

Cita
Quedaría

[texx]min \left\{{aE(X-x_0)^2+bE(X-x_0)(Y-y_0)+cE(Y-y_0)^2}\right\}[/texx], no queda muy lindo, pq [texx]a=c=0[/texx] hay algo que no me gusta.

Efectivamente si tomas [texx](x_0,y_0)=(\mu_X,\mu_y)[/texx] y son independientes eso queda sólo en función de las varianzas, desapareciendo las medias.

No olvides además que hay que imponer que la función quede por encima del trozo de plano gráfica de [texx]1_{X+Y>0}[/texx]; por eso impongo esa condición de tangencia sobre la recta límite de ese semiplano.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 03:23:27 pm
Entonces la optimización sería
 
[texx]min\left\{{g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2}\right\}[/texx] sujeto a cuáles restricciones. Una restricción pusiste [texx]z=1[/texx] y luego la cambiaste a [texx]z=0[/texx] para llegar a esta expresión, cuál de las dos va?







Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 03:32:16 pm
Hola

Entonces la optimización sería
 
[texx]min\left\{{g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2}\right\}[/texx] sujeto a cuáles restricciones. Una restricción pusiste [texx]z=1[/texx] y luego la cambiaste a [texx]z=0[/texx] para llegar a esta expresión, cuál de las dos va?

No soy consciente de haber cambiado nada. Las restricciones son estas:

[texx](x_0,y_0)[/texx] puede tomar cualquier valor con la condición [texx]x_0+y_0>0[/texx].

[...]

1) [texx]a\geq 0[/texx], [texx]c\geq  0[/texx] y [texx]4ac-b^2\geq 0[/texx], todo esto para garantizar que en [texx](x_0,y_0)[/texx] efectivamente hay un mínimo y no un máximo.

2) Que la superficie [texx]z=g(x,y)[/texx] sea tangente a la recta [texx]x+y=0[/texx], [texx]z=1[/texx]. Esto se traduce a una ecuación que relaciona los coeficientes [texx]a,b,c,x_0,y_0[/texx].

Con esas restricciones hay que hallar [texx]a,b,c,x_0,y_0[/texx] para que [texx]E[g(x,y)][/texx] sea mínimo.

Y ojo, lo que hay que minimizar no es [texx]g(x,y)[/texx], sino [texx]E[g(x,y)].[/texx]

Nota que [texx]x+y=0[/texx], [texx]z=1[/texx] son LAS DOS juntas la ecuación de una recta.

La ecuación que digo que sale de la condición (2) tendría que calcularla. No es bonita.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 03:50:15 pm
Si, me comí el operador esperanza. En el mensaje 69 pones [texx]z=0[/texx] capaz que es una errata.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 04:30:15 pm
Hola

Si, me comí el operador esperanza. En el mensaje 69 pones [texx]z=0[/texx] capaz que es una errata.

No, no es una errata. Ahí digo que tiene que ser tangente al plano [texx]z=0[/texx], porque me estoy refieriendo a ajustarlo a la parte donde la función [texx]1_{X+Y<0}[/texx] vale cero. Por eso digo que tiene que tener un mínimo en [texx](x_0,y_0)[/texx] con [texx]x_0+y_0\geq 0.[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 04:42:22 pm
Hola

Pero si tenemos que minimizar [texx]E\left\{{g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2}\right\}=aE(X-x_0)^2+bE(X-x_0)(Y-y_0)+cE(Y-y_0)^2[/texx] sujeto a algo, eso no implica poner [texx]a=b=c=0[/texx]. Por eso digo que queda medio raro, es como si impusiera que el mínimo de [texx]Eg(X,Y)=0[/texx], algo en el razonamiento estoy haciendo mal.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 05:24:19 pm
Hola

Cita
Pero si tenemos que minimizar [texx]E\left\{{g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2}\right\}=aE(X-x_0)^2+bE(X-x_0)(Y-y_0)+cE(Y-y_0)^2[/texx] sujeto a algo, eso no implica poner [texx]a=b=c=0[/texx]. Por eso digo que queda medio raro, es como si impusiera que el mínimo de [texx]Eg(X,Y)=0[/texx], algo en el razonamiento estoy haciendo mal.

Estás olvidando esta condición troncal:

2) Que la superficie [texx]z=g(x,y)[/texx] sea tangente a la recta [texx]x+y=0[/texx], [texx]z=1[/texx]. Esto se traduce a una ecuación que relaciona los coeficientes [texx]a,b,c,x_0,y_0[/texx].

Esa es la que nos garantiza que la superficie "remonte", se "levante" sobre la función [texx]1_{X+Y<0}[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 26/04/2017, 05:26:12 pm
Hola

Es que mi pensamiento no trabaja con tres dimensiones.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 26/04/2017, 05:30:55 pm
Hola

 Aquí tienes un esquema para que veas mejor la situación. Puedes mover el punto mínimo del paraboloide y modificar los valores de [texx]a,b,c.[/texx] El ajuste a que sea tangente a la recta límite del semiplano superior hay que hacerlo a mano (lo he hecho algo rápido) no lo controla el geogebra:


Saludos.




Título: Re: Chebyschev
Publicado por: Luis Fuentes en 27/04/2017, 06:16:26 am
Hola

 Más tarde compruebo y escribo la prueba; sin la hipótesis de independencia, si tengo la cota óptima conocidas, varianzas y medias:

[texx]P(X+Y\leq 0)\leq \dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 27/04/2017, 11:35:09 am
Hola

 Resultado. Sean [texx]X,Y[/texx] dos variables aleatorias con respectivamente medias [texx]\mu_X,\mu_Y[/texx] y varianzas [texx]\sigma_X^2,\sigma_Y^2[/texx]. Si [texx]\mu_X+\mu_Y>0[/texx] entonces:

[texx]P(X+Y\leq 0)=\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx]

 Además la cota es óptima.

 Prueba. Sea [texx]Z=X+Y[/texx]. Como [texx]\mu_Z=\mu_X+\mu_Y>0[/texx], por la desigualdad de Cantelli:

[texx] P(X+Y\leq 0)=P(Z\leq 0)\leq \dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}=\dfrac{1}{1+\frac{\mu_Z^2}{\sigma_Z^2}}[/texx]

 Se tiene que:

[texx] \sigma_Z^2=Var(X+Y)=\sigma_X^2+\sigma_Y^2+2Cov(X,Y)[/texx]

 Además por la desigualdad de Cauchy:

[texx] cov(X,Y)\leq \sigma_X\sigma_Y[/texx]

 y por tanto:

[texx] \sigma_Z^2\leq \sigma_X^2+\sigma_Y^2+2\sigma_X\sigma_Y=(\sigma_X+\sigma_Y)^2[/texx]

 Entonces:

[texx] P(X+Y\leq 0)\leq \dfrac{1}{1+\frac{\mu_Z^2}{\sigma_Z^2}}\leq \dfrac{1}{1+\frac{\mu_Z^2}{(\sigma_X+\sigma_Y)^2}}=\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx]

 Para ver que la cota es óptima basta considerar la distribución en dos puntos [texx](x_1,y_1)[/texx] con probabilidad [texx]p[/texx] y [texx](x_2,y_2)[/texx] con probablididad [texx]1-p[/texx]:

[texx] x_1=\dfrac{\mu_X\sigma_Y-\mu_Y\sigma_X}{\sigma_X+\sigma_Y},\qquad y_1=\dfrac{\mu_Y\sigma_X-\mu_X\sigma_Y}{\sigma_X+\sigma_Y},\qquad p=\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx]

[texx]x_2=\mu_X+\dfrac{\sigma_X(\sigma_X+\sigma_Y)}{\mu_X+\mu_Y},\qquad y_2=\mu_Y+\dfrac{\sigma_Y(\sigma_X+\sigma_Y)}{\mu_X+\mu_Y},\qquad 1-p=\dfrac{(\mu_X+\mu_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 27/04/2017, 11:54:47 am
Hola

Y saber que las variables son independientes en si no ayuda a mejorar la cota? O de otra forma, saber la covarianza entre las dos, no puede hacer mejorar la cota?

Además:

La extensión para [texx]n[/texx] variables es inmediata?

Si en lugar de [texx]P(X+Y<0)[/texx] fuera [texx]P(X+Y<m)[/texx] siendo [texx]m[/texx] una constante, cómo sería?

Ahí creo que definiríamos [texx]Z=X+Y-m[/texx] con la condición [texx]\mu_X+\mu_Y-m>0[/texx], no?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 27/04/2017, 12:08:04 pm
Hola

Y saber que las variables son independientes en si no ayuda a mejorar la cota? O de otra forma, saber la covarianza entre las dos, no puede hacer mejorar la cota?

Evidentemente si y ya se tiene la mejora en la demostración anterior. Si hacemos intervenir la covarianza queda:

[texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2+2cov(X,Y)}{\sigma_X^2+\sigma_Y^2+2cov(X,Y)+(\mu_X+\mu_Y)^2}[/texx]

En particular si son independientes la que ya habíamos dicho:

[texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]

La diferencia es que en estos dos casos no sé probar (al menos por el momento) que las cotas sean óptimas (y no estoy seguro de que lo sean).

Cita
Además:

La extensión para [texx]n[/texx] variables es inmediata?

No tengo ahora tiempo de hacer las cuentas, pero yo creo que si. Si tienes tres se aplica la misma idea agrupando dos [texx](X+Y)+Z[/texx], aplicando la cota y acotando la covarianza.

Cita
Si en lugar de [texx]P(X+Y<0)[/texx] fuera [texx]P(X+Y<m)[/texx] siendo [texx]m[/texx] una constante, cómo sería?

Así:

[texx]P(X+Y\leq m)=\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y-m)^2}[/texx]

Saludos.

P.D. Aquí aparece un compendio de desigualdades de este estilo. No las he mirado en detalle:

http://nvlpubs.nist.gov/nistpubs/jres/65B/jresv65Bn3p211_A1b.pdf


Título: Re: Chebyschev
Publicado por: Quema en 27/04/2017, 12:31:29 pm
Hola

Para [texx]n[/texx] no se puede demostrar por inducción completa? Definiendo [texx]S=X_1+X_2+...+X_n[/texx] entonces [texx]P(S<0)\leq{}\displaystyle\frac{\displaystyle\sum_{i=1}^n{\sigma_i^2}}{\sigma_i^2+(\displaystyle\sum_{i=1}^n{}\mu_i^2)^2}[/texx], no?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 27/04/2017, 01:47:00 pm
Hola

Para [texx]n[/texx] no se puede demostrar por inducción completa? Definiendo [texx]S=X_1+X_2+...+X_n[/texx] entonces [texx]P(S<0)\leq{}\displaystyle\frac{\displaystyle\sum_{i=1}^n{\sigma_i^2}}{\sigma_i^2+(\displaystyle\sum_{i=1}^n{}\mu_i^2)^2}[/texx], no?

Más o menos. La inducción hace falta sólo en un par de pasos:

- Tomando [texx]S=X_1+X_2+\ldots+X_n[/texx] por Cantelli esta cota es directa:

[texx]P(S\leq 0)\leq \dfrac{\displaystyle\sum_{i,j=1}^n{}Cov(X_i,X_j)}{\displaystyle\sum_{i,j=1}^n{}Cov(X_i,X_j)+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx]

(donde [texx]Cov(X_i,X_i)=var(X_i)[/texx])

 Como en el caso de dos variables, no sé si es óptima.

- Si son independientes también se tiene directamente:

[texx]P(S\leq 0)\leq \dfrac{\displaystyle\sum_{i=1}^n{}Var(X_i)}{\displaystyle\sum_{i=1}^nVar(X_i)+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx]
 
 Tampoco sabemos si es óptima.

- Por otra parte vimos que [texx]Cov(X_i,X_j)\leq \sigma_{X_i}\sigma_{X_j}[/texx] y por tanto:

[texx]\displaystyle\sum_{i,j=1}^n{}Cov(X_i,X_j)\leq \displaystyle\sum_{i,j=1}^n{}\sigma_{X_i}\sigma_{X_j}=\left(\sum_{i=1}^n\sigma_{X_i}\right)^2[/texx]

 Lo cual nos deriva en una cota cuando no sabemos las convarianzas (análoga a la que escribí para [texx]n=2[/texx]).:

[texx]P(S\leq 0)\leq \dfrac{\left(\sum_{i=1}^n\sigma_{X_i}\right)^2}{\left(\sum_{i=1}^n\sigma_{X_i}\right)^2+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx]

 Y esta si que es óptima.

 La cota  se alcanza tomando una distribución en dos puntos [texx]A=(a_1,a_2,\ldots,a_n)[/texx] y [texx]B=(b_1,b_2,\ldots,b_n)[/texx] con probabilidad [texx]p=\dfrac{\left(\sum_{i=1}^n\sigma_{X_i}\right)^2}{\left(\sum_{i=1}^n\sigma_{X_i}\right)^2+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx] en [texx]A[/texx] y [texx]1-p[/texx] en [texx]B[/texx], con:

[texx]a_i=\dfrac{E[X_i]\sum_{j=1}^n\sigma_{X_j}-\sigma_{X_i}\sum_{j=1}^nE[X_j]}{\sum_{j=1}^n\sigma_{X_j}}[/texx]

[texx]b_i=E[X_i]+\dfrac{\sigma_{X_i}+\sum_{j=1}^n\sigma_{X_j}}{\sum_{j=1}^nE[X_j]}[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 27/04/2017, 03:41:30 pm
Hola

En el compendio de desigualdades no aparecen las desigualdades que discutimos en este foro. En tu mensaje # 85 pones

"La diferencia es que en estos dos casos no sé probar (al menos por el momento) que las cotas sean óptimas (y no estoy seguro de que lo sean)."

Hablás en plural, pero anteriormente habías probado que una era una cota óptima.  ???

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 27/04/2017, 03:49:18 pm
Hola

Hablás en plural, pero anteriormente habías probado que una era una cota óptima.  ???

Es óptima esta:

[texx]P(S\leq 0)\leq \dfrac{\left(\sum_{i=1}^n\sigma_{X_i}\right)^2}{\left(\sum_{i=1}^n\sigma_{X_i}\right)^2+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx]

No son óptimas estas dos:

[texx]P(S\leq 0)\leq \dfrac{\displaystyle\sum_{i,j=1}^n{}Cov(X_i,X_j)}{\displaystyle\sum_{i,j=1}^n{}Cov(X_i,X_j)+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx]

[texx]P(S\leq 0)\leq \dfrac{\displaystyle\sum_{i=1}^n{}Var(X_i)}{\displaystyle\sum_{i=1}^nVar(X_i)+\left(\sum_{i=1}^nE[X_i]\right)^2}[/texx] (para independientes)

Saludos.



Título: Re: Chebyschev
Publicado por: Quema en 27/04/2017, 05:08:19 pm
Hola

Si además de la media y la varianza, me dicen que las dos variables aleatorias son simétricas respecto a su media, se puede mejora la cota que es óptima.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 27/04/2017, 06:18:27 pm
Hola

Si además de la media y la varianza, me dicen que las dos variables aleatorias son simétricas respecto a su media, se puede mejora la cota que es óptima.

Previsiblemente si. La distribución que alcanza el máximo no es simétrica; así que es de esperar que con ese dato adicional la cota baje.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 27/04/2017, 09:35:09 pm
Hola

Son comparables esta cota óptima con las cotas del estilo del mensaje #9.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 28/04/2017, 05:02:25 am
Hola

Son comparables esta cota óptima con las cotas del estilo del mensaje #9.

Es comparable con cualquier cota que acote lo mismo: [texx]P(S\leq 0)[/texx].

Si la cota utiliza las mismas hipótesis ya sabemos que la óptima va a ser mejor; en otro caso, si la cota utilza otros datos o hipótesis podría mejorar la cota dada antes, en función de esos datos adicionales.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 28/04/2017, 09:25:14 am
Hola

En el mensaje #2 hay un trabajo adjunto que muestra: Dado variables aleatorias con soporte no negativo e independientes [texx]X_1,X_2,...,X_n[/texx] con primeros dos momentos finitos y [texx]t>0[/texx] entonces [texx]P(\mu_S-S\geq{}t)\leq{}exp\left\{\displaystyle\frac{-t^2}{2\displaystyle\sum_{i=1}^n{E(X_i^2)}}\right\}[/texx].

Estamos con los mismos datos, salvo la no negatividad del soporte, no? Y esa cota no es obviamente óptima. Salvo que el supuesto de no negatividad del soporte sea determinante para que esa cota sea de esta forma.

Si, además de [texx]\mu_X+\mu_Y[/texx] me dicen que [texx]X[/texx] tiene soporte positivo, esta información puede hacer mejorar la cota óptima que se encontró?.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 28/04/2017, 01:57:17 pm
Hola

En el mensaje #2 hay un trabajo adjunto que muestra: Dado variables aleatorias con soporte no negativo e independientes [texx]X_1,X_2,...,X_n[/texx] con primeros dos momentos finitos y [texx]t>0[/texx] entonces [texx]P(\mu_S-S\geq{}t)\leq{}exp\left\{\displaystyle\frac{-t^2}{2\displaystyle\sum_{i=1}^n{E(X_i^2)}}\right\}[/texx].

Estamos con los mismos datos, salvo la no negatividad del soporte, no? Y esa cota no es obviamente óptima. Salvo que el supuesto de no negatividad del soporte sea determinante para que esa cota sea de esta forma.

Si, además de [texx]\mu_X+\mu_Y[/texx] me dicen que [texx]X[/texx] tiene soporte positivo, esta información puede hacer mejorar la cota óptima que se encontró?.

Pero si el soporte es no negativo, entonces [texx] P(S<0)=0[/texx].

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 28/04/2017, 02:46:48 pm
Perdón, me refería más que nada a los supuestos del referido mensaje. Por ejemplo esta desigualdad de Bernstein:

Sean [texx]X_i[/texx] variables aleatorias independientes con [texx]X_i-\mu_i\leq{}d[/texx], dado [texx]t>0[/texx] entonces
[texx]P(S-\mu_S\geq{}t)\leq{}exp\left\{-{\displaystyle\frac{t^2}{2\displaystyle\sum_{i=1}^n{\sigma^2_i}+\displaystyle\frac{2td}{3}}}\right\}[/texx]


Título: Re: Chebyschev
Publicado por: Quema en 30/04/2017, 02:14:04 pm
Hola

Estuve revisando un poco todo y creo que si [texx]X,Y[/texx] son independientes
[texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]
tiene que ser óptima.

No se puede hallar esos dos valores de la siguiente forma,[texx]\mu_X=x_1p+(1-p)x_2[/texx] con [texx]p=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx] lo mismo con la varianza y nos queda un sistema dos por dos. Luego tomar [texx]y_1=-x_1[/texx].

Hice algo en Mathematica, le llamé [texx]x_1=x,x_2=y,a=\sigma_X,b=\sigma_Y,c=\mu_X,d=\mu_Y[/texx] y hallo unos valores (adjunto archivo), en realidad me estoy dando cuenta que está mal, pues [texx]X,Y[/texx] no son independientes. Veo que es difícil armar un sistema de ecuaciones del estilo cuando estas variables son independientes. Me llama la atención que las dos variables aleatorias para las cuales se cumple la igualdad son dependientes. No hubiera sido esperable que fueran independientes?
Además, no me queda muy claro que si tengo [texx]P(Z\leq{}0)\leq\dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx], es óptima por Cantelli, pero si ahora digo que [texx]Z=X+Y[/texx] siendo [texx]X,Y[/texx] independientes ahora no estoy seguro que [texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]. ??? ???


Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 03/05/2017, 10:00:06 am
Hola

Estuve revisando un poco todo y creo que si [texx]X,Y[/texx] son independientes
[texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]
tiene que ser óptima.

No se puede hallar esos dos valores de la siguiente forma,[texx]\mu_X=x_1p+(1-p)x_2[/texx] con [texx]p=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx] lo mismo con la varianza y nos queda un sistema dos por dos. Luego tomar [texx]y_1=-x_1[/texx].

Hice algo en Mathematica, le llamé [texx]x_1=x,x_2=y,a=\sigma_X,b=\sigma_Y,c=\mu_X,d=\mu_Y[/texx] y hallo unos valores (adjunto archivo), en realidad me estoy dando cuenta que está mal, pues [texx]X,Y[/texx] no son independientes.

Efectivamente. El problema para la optimalidad es encontrar un ejemplo de variables independientes donde se alcance la cota. Yo había hecho unas cuentas con Mathematica y para [texx]X,Y[/texx] de Bernouilli (cada una de ellas soporte en dos puntos) es imposible.  De ahí mis sospechas sobre el hecho de que no sea óptima la cota en ese caso.

Cita
Veo que es difícil armar un sistema de ecuaciones del estilo cuando estas variables son independientes. Me llama la atención que las dos variables aleatorias para las cuales se cumple la igualdad son dependientes. No hubiera sido esperable que fueran independientes?

Pues... el hecho es que no son. Y dado que la cota viene de aplicar una de una variable (la de Cantelli) a lo mejor no es tan raro que la independencia sea un problema.

Cita
Además, no me queda muy claro que si tengo [texx]P(Z\leq{}0)\leq\dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx], es óptima por Cantelli, pero si ahora digo que [texx]Z=X+Y[/texx] siendo [texx]X,Y[/texx] independientes ahora no estoy seguro que [texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]. ??? ???

Aquí no entiendo la duda. La desigualdad para dos variables y su generalización a [texx]n[/texx] la he probado rigurosamente
 algunos mensajes atrás. ¿Cuál es la duda?. Es simplemente aplicar Cantelli a la variable [texx]Z=X+Y[/texx]. ¿Qué es lo que te choca? ¿Por qué no habría de poderse hacer eso?.

En el cálculo de [texx]Var(Z)[/texx] es donde influye si las variables son o no independientes, ya que aparece la covarianza [texx]cov(X,Y)[/texx].

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 03/05/2017, 12:53:00 pm
Mi duda es que si considero [texx]Z[/texx] la cota es óptima, pero si es [texx]X+Y[/texx] no sabemos si lo es.


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 03/05/2017, 01:07:32 pm
Hola

Mi duda es que si considero [texx]Z[/texx] la cota es óptima, pero si es [texx]X+Y[/texx] no sabemos si lo es.

Si; eso es lo que ocurre. El motivo es claro. La distribución que da la cota óptima para [texx]Z[/texx] toma valores sólo en dos puntos. Eso no puede obtenerse para variables independientes (salvo que alguna de las variables fuese puntual, con varianza cero). Si [texx]X[/texx] toma al menos dos valores e [texx]Y[/texx] toma al menos dos valores, entonces la suma [texx]X+Y[/texx] al menos toma tres valores:

[texx]min(X)+min(Y), min(X)+max(Y),max(X)+max(Y)[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 03/05/2017, 03:07:41 pm
Hola

No entiendo cuando dices que "...no puede obtenerse para variables independientes..."Formalmente puedes mostrar que esa cota no es óptima para [texx]X+Y[/texx]?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 03/05/2017, 04:31:58 pm
Hola

No entiendo cuando dices que "...no puede obtenerse para variables independientes..."Formalmente puedes mostrar que esa cota no es óptima para [texx]X+Y[/texx]?

Lo que puedo probar formalmente es que si [texx]X[/texx] e [texx]Y[/texx] son independientes de media y varianza dada su suma no va a ser la distribución discreta que SABEMOS que da la cota de Cantelli para [texx]Z=X+Y.[/texx]

Sin embargo, incluso si probamos que la única distribución que alcanza la cota de Cantelli es precisamente esa discreta en dos puntos, entonces todavía no tendríamos demostrado que la cota no es óptima ya que a priori (si no probamos lo contrario) podrían construirse distribuciones [texx]X[/texx] e [texx]Y[/texx] cuya suma no fuese alcanzase cota máxima pero si se acercase tanto a ella como queramos.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 03/05/2017, 04:38:01 pm
No entendí tu último mensaje.

Además, me llama la atención que en el ejemplo que se mostró que [texx]\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx] es óptima, justo [texx]X,Y[/texx] en ese ejemplo son dependientes, no deberían haber sido independientes?


Título: Re: Chebyschev
Publicado por: Quema en 03/05/2017, 05:36:50 pm
Cómo sería

Lo que puedo probar formalmente es que si [texx]X[/texx] e [texx]Y[/texx] son independientes de media y varianza dada su suma no va a ser la distribución discreta que SABEMOS que da la cota de Cantelli para [texx]Z=X+Y.[/texx]


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 04/05/2017, 05:52:05 am
Hola

Además, me llama la atención que en el ejemplo que se mostró que [texx]\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx] es óptima, justo [texx]X,Y[/texx] en ese ejemplo son dependientes, no deberían haber sido independientes?

No, al contrario, es lógico que sean dependientes. Fíjate que esa desigualdad aparece cuando [texx]Var(X+Y)[/texx] toma el máximo valor posible:

[texx]Var(X+Y)=(Var(X)+Var(Y))^2[/texx]

Equivalentemente cuando [texx]cov(X,Y)^2=Var(X)Var(Y)[/texx]; eso ocurre cuando [texx]X[/texx] e [texx]Y[/texx] tienen la máxima dependencia, de forma que si conocemos el valor de [texx]X[/texx] entonces conocemos el valor de [texx]Y[/texx]. Eso se refleja en que nuestra distribución óptima conjunta toma valores en dos puntos [texx](x_1,y_1)[/texx] y [texx](x_2,y_2)[/texx] de forma que si [texx]X=x_i[/texx] necesariamente [texx]Y=y_i[/texx].

Cita
No entendí tu último mensaje.

Entiendo que especificas tu duda después:

Cómo sería

Lo que puedo probar formalmente es que si [texx]X[/texx] e [texx]Y[/texx] son independientes de media y varianza dada su suma no va a ser la distribución discreta que SABEMOS que da la cota de Cantelli para [texx]Z=X+Y.[/texx]

Para una variable [texx]Z[/texx] con media [texx]\mu_Z[/texx] y varianza [texx]\sigma_Z^2[/texx], sabemos que la cota óptima para [texx]P(Z\leq 0)[/texx] se obtiene tomando la distribución discreta:

[texx]z_1=0[/texx] con probabilidad [texx]\dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx]

[texx]z_2=\dfrac{\sigma_Z^2+\mu_Z^2}{\mu}[/texx] con probabilidad [texx]\dfrac{\mu_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx]

Por otra parte sin embargo, dadas dos variables independientes [texx]X[/texx] e [texx]Y[/texx] con media [texx]\mu_X,\mu_Y[/texx] y varianzas [texx]\sigma_X^2,\sigma_Y^2[/texx] no nulas. Es imposible que su suma [texx]Z=X+Y[/texx] sea una variable discreta con soporte en dos puntos como la descrita arriba. Veámoslo.

Dado que las varianzas son no nulas el soporte de cada uno es no puntual.

Entonces existe dos puntos [texx]a<b[/texx] de forma que en cualquier entorno de ellos la probabilidad de [texx]X[/texx] en ese entorno es no nula.

Análogamente existen dos puntos [texx]c<d[/texx] de forma que en cualquier entorno de ellos la probabilidad de [texx]Y[/texx] en ese entorno es no nula.

Entonces en un cualquier entorno de [texx]a+c<a+d<b+d[/texx], la probabilidad de [texx]X+Y[/texx] es no nula (ya que por la independencia la probabilidad es el producto de probabilidades). Por tanto la distribución de [texx]X+Y[/texx] no está concentrada en dos puntos.

Adicionalmente a todo esto he indicado que:

0) Acabo de probar que es imposible que la suma de dos variables independientes X,Y con varianza no nula sea una distribución discreta en dos puntos.

1) Podríamos intentar probar que la única distribución de una variable [texx]Z[/texx] que da la cota óptima para [texx]P(Z<0)[/texx] es la que he indicado antes en dos puntos. Creo que esto es cierto y se puede demostrar.

2) Pero aun así, podría ocurrir (aunque sospecho que no ocurre) que uno pueda construir secuencias de variables [texx]X,Y[/texx] independientes con la media y varianza fijada, de manera que si bien [texx]X+Y[/texx] no alcanza la cota óptima si se acerca tanto como queramos.

Con 0) 1) 2) quiero decir que aunque se cumpla 0 (eso lo tenemos probado) y se cumpla 1 (eso creo que es cierto, pero no está probado) todavía habría que descartar 2 para afirmar que la cota NO es óptima.

Finalmente una observación obvia: la forma indiscutible de probar que la cota no es óptima es encontrar otra mejor.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 04/05/2017, 09:12:04 am
Hola

En la respuesta #44 se propone la cota

[texx]\bf{\color{green}P(X+Y\leq 0)\leq 1-\dfrac{\sigma_Y^2+(\mu_X+\mu_Y)^2}{\sigma_X^2+b^2}\color{black}}[/texx] si [texx]sop(Y)\subset [-\mu_X,-\mu_X+b][/texx]. Ahora como sabemos que [texx]\sigma_Y^2\leq{}(b-\mu_X-\mu_Y)(\mu_Y+\mu_X)[/texx], y defino el [texx]b[/texx] para la igualdad de esta desigualdad es decir [texx]b=\mu_X+\mu_y+\displaystyle\frac{\sigma_Y^2}{\mu_X+\mu_Y}[/texx], sustituyo ese valor en la cota de más arriba y me queda una cota determinada únicamente sabiendo las medias y las varianzas de [texx]X,Y[/texx] y si interpreto bien el cuadro de los gráficos de ese mensaje (si la línea gris es la cota derivada por la desigualdad de Cantelli), esta cota es menor a la que llamamos cota [texx] \dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]  por lo tanto ésta no sería óptima.

Probé con [texx]\mu_X=0.8,\mu_Y=0.2,\sigma_X^2=0.25,\sigma_Y^2=0.2025[/texx] y me da lo que llamamos en el mensaje #44 cota 1 igual a 0.31 y lo que llamamos cota 3, tomando el [texx]b[/texx] de más arriba, 0.29. Esto mostraría que la cota derivada por la desigualdad de Cantelli no podría ser óptima. Algo estoy haciendo mal, pq incluso este valor me da mejor que la cota [texx]\dfrac{(\sigma_X+\sigma_Y)^2}{(\sigma_X+\sigma_Y)^2+(\mu_X+\mu_Y)^2}[/texx], que con estos valores da 0.47.

Está bien mi razonamiento?

Saludos



Título: Re: Chebyschev
Publicado por: Luis Fuentes en 04/05/2017, 11:03:17 am
Hola

En la respuesta #44 se propone la cota

[texx]\bf{\color{green}P(X+Y\leq 0)\leq 1-\dfrac{\sigma_Y^2+(\mu_X+\mu_Y)^2}{\sigma_X^2+b^2}\color{black}}[/texx] si [texx]sop(Y)\subset [-\mu_X,-\mu_X+b][/texx]. Ahora como sabemos que [texx]\sigma_Y^2\leq{}(b-\mu_X-\mu_Y)(\mu_Y+\mu_X)[/texx], y defino el [texx]b[/texx] para la igualdad de esta desigualdad es decir [texx]b=\mu_X+\mu_y+\displaystyle\frac{\sigma_Y^2}{\mu_X+\mu_Y}[/texx], sustituyo ese valor en la cota de más arriba y me queda una cota determinada únicamente sabiendo las medias y las varianzas de [texx]X,Y[/texx] y si interpreto bien el cuadro de los gráficos de ese mensaje (si la línea gris es la cota derivada por la desigualdad de Cantelli), esta cota es menor a la que llamamos cota [texx] \dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]  por lo tanto ésta no sería óptima.

Pero estás usando la condición extra de que [texx]sop(Y)\subset [-\mu_X,\infty][/texx], entonces esa cota que dices que mejora la de Cantelli para [texx]Z=X+Y[/texx] no es general; por tanto nos sirve para afirmar que la de Cantelli para [texx]Z=X+Y[/texx] no pueda ser la óptima.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 05/05/2017, 11:58:48 am
Hola

Hice lo siguiente la distribución [texx](X,Y)[/texx] (en el eje vertical [texx]Y[/texx], en el horizontal [texx]X[/texx])
[texx]\begin{bmatrix}{}&{0}&{x}\\{-0.6}&{0.01}&{0.09}\\{-0.1}&{0.09}&{0.81}\end{bmatrix}[/texx]
Haciendo variar el valor de [texx]x[/texx] trato de hallar la cota de Cantelli que de igual a [texx]0.1[/texx]. Y me da que para un [texx]x[/texx] muy grande se aproxima a la cota de Cantelli.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 05/05/2017, 12:03:31 pm
Hola

Hice lo siguiente la distribución [texx](X,Y)[/texx] (en el eje vertical [texx]Y[/texx], en el horizontal [texx]X[/texx])
[texx]\begin{bmatrix}{}&{0}&{x}\\{-0.6}&{0.01}&{0.09}\\{-0.1}&{0.09}&{0.81}\end{bmatrix}[/texx]
Haciendo variar el valor de [texx]x[/texx] trato de hallar la cota de Cantelli que de igual a [texx]0.1[/texx]. Y me da que para un [texx]x[/texx] muy grande se aproxima a la cota de Cantelli.

Pero así no tienes la covarianza ni la media prefijada. Es decir no vale ni hallar un ejemplo para unas medias y varianzas concretas que no se pueda generalizar a un ejemplo análogo con cualquier media y varianza; ni tampoco un ejemplo en que para irnos aproximando a la cota se vaya modificando la media y o varianza de alguna variable.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 05/05/2017, 12:21:24 pm
Es decir, fijo las medias y varianzas y luego tanto la probabilidad como los valores que tomen tienen que depender de esas medias y varianzas? No se puede hacer con un sistema de ecuaciones con ciertas restricciones?


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 05/05/2017, 12:36:37 pm
Hola

Es decir, fijo las medias y varianzas y luego tanto la probabilidad como los valores que tomen tienen que depender de esas medias y varianzas? No se puede hacer con un sistema de ecuaciones con ciertas restricciones?

Si, en teoría, si se puede. Es decir uno se puede plantear fijadas las medias y coavarianzas cual es la distribución de [texx]X[/texx] e [texx]Y[/texx] independientes cada una en dos puntos que maximiza [texx]P(X+Y<0).[/texx]

Pero en su momento cuando lo miré las cuentas salían feas; si comprobé numéricamente para varios ejemplos que el máximo era menor que la cota de Cantelli para [texx]X+Y.[/texx]

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 06/05/2017, 12:40:29 pm
Hola

Está bien esto o es una barbaridad? si [texx]X,Y[/texx] son independientes entonces

[texx]P(X+Y<0)=P(e^{X+Y}<e^0)=P(e^Xe^Y<1)=P(e^X<1)P(e^Y<1)[/texx]

Saludos




Título: Re: Chebyschev
Publicado por: EnRlquE en 06/05/2017, 02:15:06 pm
Hola Quema.

 El evento [texx]\{e^{X}<1\}\cap\{e^{Y}<1\}[/texx] está incluido en [texx]\{e^{X+Y}<1\}[/texx] y en general la inclusión es estricta, luego usando la independencia de [texx]X[/texx] e [texx]Y[/texx] sólo podemos afirmar que

[texx]P[e^{X}<1]P[e^{Y}<1]=P[e^{X}<1,e^{Y}<1]\leq P[e^{X+Y}<1].[/texx]

Saludos,

Enrique.


Título: Re: Chebyschev
Publicado por: Quema en 14/05/2017, 09:47:48 am
Hola

La desigualdad de Bernstein para dos variables aleatorias independientes dice: Si tengo [texx]X[/texx] y [texx]Y[/texx] con medias y varianzas [texx]\mu_X,\mu_Y,\sigma^2_X,\sigma^2_Y[/texx] y se cumple que [texx]X-\mu_X\leq{}d[/texx] y [texx]Y-\mu_Y\leq{}d[/texx] entonces

[texx]P(X+Y-\mu_X-\mu_X\geq{}t)\leq{}exp\left\{-{\displaystyle\frac{t^2}{2\displaystyle({\sigma^2_X+\sigma^2_Y)}+\displaystyle\frac{2td}{3}}}\right\}[/texx], puedo expresar esta desigualdad de la forma [texx]P(X+Y<t)[/texx].

Saludos




Título: Re: Chebyschev
Publicado por: Luis Fuentes en 15/05/2017, 11:49:33 am
Hola

Hola

La desigualdad de Bernstein para dos variables aleatorias independientes dice: Si tengo [texx]X[/texx] y [texx]Y[/texx] con medias y varianzas [texx]\mu_X,\mu_Y,\sigma^2_X,\sigma^2_Y[/texx] y se cumple que [texx]X-\mu_X\leq{}d[/texx] y [texx]Y-\mu_Y\leq{}d[/texx] entonces

[texx]P(X+Y-\mu_X-\mu_X\geq{}t)\leq{}exp\left\{-{\displaystyle\frac{t^2}{2\displaystyle({\sigma^2_X+\sigma^2_Y)}+\displaystyle\frac{2td}{3}}}\right\}[/texx], puedo expresar esta desigualdad de la forma [texx]P(X+Y<t)[/texx].

[texx]P(X+Y<t)=P(-X-Y-\mu_{-X}-\mu_{-Y}> -t+\mu_X+\mu_Y)\leq exp\left\{-{\displaystyle\frac{(t-\mu_X-\mu_Y)^2}{2\displaystyle({\sigma^2_X+\sigma^2_Y)}-\displaystyle\frac{2(t-\mu_X-\mu_Y)d}{3}}}\right\}[/texx]

bajo el supuesto de que:

[texx]\mu_X-X\leq{}d[/texx] y [texx]\mu_Y-Y\leq{}d[/texx]

(estamos aplicando el resultado para las variables [texx]-X,-Y[/texx])
Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 15/05/2017, 11:53:46 am
Hola

Entonces
[texx]P(X+Y<0)\leq exp\left\{-{\displaystyle\frac{(\mu_X+\mu_Y)^2}{2\displaystyle({\sigma^2_X+\sigma^2_Y)}+\displaystyle\frac{2(\mu_X+\mu_Y)d}{3}}}\right\}[/texx]

Estoy tratando de compararla con las cotas que obtuvimos anteriormente.  ¿El menor es estricto? ¿Es esta cota óptima?

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 15/05/2017, 12:20:54 pm
Hola

 No sé si es óptima. Habría que mirar en los artículos donde viene que dice al respecto. No me tiene pinta,

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 22/05/2017, 09:15:09 am
Hola

He estado pensando en encontrar una distribución que muestre que la generalización a la suma de dos variables aleatorias independientes sea óptima. el_manco en mensajes número #100 y #105 muestra que la variable aleatoria, si existiera, [texx]X+Y[/texx] debe tener al menos dos puntos. Ahora, supongamos la distribución conjunta que muestra que esta desigualdad es óptima es tal que tanto que [texx]X,Y[/texx] cada una tomaran solamente dos puntos con probabilidad positiva, creo que sería fácil hallarla, siguiendo el procedimiento empleado para hallar la distribución del mensaje # 83.
Creo que una forma alternativa de llegar a la distribución del mensaje #83 es usar el hecho que si [texx]X[/texx] toma dos puntos [texx]x_1,x_2[/texx], entonces se cumple necesariamente que [texx](X-x_1)(X-x_2)=0[/texx] y por lo tanto

[texx]E((X-x_1)(X-x_2))=0[/texx] y de esta forma uno podría hallar un sistema de ecuaciones para hallar estos valores [texx]x_1,x_2[/texx], lo mismo con la variable aleatoria [texx]Y[/texx]. Ahora, si probando descartamos que la cota de Cantelli, la repito para que quede claro, [texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx] no sale para variables aleatorias que toman solamente dos valores, entonces creo que se puede probar que, con los datos que tenemos, no es posible hallar esa distribución. Por esta sencilla razón. Supongamos que la distribución en la que se cumple esa desigualdad es tal que el soporte de [texx]X[/texx] toma tres valores [texx]x_1,x_2, x_3[/texx], entonces [texx](X-x_1)(X-x_2)(X-x_3)=0[/texx] y tomando esperanza tendremos que [texx]E((X-x_1)(X-x_2)(X-x_3))=0[/texx], es decir tendremos una ecuación que involucra el tercer momento de [texx]X[/texx] y es un dato que no tenemos. Esto mostraría que por este camino no es posible hallar distribuciones que confirmen que la generalización de la desigualdad de Cantelli es óptima.

Está bien?

Saludos



Título: Re: Chebyschev
Publicado por: Luis Fuentes en 22/05/2017, 11:56:00 am
Hola

 No acabo de entender el argumento.

He estado pensando en encontrar una distribución que muestre que la generalización a la suma de dos variables aleatorias independientes sea óptima. el_manco en mensajes número #100 y #105 muestra que la variable aleatoria, si existiera, [texx]X+Y[/texx] debe tener al menos dos puntos. Ahora, supongamos la distribución conjunta que muestra que esta desigualdad es óptima es tal que tanto que [texx]X,Y[/texx] cada una tomaran solamente dos puntos con probabilidad positiva, creo que sería fácil hallarla, siguiendo el procedimiento empleado para hallar la distribución del mensaje # 83.
Creo que una forma alternativa de llegar a la distribución del mensaje #83 es usar el hecho que si [texx]X[/texx] toma dos puntos [texx]x_1,x_2[/texx], entonces se cumple necesariamente que [texx](X-x_1)(X-x_2)=0[/texx] y por lo tanto

[texx]E((X-x_1)(X-x_2))=0[/texx] y de esta forma uno podría hallar un sistema de ecuaciones para hallar estos valores [texx]x_1,x_2[/texx]

De manera precisa ahí se obtiene una relación entre [texx]x_1[/texx] y [texx]x_2[/texx] que involucra la media y la varianza. Hay infinitas distribuciones en esas condiciones.

Cita
, lo mismo con la variable aleatoria [texx]Y[/texx]. Ahora, si probando descartamos que la cota de Cantelli, la repito para que quede claro, [texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx] no sale para variables aleatorias que toman solamente dos valores,


Aquí, ¿te refieres a probar que ningún par de esas infinitas disribuciones en dos puntos con media y varianza dada cumplen la cota de Cantelli?.

Cita
entonces creo que se puede probar que, con los datos que tenemos, no es posible hallar esa distribución. Por esta sencilla razón. Supongamos que la distribución en la que se cumple esa desigualdad es tal que el soporte de [texx]X[/texx] toma tres valores [texx]x_1,x_2, x_3[/texx], entonces [texx](X-x_1)(X-x_2)(X-x_3)=0[/texx] y tomando esperanza tendremos que [texx]E((X-x_1)(X-x_2)(X-x_3))=0[/texx], es decir tendremos una ecuación que involucra el tercer momento de [texx]X[/texx] y es un dato que no tenemos. Esto mostraría que por este camino no es posible hallar distribuciones que confirmen que la generalización de la desigualdad de Cantelli es óptima.

Esto es lo que ya no veo en absoluto. Lo único que tenemos ahí es que usando la esa ecuación obtenemos una relación entre tres variables que involucra el tercer momento, dato no poseemos. Lo único que nos dice eso es que el criterio  [texx]E((X-x_1)(X-x_2)(X-x_3))=0[/texx] no es adecuado para caracterizar una distribución en tres puntos con varianza y media dadas.

No veo que se pueda sacar ninguna otra conclusión de ahí.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 22/05/2017, 03:19:26 pm
Hola

En la respuesta #83 se muestra una distribución con la cual se llega a la desigualdad con igualdad. ¿Cómo se obtiene esa distribución? Bueno, el_manco no se cómo la obtuvo, pero yo hice lo siguiente y llegué a lo mismo. Tomé variables aleatorias que toman solamente dos valores [texx](x_1,x_2),(y_1,y_2)[/texx], luego tomo [texx]P(X=x_1,Y=y_1)=p[/texx] y [texx]P(X=x_2,Y=y_2)=1-p[/texx] y además [texx]x_1+y_1=0,x_2+y_2>0[/texx]. Y en base a estos datos defino la medias (con [texx]\mu_X+\mu_Y>0[/texx] y las varianzas respectivas) y se hallan los [texx](x_1,x_2),(y_1,y_2)[/texx] y en función de eso llego a los mismos valores que el_manco.

Ahora, intenté hacer lo mismo para la generalización de Cantelli, pero ahí no es tan fácil. Se podría pensar en hacer [texx]P(X=x_1,Y=y_1)=p_1, P(X=x_1,Y=y_2)=p_2P(X=x_2,Y=y_1)=p_3,P(X=x_2,Y=y_2)=p_4[/texx] obviamente con [texx]p_1+p_2+p_3+p_4=1[/texx], luego respetando la independencia y jugar con los posibles resultados de [texx]x_1+y_1,x_1+y_2,x_2+y_1,x_2+y_2[/texx] cuál de ellos es menor o igual a cero y ver si se puede encontrar [texx](x_1,x_2),(y_1,y_2)[/texx]. Esto es un problema finito y se puede ver si existen distribuciones que tomen solamente dos puntos que cumplan estas condiciones. El tema es que si no fuera así, y una de las variables aleatorias tomara tres puntos, con los datos que tenemos no podríamos hallarlos, pues necesitaríamos momentos de orden mayor a dos. Ese es mi argumento, pero no se si está bien.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 23/05/2017, 06:40:38 am
Hola

En la respuesta #83 se muestra una distribución con la cual se llega a la desigualdad con igualdad. ¿Cómo se obtiene esa distribución? Bueno, el_manco no se cómo la obtuvo, pero yo hice lo siguiente y llegué a lo mismo. Tomé variables aleatorias que toman solamente dos valores [texx](x_1,x_2),(y_1,y_2)[/texx], luego tomo [texx]P(X=x_1,Y=y_1)=p[/texx] y [texx]P(X=x_2,Y=y_2)=1-p[/texx] y además [texx]x_1+y_1=0,x_2+y_2>0[/texx]. Y en base a estos datos defino la medias (con [texx]\mu_X+\mu_Y>0[/texx] y las varianzas respectivas) y se hallan los [texx](x_1,x_2),(y_1,y_2)[/texx] y en función de eso llego a los mismos valores que el_manco.

Si, bien es una forma. Sinceramente yo no recuerdo ahora mismo exactamente que cuentas hice, pero es lo de menos.

Cita
Ahora, intenté hacer lo mismo para la generalización de Cantelli, pero ahí no es tan fácil. Se podría pensar en hacer [texx]P(X=x_1,Y=y_1)=p_1, P(X=x_1,Y=y_2)=p_2P(X=x_2,Y=y_1)=p_3,P(X=x_2,Y=y_2)=p_4[/texx] obviamente con [texx]p_1+p_2+p_3+p_4=1[/texx], luego respetando la independencia y jugar con los posibles resultados de [texx]x_1+y_1,x_1+y_2,x_2+y_1,x_2+y_2[/texx] cuál de ellos es menor o igual a cero y ver si se puede encontrar [texx](x_1,x_2),(y_1,y_2)[/texx]. Esto es un problema finito y se puede ver si existen distribuciones que tomen solamente dos puntos que cumplan estas condiciones. El tema es que si no fuera así, y una de las variables aleatorias tomara tres puntos, con los datos que tenemos no podríamos hallarlos, pues necesitaríamos momentos de orden mayor a dos. Ese es mi argumento, pero no se si está bien.

No. No necesitaríamos momentos mayor que orden dos. Lo que ocurre es que tendríamos más incógnitas que ecuaciones lo cual indica que, a priori, podría haber infinitas soluciones para esas ecuaciones. Pero es podría condicional. También podría haber un número finito o directamente ninguna solución.

Como ejemplo tonto y sencillo. Yo puedo buscar una distribución en tres puntos que tenga una media [texx]\mu[/texx] prefijada. Me saldrán infinitas distribuciones con esas características, pero eso no significa que necesite más momentos para hallarlas.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 23/05/2017, 10:22:43 am
Hola

el_manco, menos mal que no eres un alumno, y le digas al profesor "No sé realmente cómo es que llegué al resultado, pero ahí está, no?"  ;D

De la misma forma que llegué a tu mismo resultado, capaz que se podría intentar obtener hallar ésta distribución, por un procedimiento similar. Yo lo intenté con el Mathematica, pero me da error.

Saludos



Título: Re: Chebyschev
Publicado por: Luis Fuentes en 23/05/2017, 12:31:56 pm
Hola

el_manco, menos mal que no eres un alumno, y le digas al profesor "No sé realmente cómo es que llegué al resultado, pero ahí está, no?"  ;D

Para ser sincero, es que es cierto que no recuerdo exactamente como llegué a el. Lo curioso es que incluso científicamente esa respuesta es totalmente rigurosa. Es decir si yo compruebo que esa distribución alcanza la cota, da igual como haya llegado a ella. Es irrefutable que se ha probado lo óptimo de esa cota.

Si no me esforcé en refrescar muy memoria es porque considero que no aporta nada esencial al tema que estábamos tratando.

Cita
De la misma forma que llegué a tu mismo resultado, capaz que se podría intentar obtener hallar ésta distribución, por un procedimiento similar. Yo lo intenté con el Mathematica, pero me da error.

¿Exactamente que distribución?. A poco que añadas puntos las cuentas se complican incluso para el Mathematica. Como te he comentado reiteradamente ya he comprobado con el Mathematica en ejemplos de varianzas y medias concretas con distribuciones en dos puntos no se alcanza la cota.

Saludos


Título: Re: Chebyschev
Publicado por: Quema en 23/05/2017, 02:49:35 pm
Hola

Por eso, si has probado con varias distribuciones que toman solamente dos puntos, no será que esa cota se alcanza para cotas con más de dos puntos y no tengamos todos los datos para hallarla (si toman más de dos puntos). Y de última, puede ocurrir que ésta cota no sea óptima. Es decir, capaz que deba probarse asintóticamente que es óptima y no tratando de encontrar esa distribución.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 23/05/2017, 04:57:09 pm
Hola

Por eso, si has probado con varias distribuciones que toman solamente dos puntos, no será que esa cota se alcanza para cotas con más de dos puntos y no tengamos todos los datos para hallarla (si toman más de dos puntos).

¡Pero qué no! ¡Qué el no tener datos para hallarla no influye! Al contrario. Mas libertad para escoger. Si el problema es conocer el tercer momento (o cuarto, o quinto, o sexto)... ¡dale el valor que quieras y ya tenemos la distribución!

Cita
Y de última, puede ocurrir que ésta cota no sea óptima.


Efectivamente.

Cita
Es decir, capaz que deba probarse asintóticamente que es óptima y no tratando de encontrar esa distribución.

Si se probase eso si sería óptima. La cosa es que directamente quizá no lo sea ni asintóticamente ni nada.

Saludos.

P.D. A la hora de hacer pruebas con distribuciones en dos o más puntos ya recuerdo donde esta el lío. El problema está en que por ejemplo si uno trabaja para [texx]X[/texx] e [texx]Y[/texx] en tres puntos [texx]x_i[/texx] e [texx]y_i[/texx] con [texx]i=1,2,3[/texx], el valor de [texx]P(X+Y\leq 0)[/texx] dependerá de que pares de puntos [texx](x_i,y_j)[/texx] cumplen [texx]x_i+y_j\leq 0[/texx] para sumar las correspondientes probabilidades y plantear las ecuaciones para que las resuelva el Mathematica. Eso hace que las ecuaciones no sean continuas, es decir, uno puede imponer unas igualdades que se cumplan presuponiendo por ejemplo que sólo [texx]x_1+y_1\leq 0[/texx] y obtener aparentes soluciones, pero de forma que cuando un comprueba las cosas ve que quizá también con esos valores [texx]x_2+y_1\leq 0[/texx].


Título: Re: Chebyschev
Publicado por: Quema en 06/06/2017, 09:37:15 am
Hola

Estuve pensando de nuevo con este tema, a ver si me pueden aclarar las siguientes dudas que tengo. Sabemos que para una variable aleatoria [texx]Z[/texx] con media y varianza [texx]\mu_Z>0,\sigma^2_Z[/texx] la menor cota superior de [texx]P(Z\leq{}0)[/texx] es igual a [texx]\frac{\sigma_Z^2}{\sigma_Z^2+\mu^2_Z}[/texx], no?

Ahora si tengo dos variables aleatorias independientes[texx]X,Y[/texx] con medias y varianzas  [texx]\mu_X,\mu_Y,\sigma^2_X,\sigma^2_Y[/texx] una cota es (aplicando la cota anterior) es:

[texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx], con [texx]\mu_X+\mu_Y>0[/texx]. Ahora no sabemos si es óptima. El primer motivo que se me ocurre es que la cota sale definiendo

[texx]Z=X+Y[/texx], no implica que [texx]Z[/texx] tenga la misma distribución que [texx]X+Y[/texx]. Ahora, si SIEMPRE se puediera hallar para cualquier [texx]X[/texx] y [texx]Y[/texx] independientes una variable [texx]Z'[/texx] tenga la misma distribución que [texx]X+Y[/texx], entonces sabemos que la mejor cota de [texx]P(Z'\leq{}0)[/texx] es [texx]\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]. Me temo que el siempre no es posible. Está bien mi razonamiento?

Saludos



 


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 06/06/2017, 10:32:36 am
Hola

Estuve pensando de nuevo con este tema, a ver si me pueden aclarar las siguientes dudas que tengo. Sabemos que para una variable aleatoria [texx]Z[/texx] con media y varianza [texx]\mu_Z>0,\sigma^2_Z[/texx] la menor cota superior de [texx]P(Z\leq{}0)[/texx] es igual a [texx]\frac{\sigma_Z^2}{\sigma_Z^2+\mu^2_Z}[/texx], no?

Si.

Cita
Ahora si tengo dos variables aleatorias independientes[texx]X,Y[/texx] con medias y varianzas  [texx]\mu_X,\mu_Y,\sigma^2_X,\sigma^2_Y[/texx] una cota es (aplicando la cota anterior) es:

[texx]P(X+Y\leq 0)=\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx], con [texx]\mu_X+\mu_Y>0[/texx]. Ahora no sabemos si es óptima.


Correcto.

Cita
El primer motivo que se me ocurre es que la cota sale definiendo

[texx]Z=X+Y[/texx], no implica que [texx]Z[/texx] tenga la misma distribución que [texx]X+Y[/texx].


Si. Definiendo [texx]Z[/texx] así si implica que [texx]Z[/texx] y [texx]X+Y[/texx] tienen la misma distribución...¡porque precisamente tomamos [texx]Z=X+Y[/texx]!.

Cita
Ahora, si SIEMPRE se puediera hallar para cualquier [texx]X[/texx] y [texx]Y[/texx] independientes una variable [texx]Z'[/texx] tenga la misma distribución que [texx]X+Y[/texx], entonces sabemos que la mejor cota de [texx]P(Z'\leq{}0)[/texx] es [texx]\dfrac{\sigma_X^2+\sigma_Y^2}{\sigma_X^2+\sigma_Y^2+(\mu_X+\mu_Y)^2}[/texx]. Me temo que el siempre no es posible. Está bien mi razonamiento?

No (o creo que quizá te has equivocado al explicarlo y lo has expresado de al revés). El problema está precisamente en lo contrario.

Si dada cualquier variable [texx]Z[/texx] con [texx]\mu_Z=\mu_X+\mu_Y[/texx] y varianza [texx]\sigma^2_Z=\sigma^2_X+\sigma_Y^2[/texx] pudiésemos expresarla como suma de dos variables independientes con la media y varianza indicadas  entonces si sabríamos que es óptima. Pero el problema es que no es así; no siempre podemos descomponer cualquier [texx]Z[/texx] de la forma indicada.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 06/06/2017, 10:38:11 am
Hola

Si era eso, pero eso es que surge de algún teorema, el hecho que no siempre se puede descomponer Z como suma de dos variables independientes o algún contra ejemplo supongo.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 06/06/2017, 10:41:57 am
Hola

Si era eso, pero eso es que surge de algún teorema, el hecho que no siempre se puede descomponer Z como suma de dos variables independientes o algún contra ejemplo supongo.

Aquí:

Para una variable [texx]Z[/texx] con media [texx]\mu_Z[/texx] y varianza [texx]\sigma_Z^2[/texx], sabemos que la cota óptima para [texx]P(Z\leq 0)[/texx] se obtiene tomando la distribución discreta:

[texx]z_1=0[/texx] con probabilidad [texx]\dfrac{\sigma_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx]

[texx]z_2=\dfrac{\sigma_Z^2+\mu_Z^2}{\mu}[/texx] con probabilidad [texx]\dfrac{\mu_Z^2}{\sigma_Z^2+\mu_Z^2}[/texx]

Por otra parte sin embargo, dadas dos variables independientes [texx]X[/texx] e [texx]Y[/texx] con media [texx]\mu_X,\mu_Y[/texx] y varianzas [texx]\sigma_X^2,\sigma_Y^2[/texx] no nulas. Es imposible que su suma [texx]Z=X+Y[/texx] sea una variable discreta con soporte en dos puntos como la descrita arriba. Veámoslo.

Dado que las varianzas son no nulas el soporte de cada uno es no puntual.

Entonces existe dos puntos [texx]a<b[/texx] de forma que en cualquier entorno de ellos la probabilidad de [texx]X[/texx] en ese entorno es no nula.

Análogamente existen dos puntos [texx]c<d[/texx] de forma que en cualquier entorno de ellos la probabilidad de [texx]Y[/texx] en ese entorno es no nula.

Entonces en un cualquier entorno de [texx]a+c<a+d<b+d[/texx], la probabilidad de [texx]X+Y[/texx] es no nula (ya que por la independencia la probabilidad es el producto de probabilidades). Por tanto la distribución de [texx]X+Y[/texx] no está concentrada en dos puntos.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 06/06/2017, 02:35:30 pm
Hola

Pero si como has mostrado la cota óptima para [texx]Z[/texx] no se puede expresar como suma dos variables independientes eso ya es prueba suficiente que ésta cota no es óptima para la suma de dos variables aleatorias independientes.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 06/06/2017, 04:57:23 pm
Hola

Pero si como has mostrado la cota óptima para [texx]Z[/texx] no se puede expresar como suma dos variables independientes eso ya es prueba suficiente que ésta cota no es óptima para la suma de dos variables aleatorias independientes.

Quedan dos cabos sueltos, que ya había comentado aquí:

0) Acabo de probar que es imposible que la suma de dos variables independientes X,Y con varianza no nula sea una distribución discreta en dos puntos.

1) Podríamos intentar probar que la única distribución de una variable [texx]Z[/texx] que da la cota óptima para [texx]P(Z<0)[/texx] es la que he indicado antes en dos puntos. Creo que esto es cierto y se puede demostrar.

2) Pero aun así, podría ocurrir (aunque sospecho que no ocurre) que uno pueda construir secuencias de variables [texx]X,Y[/texx] independientes con la media y varianza fijada, de manera que si bien [texx]X+Y[/texx] no alcanza la cota óptima si se acerca tanto como queramos.

Con 0) 1) 2) quiero decir que aunque se cumpla 0 (eso lo tenemos probado) y se cumpla 1 (eso creo que es cierto, pero no está probado) todavía habría que descartar 2 para afirmar que la cota NO es óptima.

Finalmente una observación obvia: la forma indiscutible de probar que la cota no es óptima es encontrar otra mejor.

Saludos.



Título: Re: Chebyschev
Publicado por: Quema en 08/06/2017, 04:10:01 pm
Hola

En el mensaje #71 se puso que se podía hallar una función que es mayor o igual a la indicatríz [texx]1\left\{{X+Y<0}\right\}[/texx] del tipo
[texx]g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2[/texx]

sujeto a:

1) [texx]a\geq{}0,b\geq{}0,4ac\geq{}b^2[/texx],
2) [texx]g(x,y)>0[/texx]
3) tangente a la recta [texx]x+y=0,z=1[/texx],
4) tangente al plano [texx]z=0[/texx]
5) [texx]x_0+y_0>0[/texx]
Esto no es un problema de optimización con restricciones dónde debemos hallar [texx]a,b,c[/texx] que minimice [texx]E[g(x,y)][/texx], no me queda claro cómo se pone las condiciones 3 y 4 como una restricción a usar.

No podría fijar [texx](x_0,y_0)=(\mu_X,\mu_Y)[/texx] (lo veo intuitivo que sea esto pq es un dato que nos van a dar, las medias) con [texx]\mu_X+\mu_Y>0[/texx] y luego me queda la función a minimizar
[texx]a\sigma_X^2+b\sigma_X^2\sigma_Y^2+c\sigma_Y^2[/texx]

y los [texx]a,b,c[/texx] salen de la restricción 3 y 4? Mmm. aunque creo que no puede ser  [texx](x_0,y_0)=(\mu_X,\mu_Y)[/texx] pq esos coeficientes serían todos cero.


Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 09/06/2017, 04:53:48 am
Hola

Hola

En el mensaje #71 se puso que se podía hallar una función que es mayor o igual a la indicatríz [texx]1\left\{{X+Y<0}\right\}[/texx] del tipo
[texx]g(x,y)=a(x-x_0)^2+b(x-x_0)(y-y_0)+c(y-y_0)^2[/texx]

sujeto a:

1) [texx]a\geq{}0,b\geq{}0,4ac\geq{}b^2[/texx],
2) [texx]g(x,y)>0[/texx]
3) tangente a la recta [texx]x+y=0,z=1[/texx],
4) tangente al plano [texx]z=0[/texx]
5) [texx]x_0+y_0>0[/texx]
Esto no es un problema de optimización con restricciones dónde debemos hallar [texx]a,b,c[/texx] que minimice [texx]E[g(x,y)][/texx], no me queda claro cómo se pone las condiciones 3 y 4 como una restricción a usar.

La condición (4) sobra; o dicho de otra forma, se cumple siempre que se cumpla la (1).

Para la condición (3) tiene que cumplirse que la ecuación de segundo grado:

[texx]1=a(x-x_0)^2+b(x-x_0)(-x-y_0)+c(x+y_0)^2[/texx]

Tenga una única solución, es decir, su discrimante sea cero.

Eso equivale a que:

[texx]4(a-b+c)(ax_0^2+bx_0y_0+cy_0^2-1)=(2ax_0+by_0-bx_0+2cy_0)^2[/texx]

Cita
No podría fijar [texx](x_0,y_0)=(\mu_X,\mu_Y)[/texx] (lo veo intuitivo que sea esto pq es un dato que nos van a dar, las medias) con [texx]\mu_X+\mu_Y>0[/texx] y luego me queda la función a minimizar
[texx]a\sigma_X^2+b\sigma_X^2\sigma_Y^2+c\sigma_Y^2[/texx]

Pero esto no tiene demasiado sentido; por ejemplo en el problema análogo unidimensional que es la cota de Cantelli clásica, es [texx]x_0[/texx] no es igual a la media.

Cita
y los [texx]a,b,c[/texx] salen de la restricción 3 y 4? Mmm. aunque creo que no puede ser  [texx](x_0,y_0)=(\mu_X,\mu_Y)[/texx] pq esos coeficientes serían todos cero.

Todos cero no pueden ser porque no se cumpliría (3).

Sea como sea este camino no me convence; el problema aquí es la cota que se obtenga no va a ser óptima para variables independientes. El motivo es que el paraboloide [texx]g(x,y)[/texx] "toca" a la función indicatriz [texx]1_{X+Y<0}[/texx] bien en dos puntos o bien en dos rectas paralelas a la recta [texx]x+y=0[/texx], [texx]z=1[/texx] y por tanto el soporte de una distribución que fuese óptima no correspondería a un par variables independientes (el soporte de un par [texx](X,Y)[/texx] independiente es de la forma [texx]sop(X)\times sop(Y)[/texx]).

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 10/06/2017, 06:12:41 pm
Hola

La desigualdad de Hoeffding dice así. Sean [texx]X,Y[/texx] dos variables aleatorias independientes tal que [texx]P(a\leq{}X\leq{}b)=P(c\leq{}Y\leq{}d)=1[/texx] entonces para [texx]t>0[/texx] se cumple que
[texx]P(X+Y-\mu_X-\mu_Y\geq{}2t)\leq{}exp\left\{{\displaystyle\frac{-8t^2}{(b-a)^2+(d-c)^2}}\right\}[/texx].

Quiero expresar esto como [texx]P(X+Y\leq{}0)[/texx], primero me confunde un poco que [texx]t>0[/texx], creo que igual sería válido para [texx]t=0[/texx], pues la cota sería uno, pero de todas formas, yo haciendo lo mismo que se hizo anteriormente llegué a que la cota de [texx]P(X+Y\leq{}2t)[/texx] es

[texx]exp\left\{{\displaystyle\frac{-8(t+(-\mu_X-\mu_Y)0.5)^2}{(b-a)^2+(d-c)^2}}\right\}[/texx] y si tomamos [texx]t=0[/texx] queda

[texx]exp\left\{{\displaystyle\frac{-2(\mu_X+\mu_Y)^2}{(b-a)^2+(d-c)^2}}\right\}[/texx]

Está bien?

Saludos




Título: Re: Chebyschev
Publicado por: Luis Fuentes en 11/06/2017, 06:54:50 am
Hola

La desigualdad de Hoeffding dice así. Sean [texx]X,Y[/texx] dos variables aleatorias independientes tal que [texx]P(a\leq{}X\leq{}b)=P(c\leq{}Y\leq{}d)=1[/texx] entonces para [texx]t>0[/texx] se cumple que
[texx]P(X+Y-\mu_X-\mu_Y\geq{}2t)\leq{}exp\left\{{\displaystyle\frac{-8t^2}{(b-a)^2+(d-c)^2}}\right\}[/texx].

Quiero expresar esto como [texx]P(X+Y\leq{}0)[/texx], primero me confunde un poco que [texx]t>0[/texx], creo que igual sería válido para [texx]t=0[/texx], pues la cota sería uno, pero de todas formas, yo haciendo lo mismo que se hizo anteriormente llegué a que la cota de [texx]P(X+Y\leq{}2t)[/texx] es

[texx]exp\left\{{\displaystyle\frac{-8(t+(-\mu_X-\mu_Y)0.5)^2}{(b-a)^2+(d-c)^2}}\right\}[/texx] y si tomamos [texx]t=0[/texx] queda

[texx]exp\left\{{\displaystyle\frac{-2(\mu_X+\mu_Y)^2}{(b-a)^2+(d-c)^2}}\right\}[/texx]

Está bien?

Si.

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 13/06/2017, 07:17:46 pm
Hola

Supongamos que
[texx]p_X=P(X+a<0)\leq{\displaystyle\frac{1}{1+Z^2_X}}[/texx],

y luego que

[texx]p_Y=P(Y+b<0)\leq{\displaystyle\frac{1}{1+Z^2_Y}}[/texx],

siendo [texx]Z_X=\displaystyle\frac{\mu_X+a}{\sigma_X^2}>0[/texx] y  [texx]Z_Y=\displaystyle\frac{\mu_Y+b}{\sigma_Y^2}>0[/texx]

¿Se cumple que [texx]tp_X+(1-t)p_y\leq{}\displaystyle\frac{1}{1+tZ_X+(1-t)Z_Y}[/texx], con [texx]t \in(0,1)[/texx]?

Creo que no, cómo podría vincularse a  [texx]tp_X+(1-t)p_y[/texx] y [texx]Z_X,Z_Y[/texx]?

Saludos




Título: Re: Chebyschev
Publicado por: Luis Fuentes en 14/06/2017, 08:31:35 am
Hola

Supongamos que
[texx]p_X=P(X+a<0)\leq{\displaystyle\frac{1}{1+Z^2_X}}[/texx],

y luego que

[texx]p_Y=P(Y+b<0)\leq{\displaystyle\frac{1}{1+Z^2_Y}}[/texx],

siendo [texx]Z_X=\displaystyle\frac{\mu_X+a}{\sigma_X^2}>0[/texx] y  [texx]Z_Y=\displaystyle\frac{\mu_Y+b}{\sigma_Y^2}>0[/texx]

Creo que ahí quisiste poner:

[texx]Z_X=\displaystyle\frac{\mu_X+a}{\color{red}\sigma_X\color{black}}>0[/texx] y  [texx]Z_Y=\displaystyle\frac{\mu_Y+b}{\color{red}\sigma_Y\color{black}}>0[/texx]

Cita
¿Se cumple que [texx]tp_X+(1-t)p_y\leq{}\displaystyle\frac{1}{1+tZ_X+(1-t)Z_Y}[/texx], con [texx]t \in(0,1)[/texx]?

No estoy seguro de que quiste poner (no sé si faltan cuadrados en algún sitio), pero no se cumple nada parecido. El problema es que la función:

[texx]f(x)=\dfrac{1}{1+x^2}[/texx]

no es cóncava ni convexa.

Y la función [texx]\dfrac{1}{1+x}[/texx] es convexa con lo que en realidad se tendría:

[texx]tp_x+(1-t)p_y\geq \dfrac{1}{1+tZ_X^2+(1-t)Z_Y^2}[/texx]

Cita
Creo que no, cómo podría vincularse a  [texx]tp_X+(1-t)p_y[/texx] y [texx]Z_X,Z_Y[/texx]?

Más allá de la vinculación obvia (que en realidad está en función de las misma variables):

[texx]
tp_X+(1-t)P_y\leq \dfrac{t}{1+Z_x^2}+\dfrac{(1-t)}{1+Z_y^2}[/texx]

No sé...

Saludos.


Título: Re: Chebyschev
Publicado por: Quema en 14/06/2017, 09:31:15 am
Si, estaba mal mi planteamiento, está claro ahora.


Título: Re: Chebyschev
Publicado por: Quema en 18/06/2017, 06:22:51 pm
    Hola
    En este mensaje mostramos que dada dos variables aleatorias independientes [texx]X,Y[/texx] entonces


1) [texx]{P(X+Y\leq 0)\leq 1-\dfrac{\sigma_Y^2+(\mu_X+\mu_Y)^2}{\sigma_X^2+b^2}\color{black}}[/texx]  si [texx]sop(Y)\subset [-\mu_X,-\mu_X+b][/texx]
   
 2) [texx]{P(X+Y\leq 0)\leq \dfrac{\sigma_X^2}{\sigma_X^2+(\mu_X+\mu_Y)^2}\color{black}} [/texx]si [texx]sop(Y)\subset [-\mu_X,-\mu_X+\sqrt{\sigma_X^2/3}][/texx]
   
3)  Hoeffding muestra que para dos variables independientes [texx]X,Y[/texx] con[texx] P(a\leq{}X\leq{}b)=P(c\leq{}Y\leq{}d)=1[/texx]
    [texx]P(X+Y\leq 0)\leq exp\left\{{\displaystyle\frac{-2(\mu_X+\mu_Y)^2}{(b-a)^2+(d-c)^2}}\right\}[/texx]

Para comparar analíticamente cuándo estas cotas son mejores, se me ocurre, primero usar el mismo soporte para [texx]Y[/texx] de la cota 2. No tengo muy claro, cómo definir el soporte para la otra variable.

Saludos


Título: Re: Chebyschev
Publicado por: Luis Fuentes en 20/06/2017, 09:16:24 am
Hola

 Mi idea es la siguiente.

 A) Suponer [texx]\mu_X=0[/texx]. Esto puede hacer sin pérdida de generalidad, sin más que tener en cuenta que si desplazamos [texx]X[/texx] a [texx]X-a[/texx] podemos desplazar [texx]Y[/texx] a [texx]Y+a[/texx] sin modificar las covarianzas. En las fórmulas solo influye \[texx]mu_X+\mu_Y[/texx] que no se ve afectado por esta combinación de traslaciones.

 B) Suponer [texx]\sigma_X^2=1[/texx]. Esto también creo que puede hacerse sin pérdida de generalidad, sin más que dividir [texx]X[/texx] por [texx]\sigma_X[/texx].

 Ahora como dices podemos suponer para una primera comparación en (1)  [texx]b=\sqrt{\sigma^2_X/3}=\sqrt{1}{3}[/texx].

 Y en (3) en la de Hoeffding que [texx]X[/texx] tiene el mínimo soporte posible para poder tener covarianza [texx]1[/texx]. Tengamos en cuenta que cuanto menor sea [texx](b-a)[/texx] mejor será la cota.

Ahora sabemos que:

[texx]\sigma_X^2\leq (b-\mu_X)(\mu_X-a)[/texx]

en nuestro caso:

[texx]1\leq -ab[/texx]

de donde:

[texx](b-a)\geq b+\dfrac{1}{b}\geq 2[/texx]

Con estas consideraciones hice algunas gráficas en Mathematica (tengo que revisarlas y ahora tengo que irme).

Me sale que las cotas (1) y (2) a veces son mejores unas que otras; que la cota (3) también mejoran a veces las cotas (1) y (2), pero no a ambas al tiempo. Es decir tomando como cota el mínimo de la cota(1) y (2) se mejora la cota (3) de Hoeffding.

Saludos.