P(X(1)>X(2))=?

markowitz
Se ipotizzo di avere una v.a. $X(1)$ distribuita $N(mu(1),sigma^2(1))$ ed una $X(2)$ come
distribuita $N(mu(2),sigma^2(2))$
dove:
$mu(1)=mu(2)$
e
$sigma^2(1)!=sigma^2(2)$
Coma fare a stabilire la $P(X(1)>X(2))$?
E se anche le medie sono differenti?
Io pensavo che bastasse considerare che $E[X(2)]=mu(2)$ e calcolare
$P(X(1)>mu(2))$ da cui se $mu(1)=mu(2)$ tale prob. vale sempre $1/2$.
Però tale metodo non mi convince.
Inoltre se consideriamo 2 distribuzioni continue qualsiasi $F$ e $G$
il metodo mi convince ancor meno.
Chi sa darmi lumi?

Risposte
markowitz
Ho dimenticato di dire che chiaramente ipotizzo che le 2 v.a siano indipendenti in tal modo non
abbiamo problemi di distribuzione congiunta.

fu^2
prova, con un pò di immaginazione (se vuoi suggerito dalle variabili discrete*) a scrivere

[tex]\mathbb{P}(X_1>X_2)=\dispaystyle\int_{-\infty}^{+\infty}\mathbb{P}(X_1>t)\mathbb{P}_{X_1}(dt)[/tex]

dove, nel caso hai densità assolutamente continue rispetto alla misura,

[tex]\mathbb{P}_{X_1}(dt)=f_{X_1}(t)dt[/tex], con $f_{X_1}(t)$ la funzione densità di probabilità della v.a. $X_1$

hai pensato di far così?...
------------------------------------------------------------------------------------------------------------------------------------
* se tu giocassi con le v.a. potresti scrivere, se supponiamo per esempio che $X_j\in \{1,...,N\}$, con $j=1,2$

[tex]\mathbb{P}(X_1>X_2)=\displaystyle\sum_{t=1}^N \mathbb{P}(X_1>t|X_2=t)\mathbb{P}(X_2=t)[/tex]

passando al continuo è facile osservare che il risultato è quello scritto sopra (moralmente...).

DajeForte
$P(X_1>X_2)=P(X_1-X_2>0)$.

Che distribuzione ha $X_1-X_2$?

markowitz
Prima di tutto grazie per le risposte

@ fu^2
Mi ritrovo perfettamente col caso discreto, è per quello che chiedevo lumi sul continuo :-D,
non sono sicuro di aver capito bene quello che hai scritto riguardo l'analogia nel continuo.
Avresti la pazienza di farmi vedere un'esempio numerico? Usa magari 2 uniformi così non
perdi tempo con i conti.

@DajeForte
direi che se pongo $Z=X(1)-X(2)$ la v.a. $Z$ si distribuisce così
$N(mu(1)-mu(2);sigma^2(1)+sigma^2(2))$dalla quale è facile fare i conti.
Ma allora la mia congettura era corretta?
E se le 2 v.a. non hanno la stessa distribuzione?

DajeForte
Non capisco bene quale sia la congettura.
Se intendi fare così $P(X_1>X_2)=P(X_1>E[X_2])$ ovviamente in generale no. Ad esempio nel tuo esempio se le due variabili hanno media diversa non va più bene e te ne puoi accorgere anche vedendo che cosi facendo la probabilità non dipende dalla varianza di $X_2$. Se hanno media uguale diciamo che sei fortunato perchè a questo punto ti viene una normale maggiore della sua media che, indipendentemente dalla varianza, da 0.5. Se ad esempio consideri due esponenziali ti fai un po' di conti e le cose non tornano.

markowitz
Si la mia congettura era quella. Ok non torna come temevo.
Però adesso conoscendo la distribuzione delle 2 v.a. è sempre possibile
conoscere la distrib. della loro differenza?
Penso di no, la normale è una caso particolare e se non sbaglio, tranne alcuni casi,
non conosciamo la distrib. della differenza neppure nel caso in cui
le 2 v.a. siano uguali.
In tal caso il metodo non è applicabile giusto?
Mentre quello di fu^2 lo è sempre vero?
Mi illustrereste un'esempio?

DajeForte
No non va bene lo stesso.
Innanzitutto diciamo che per una normale media moda e mediana coincidono.

Comunque $P(X_1>X_2)=P(X_1-X_2>0)=1-Phi(-(mu_1-mu_2)/sqrt(sigma_1^2+sigma_2^2))$; che dunque dipende dai due sigma a meno che non abbiano stessa media.

Fai questo ragionamento (e poi arriva al risultato).
Considera due variabili assolutamente continue con stessa funzione di densità (equamente distribuite) ed indipendenti.
La funzione doppia è $f(x,y)=f(x)f(y)$. Prova a ragionare su cosa succede se considerando i punti del piano $x>y$ ed inverti i ruoli delle due variabili

markowitz
scusami avevo corretto il messaggio perché mi ero reso conto del mio errore

DajeForte
A livello teorico se tu conosci la distribuzione congiunta ti puoi trovare la distribuzione della differenza, può risultare magari molto dificcile.

Comunque se hai due distribuzione continue hai:

$P(X_1>X_2)=int_(-infty)^(infty)\ f_(X_1)(x_1)\ \ dx_1 int_(-infty)^(x_1)\ f_(X_2)(x_2)\ \ dx_2$. Come puoi vedere qua il problema è risolvere un integrale. Nel caso in cui non ci sia indipendenza è la stessa cosa solo che hai un integrale doppio della funzione di densità congiunta.

Per un esempio basta che prendi qualche distribuzione nota e la applichi; se ad esempio hai due esponenziali ti viene $mu/(lambda+mu)$; ti puoi anche divertire a prendere distribuzioni diverse dovrai solo fare magari qualche considerazione sul supporto delle variabili.

markowitz
Ti ringrazio molto per il tuo aiuto.
Solo un paio di delucidazioni:
- partendo dalla formula da te scritta si arriva al risultato di fu^2?

E nel caso in cui le v.a. non sono indipendenti vale la seguente:
$int_(-oo)^(oo) int_(-oo)^( x ) f(x,y) dx dy$

DajeForte
Per la prima è la stessa solo che lui ha usato gli ordini di integrazione opposti.
Chiedere che $X>Y$ fisso la $x$ e la $y$ va da $-infty$ e $x$ e poi devi integrare per tutte le $x$.
Quello di fu è fisso la $y$ e la $x$ varia tra $y$ e $+infty$ e poi devi integrare per tutte le $y$;
è un ragionamento sull'ordine di integrazione: se ti disegni il piano cartesiano e la retta $y=x$ il dominio è la parte in basso a destra della retta; a questo punto vedi che puoi e sprimere il dominio come ho fatto io o fu.

Per la seconda si.

Spero di essere stato chiaro, chiedi senza problemi se vuoi.

markowitz
Ti ringrazio molto per le spiegazioni,
per stasera abbiamo finito con le lezioni di probabilità :-D
domani o più avanti farò un po di conti
se non tornano mi faccio vivo.

fu^2
"markowitz":
Prima di tutto grazie per le risposte

@ fu^2
Mi ritrovo perfettamente col caso discreto, è per quello che chiedevo lumi sul continuo :-D,
non sono sicuro di aver capito bene quello che hai scritto riguardo l'analogia nel continuo.
Avresti la pazienza di farmi vedere un'esempio numerico? Usa magari 2 uniformi così non
perdi tempo con i conti.


eccomi qua, vedo che in mia assenza c'è stato un lungo dibattito. Ma ciò nonostante ti faccio un semplice esempio comunque

supponiamo che $X_1$ ha legge uniforme su $[0,1]$ (dunque $f(t)=\chi_{[0,1]}(t)$), mentre $X_2$ è un esponenziale, cioè $f(t)=e^{-t}\chi_{[0,+\infty]}(t)$ e che queste siano indipendenti.

In particolare potrai scrivere che [tex]\mathbb{P}(X_1>t)=1-\mathbb{P}(X_1\leq t)=\begin{cases}1 &, t< 0 \\1- t &, t\in [0,1] \\ 0 &, t>1\end{cases}[/tex] e [tex]\mathbb{P}_{X_2}(dt)=e^{-t}\chi_{[0,+\infty]}(t)dt[/tex]

Allora avrai che
[tex]\mathbb{P}(X_1>X_2)=\displaystyle\int_{-\infty}^{+\infty}\mathbb{P}(X_1>t)e^{-t}dt=
\displaystyle\int_{0}^{1}(1-t)e^{-t}dt[/tex]

e se fai i calcoli ti viene un risultato ben diverso dal tuo ;)

--------------------------------------------

Tenendo presente l'analogia con le discrete, una spiegazione euristica della formula
[tex]\mathbb{P}(X_1>X_2)=\dispaystyle\int_{-\infty}^{+\infty}\mathbb{P}(X_1>t)\mathbb{P}_{X_2}(dt)[/tex]

è data da questo ragionamento:

se fossero probabilità discrte avresti
[tex]\mathbb{P}(X_1>X_2)=\displaystyle\sum_{t=1}^N \mathbb{P}(X_1>t\mid X_2=t)\mathbb{P}(X_2=t)[/tex]

se ora passi al continuo, avrai che [tex]\mathbb{P}(X_2=t)\to \mathbb{P}_{X_2}(dt)[/tex] e la somma diventa un integrale. A questo punto hai la formula scritta in precedenza.

Una precisazione: io ho scritto tutto con formule riconducenti al fatto (mi spiace averlo dimenticato nel post precedente) che le v.a. sono indipendenti. Se non sono indipendenti, devi guardare con un pò più di calma il fattore $\mathbb{P}(X_1>t|X_2=t)$ pensando che sei nel continuo e non nel discreto, ma anche in questo la formula, come puoi notare, è analoga alla precedente.

Infatti in tal caso, se $g(x,y)$ è la probabilità congiunta, posto
[tex]f_{X_1\mid X_2}(x\mid y)=\dfrac{g(x,y)}{f_{X_2}(y)}[/tex]

avrai che
[tex]\mathbb{P}(X_1>t|X_2=t)=\displaystyle\int_{t}^{+\infty} f_{X_1\mid X_2}(x\mid t)dx[/tex]
e nell'integrale che ti viene di sopra dovrai usare questa distribuzione.

Per vedere la dimostrazione di questo fatto puoi consultare "Probability" DI "Shiryaev" (nella seconda versione questo si trova a pag. 222 - 223)

markowitz
"fu^2":


supponiamo che $X_1$ ha legge uniforme su $[0,1]$ (dunque $f(t)=\chi_{[0,1]}(t)$),
mentre $X_2$ è un esponenziale, cioè $f(t)=e^{-t}\chi_{[0,+\infty]}(t)$ e che queste siano indipendenti.

In particolare potrai scrivere che
[tex]\mathbb{P}(X_1>t)=\begin{cases}0 &, t< 0 \\ t &, t\in [0,1] \\ 1 &, t>1\end{cases}[/tex] e [tex]\mathbb{P}_{X_2}(dt)=e^{-t}\chi_{[0,+\infty]}(t)dt[/tex]

ma quello che è scritto in parentesi graffa mi ricorda molto la definizione di funzione di ripartizione
dell'uniforme, ed allora non si doveva scrivere $<=t$ invece che $>t$? Oppure invertire lo $0$
con l'$1$ ed al popsto di $t$, mettere $1-t$?

inoltre

"fu^2":

Tenendo presente l'analogia con le discrete, una spiegazione euristica della formula
[tex]\mathbb{P}(X_1>X_2)=\dispaystyle\int_{-\infty}^{+\infty}\mathbb{P}(X_1>t)\mathbb{P}_{X_1}(dt)[/tex]

è data da questo ragionamento:

se fossero probabilità discrte avresti
[tex]\mathbb{P}(X_1>X_2)=\displaystyle\sum_{t=1}^N \mathbb{P}(X_1>t\mid X_2=t)\mathbb{P}(X_2=t)[/tex]

se ora passi al continuo, avrai che [tex]\mathbb{P}(X_2=t)\to \mathbb{P}_{X_2}(dt)[/tex]
e la somma diventa un integrale. A questo punto hai la formula scritta in precedenza.

ma allora la formula nel continuo non sarebbe:
[tex]\mathbb{P}(X_1>X_2)=\dispaystyle\int_{-\infty}^{+\infty}\mathbb{P}(X_1>t)\mathbb{P}_{X_2}(dt)[/tex]
ovvero si integra rispetto alla densità di $X_2$? In questo caso il ragionamento mi tornerebbe.

infine:
"fu^2":

Allora avrai che
[tex]\mathbb{P}(X_1>X_2)=\displaystyle\int_{-\infty}^{+\infty}\mathbb{P}(X_1>t)e^{-t}dt=
\displaystyle\int_{0}^{1}te^{-t}dt+\displaystyle\int_{1}^{+\infty}e^{-t}dt[/tex]

eseguendo i calcoli, se non ho fatto errori, trovo $P(X_1>X_2)=1-e^-1=0,632...$
ma intuitivamente mi sembra troppo alta, anzi credo sia più probabile che sia l'esponenziale ad essere
maggiore dell'uniforme.

Se ho scritto castronerie scusami :-)

fu^2
"markowitz":
[quote="fu^2"]

supponiamo che $X_1$ ha legge uniforme su $[0,1]$ (dunque $f(t)=\chi_{[0,1]}(t)$),
mentre $X_2$ è un esponenziale, cioè $f(t)=e^{-t}\chi_{[0,+\infty]}(t)$ e che queste siano indipendenti.

In particolare potrai scrivere che
[tex]\mathbb{P}(X_1>t)=\begin{cases}0 &, t< 0 \\ t &, t\in [0,1] \\ 1 &, t>1\end{cases}[/tex] e [tex]\mathbb{P}_{X_2}(dt)=e^{-t}\chi_{[0,+\infty]}(t)dt[/tex]

ma quello che è scritto in parentesi graffa mi ricorda molto la definizione di funzione di ripartizione
dell'uniforme, ed allora non si doveva scrivere $<=t$ invece che $>t$? Oppure invertire lo $0$
con l'$1$ ed al popsto di $t$, mettere $1-t$?
[/quote] [/quote]

si infatti, ieri ho scritto un pò di fretta, speravo che questa mattina non fossi ancora passato per poter modificare, ma vedo che mi hai preceduto. Ora ho modificato la distribuzione e torna tutto ;)


Inoltre anche dopo hai ragione te, ho scritto la formula per il continuo ripetendo $X_1$ due volte, anche se l'esempio ho inserito giusto., e per questo mi scuso.


Ora ho editato così il post precedente è chiaro e degno di essere letto ;) se hai altri dubbi dimmeli, spero di non aver creato troppa confusione con gli errori di distrazione che ho abilmente infilato... e di questo mi scuso nuovamente.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.