Distribuzioni doppie: (in)dipendenza in media

frons79
Sia \[\displaystyle
(X;Y)=
\begin{cases}
(x_i;y_j) & =i=1,...,k; j=1,...,m \\
p_{ij}
\end{cases}
\]
la distribuzione congiunta delle variabili X e Y. Supponendo che per tale distribuzione valga quanto segue:
\[\displaystyle
\mathbb E[Y|X=x_i]= \mu_Y(x_i)=x_i \quad per i=1,...,k \]
    [*:1mg40eds]accertare la relazione che esiste tra la media della variabile X e quella della variabile Y;[/*:m:1mg40eds]
    [*:1mg40eds]Dimostrare che, in questo caso, COV(X,Y)=Var(X)[/*:m:1mg40eds][/list:u:1mg40eds]

    (Suggerimentio: tenere conto che la covarianza è equivalente alla media del prodotto meno il prodotto delle medie delle due variabili)


    Non ho idea da dove cominciare. So solo che Y è dipendente in media da X, ma non ho idea se sia vero o meno il contrario...
    Suggerimenti?

Risposte
stenford
Poni per semplicità di scrittura
$E[Y|X=x]=x$
Quindi
$E[E[Y|X=x]]$ a cosa è uguale?

Per il secondo punto adopera la definizione base di covarianza e varianza ovvero:
$COV(X,Y)=E[(X-E[X])*(Y-E[Y])]$
$VAR(X)=E[(X-E[x])^2]$

frons79
"stenford":
Poni per semplicità di scrittura
$E[Y|X=x]=x$
Quindi
$E[E[Y|X=x]]$ a cosa è uguale?


$E[E[Y|X=x]]=E[x]$

Ancora la lampadina non si è accesa... :?

stenford
Devi usare le proprietà dei valori attesi di valori attesi condizionati.
$ E[E[Y|X=x]]=E[Y]$

frons79
"stenford":
Devi usare le proprietà dei valori attesi di valori attesi condizionati.
$ E[E[Y|X=x]]=E[Y]$


Questa proprio m'era sfuggita. Dunque: \[\displaystyle
\mathbb E[X] = \mathbb E[\mathbb E[X|Y]] \\
\mathbb E[Y] = \mathbb E[\mathbb E[Y|X]]\]

Quindi "come" dovrei rispondere alla prima domanda, alla luce delle due relazioni di cui sopra?

stenford
Sai che $ x= E[Y|X=x]-> E[x]=E[E[Y|X=x]]=E[Y] $
Sapendo che entrambe le variabili sono i.i.d.
$ y_i~ Y $ e $ x_i~ X $
Allora:
$ E[x_i]=(sum_(i=1,..,n)E[x_i])/n=E[bar(X_n)]= E[bar(Y_n)]=(sum_(i=1,..,n)E[y_i])/n=E[Y_i] $

frons79
"stenford":
(...) $ E[x_i]=(sum_(i=1,..,n)E[x_i])/n=E[bar(X_n)]= E[bar(Y_n)]=(sum_(i=1,..,n)E[y_i])/n=E[Y_i] $


Hai volutamente scritto la prima x e l'ultima y uno minuscolo e l'altro maiuscolo o è solo una svista?
Quindi potrei anche dimostrare immediatamente che $\mathbb E [X]\quad \mathbb E[Y] = \mathbb E^2[X]$
Ma invece, che $\mathbb E[XY]= \mathbb E[X^2]$?

stenford
no intendevo $ y_i $
Per il secondo punto usa la definizione base che ti ho già scritto....

frons79
[pgn][/pgn]
"stenford":
Per il secondo punto adopera la definizione base di covarianza e varianza ovvero:
$COV(X,Y)=E[(X-E[X])*(Y-E[Y])]$
$VAR(X)=E[(X-E[x])^2]$


Per riuscire a dimostrare che $COV(X,Y)=VAR(X)$ dovrei dimostrare che:
\[
\mathbb{E} \bigl [(X- \mathbb{E}(X))(Y- \mathbb{E}(Y)) \bigr ] = \mathbb{E} \bigl [(X- \mathbb{E}(X))^2 \bigr ]
\]
sapendo solamente che $ \mathbb{E}(X)= \mathbb{E}(Y)$

In pratica?

frons79
A livello teorico, è la stessa cosa se ragiono così?
\[
COV(X,Y)= \mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y] \\
VAR(X)=\mathbb{E}[X^2]-\mathbb{E}^2[X] \]
da cui, per le considerazioni dei post precedenti
\[COV(X,Y)= \mathbb{E}[XY]-\mathbb{E}^2[X] \]
Ora per verificare che $COV(X,Y)=VAR(X)$, che coincide a:
\[ \mathbb{E}[XY]-\mathbb{E}^2[X] = \mathbb{E}[X^2]-\mathbb{E}^2[X] \]
basta quindi verificare che
\[ \begin{equation}
\begin{split}
\mathbb{E}[XY] & = \mathbb{E}[X \, \mathbb{E}[Y|X]] \\
& =\mathbb{E}[X \, X] \\
& =\mathbb{E}[X^2]
\end{split}
\end{equation}\]

frons79
avevo scritto male l'ultimo passaggio, un errore di battitura, tra l'altro lo scrissi prima della tua ultima modifica al tuo post, quindi non vidid gli ultimi passaggi. 8-)

frons79
Egregiamente, grazie mille :smt023

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.