Covarianza e indipendenza.
Mi si chiede sapendo che \(X,Y \sim N(0,1) \) e indipendenti e identicamente distribuite e definito \(Z=XY \) di calcolare la covarianza tra \(X,Z \) il cui risultato mi esce essere zero. E poi mi si chiede se \(Z,X \) sono indipendenti.
Io a naso direi di no, però la covarianza è zero... quindi mi sembra strano.
Poi mi pone la stessa domanda ma stavolta dove \(X,Y \) sono variabili idipendenti e identicamente distribuite su \( \{ -1, 1 \} \) tale che \( P(X=1) = P(X=-1) = 1/2 \) e idem per \( Y \).
La covarianza anche qui è uguale a zero. E \( Z \) e \( X \) direi che sono dipendenti.
Io a naso direi di no, però la covarianza è zero... quindi mi sembra strano.
Poi mi pone la stessa domanda ma stavolta dove \(X,Y \) sono variabili idipendenti e identicamente distribuite su \( \{ -1, 1 \} \) tale che \( P(X=1) = P(X=-1) = 1/2 \) e idem per \( Y \).
La covarianza anche qui è uguale a zero. E \( Z \) e \( X \) direi che sono dipendenti.
Risposte
Quesito base ma sempre interessante.....
Il modello Gaussiano è un modello un po' particolare, ha un sacco di caratteristiche interessanti ed utili all'utilizzatore. Una di queste peculiarità è che indipendenza e incorrelazione sono sinonimi. Già sappiamo dalla teoria che l'indipendenza implica incorrelazione (ma non viceversa, in generale)
Vediamo invece cosa accade in un modello Gaussiano.
Prendiamo le due Gaussiane standard e costruiamo la densità "congiunta gaussiana" delle due variabili.
Per definizione abbiamo:
$f_(XY)(x,y)=1/(2pisqrt(1-rho^2))e^(-1/(2(1-rho^2))[x^2-2rhoxy+y^2])$
poniamo $rho=0$ (variabili incorrelate) ed otteniamo che
$f_(XY)(x,y)=1/sqrt(2pi)e^(-x^2/2)\cdot 1/sqrt(2pi)e^(-y^2/2)=f_X(x)f_Y(y)$
che è proprio la definizione di INDIPENDENZA STOCASTICA. In altre parole, in questo modello TUTTA la dipendenza è catturata dalla correlazione fra le due variabili....
Prendiamo il secondo esempio:
Con semplici calcoli che saprai fare, ottieni che la pmf di $Z=XY$ è questa
$p(XY)={{: ( -1 , 1),( 1/2 , 1/2 ) :}$
Anche qui le variabili sono indipendenti e te ne accorgi perché in ogni caso accade che
$P(XY)=P(XY|X)$
la cosa non accade, in generale, con modelli che non siano Gaussiani....se ho tempo provo a buttare giù un esempio numerico che calzi
Il modello Gaussiano è un modello un po' particolare, ha un sacco di caratteristiche interessanti ed utili all'utilizzatore. Una di queste peculiarità è che indipendenza e incorrelazione sono sinonimi. Già sappiamo dalla teoria che l'indipendenza implica incorrelazione (ma non viceversa, in generale)
Vediamo invece cosa accade in un modello Gaussiano.
Prendiamo le due Gaussiane standard e costruiamo la densità "congiunta gaussiana" delle due variabili.
Per definizione abbiamo:
$f_(XY)(x,y)=1/(2pisqrt(1-rho^2))e^(-1/(2(1-rho^2))[x^2-2rhoxy+y^2])$
poniamo $rho=0$ (variabili incorrelate) ed otteniamo che
$f_(XY)(x,y)=1/sqrt(2pi)e^(-x^2/2)\cdot 1/sqrt(2pi)e^(-y^2/2)=f_X(x)f_Y(y)$
che è proprio la definizione di INDIPENDENZA STOCASTICA. In altre parole, in questo modello TUTTA la dipendenza è catturata dalla correlazione fra le due variabili....
Prendiamo il secondo esempio:
Con semplici calcoli che saprai fare, ottieni che la pmf di $Z=XY$ è questa
$p(XY)={{: ( -1 , 1),( 1/2 , 1/2 ) :}$
Anche qui le variabili sono indipendenti e te ne accorgi perché in ogni caso accade che
$P(XY)=P(XY|X)$
la cosa non accade, in generale, con modelli che non siano Gaussiani....se ho tempo provo a buttare giù un esempio numerico che calzi
ok eccomi, esercizio inventato appositamente per il tuo quesito:
Se costruiamo la tabella che mi identifica la distribuzione doppia avremo quanto segue:
Il fatto di avere caselline vuote già indica la non indipendenza perché in quella cella di sicuro non vale la definizione $P(x,y)=P(x)P(y)$ ma si può ragionare anche così:
La probabilità di avere una pallina nell'urna U è $P(X=1)=2/4$ mentre la stessa probabilità condizionata al fatto che ci sia solo un'urna non vuota viene zero; in termini formali hai che $P(X=1|Y=1)=0$.
essendo $P(X) !=P(X|Y)$ è evidente che le variabili non sono fra loro indipendenti.
Calcolando la covarianza trovi subito che
$cov(X,Y)=E(XY)-E(X)E(Y)=(2\cdot1/4+2\cdot2/4)-(1\cdot2/4+2\cdot1/4)(1\cdot1/2+2\cdot1/2)=0$
Quindi questo esempio dimostra il caso generale, ovvero che la non correlazione non implica indipendenza
Prendiamo due palline e le lanciamo a caso in due urne, $U,V$.
Consideriamo le seguenti variabili aleatorie:
$X$: numero di palline nell'urna $U$
$Y$: numero di urne NON vuote.
Se costruiamo la tabella che mi identifica la distribuzione doppia avremo quanto segue:
Y \ X | 0 | 1 | 2 | Totale |
---|---|---|---|---|
1/4 | 0 | 1/4 | 2/4 | 2 |
2/4 | 0 | 2/4 | Totale | 1/4 |
1/4 | 1 |
Il fatto di avere caselline vuote già indica la non indipendenza perché in quella cella di sicuro non vale la definizione $P(x,y)=P(x)P(y)$ ma si può ragionare anche così:
La probabilità di avere una pallina nell'urna U è $P(X=1)=2/4$ mentre la stessa probabilità condizionata al fatto che ci sia solo un'urna non vuota viene zero; in termini formali hai che $P(X=1|Y=1)=0$.
essendo $P(X) !=P(X|Y)$ è evidente che le variabili non sono fra loro indipendenti.
Calcolando la covarianza trovi subito che
$cov(X,Y)=E(XY)-E(X)E(Y)=(2\cdot1/4+2\cdot2/4)-(1\cdot2/4+2\cdot1/4)(1\cdot1/2+2\cdot1/2)=0$
Quindi questo esempio dimostra il caso generale, ovvero che la non correlazione non implica indipendenza

Grazie mille, gentilissimo!!