Dubbio sulla covarianza
Buongiorno a tutti!
Allora, io so che
$Cov(X,Y)=E[(X-\mu_x)(y-\mu_y)] = \sum_{i=1}^N \sum_{j=1}^N (x_i-\mu_x)(y_j-\mu_y)*P_(ij)$
giusto? Ora se sviluppo di poco i calcoli arrivo ad un punto morto perchè la Covarianza a me verrebbe sempre nulla:
infatti, sfruttando il fatto che
$P_(ij)=P_(j|i)*P_(i+)$ arrivo a:
$Cov(X,Y)= \sum_{i=1}^N (x_(i)-\mu_(x))*P_(i+)*\sum_{j=1}^N (y_(j)-\mu_(y))*P_(j|i) = 0$
perchè il primo fattore non è altro che la media degli scarti di $x$ dalla sua media che, per la proprietà del baricentro della media aritmetica è sempre pari a zero! Dove è che sbaglio?
Allora, io so che
$Cov(X,Y)=E[(X-\mu_x)(y-\mu_y)] = \sum_{i=1}^N \sum_{j=1}^N (x_i-\mu_x)(y_j-\mu_y)*P_(ij)$
giusto? Ora se sviluppo di poco i calcoli arrivo ad un punto morto perchè la Covarianza a me verrebbe sempre nulla:
infatti, sfruttando il fatto che
$P_(ij)=P_(j|i)*P_(i+)$ arrivo a:
$Cov(X,Y)= \sum_{i=1}^N (x_(i)-\mu_(x))*P_(i+)*\sum_{j=1}^N (y_(j)-\mu_(y))*P_(j|i) = 0$
perchè il primo fattore non è altro che la media degli scarti di $x$ dalla sua media che, per la proprietà del baricentro della media aritmetica è sempre pari a zero! Dove è che sbaglio?
Risposte
Quindi io praticamente sbaglio a spezzare la sommatoria? Allora se devo dimostrare che l'indipendenza in media implica incorrelazione tra $X$ e $Y$ è sbagliato dire che:
dato che $\E(Y|X)=E(Y)$ perchè sono indipendenti in media, allora
$Cov(X,Y)=E[(X-\mu_x)(y-\mu_y(x))] = \sum_{i=1}^N \sum_{j=1}^N (x_i-\mu_x)(y_j-\mu_y(x))*P_(ij)$
quindi $Cov(X,Y)=\sum_{i=1}^N (x_i-\mu_x)\sum_{j=1}^N(y_j-\mu_y(x))*(P_(j|i))*(P_(i+))$ e dire che è zero perchè ho la media degli scarti di $Y|X$ dalla sua media?
dato che $\E(Y|X)=E(Y)$ perchè sono indipendenti in media, allora
$Cov(X,Y)=E[(X-\mu_x)(y-\mu_y(x))] = \sum_{i=1}^N \sum_{j=1}^N (x_i-\mu_x)(y_j-\mu_y(x))*P_(ij)$
quindi $Cov(X,Y)=\sum_{i=1}^N (x_i-\mu_x)\sum_{j=1}^N(y_j-\mu_y(x))*(P_(j|i))*(P_(i+))$ e dire che è zero perchè ho la media degli scarti di $Y|X$ dalla sua media?
Sergio perdonami ma credo di avere un po' di confuzione a riguardo. Per dimostrarlo considero la $Cov(X, Y|X)$? Perchè? E si è così, quando arrivo a $Cov(X, Y|X)=E[X(X|Y)]-E[X]E[X|Y]$ poi come dico che è zero?
Tornando alla questione di partenza, io però per dimostrare che $2E[(Y-\varphi(X))*(\varphi(X)-g(X)]=0$ posso scrivere:
$\sum_{i=1}^N (\varphi(x_i)-g(x_i))\sum_{j=1}^N (y_j-varphi(x_i))*P_(j|i)P_(i+)=0$ perchè ho la media degli scarti della variabile $X|Y$ dalla sua media che è zero?
Tornando alla questione di partenza, io però per dimostrare che $2E[(Y-\varphi(X))*(\varphi(X)-g(X)]=0$ posso scrivere:
$\sum_{i=1}^N (\varphi(x_i)-g(x_i))\sum_{j=1}^N (y_j-varphi(x_i))*P_(j|i)P_(i+)=0$ perchè ho la media degli scarti della variabile $X|Y$ dalla sua media che è zero?
E' una parte della dimostrazione che ci ha dato il professore della proprietà dei minimi quadrati della funzione di regressione..$\varphi$ è la funzione di regressione e $g(X)$ una qualunque funzione di x. E lo stesso procedimento l'ha utilizzato per la scomposizione della varianza.
Comunque sul libro tra le proprietà delle sommatorie c'è la seguente:
$\sum_{i=1}^c \sum_{j=1}^r a_i*b_J= \sum_{i=1}^r a_I* \sum_{j=1}^c b_j$
Comunque sul libro tra le proprietà delle sommatorie c'è la seguente:
$\sum_{i=1}^c \sum_{j=1}^r a_i*b_J= \sum_{i=1}^r a_I* \sum_{j=1}^c b_j$
"Sergio":
\(E[Y]=E[E(Y|X)]\. Applicandola a \(XY\): \(E[XY]=E[E(XY|X)]\)
Non mi è chiaro questo passaggio. Non mi odiare!

Ok..però con la covarianza quella proprietà non vale giusto?
"Sergio":
[quote="Lucky91"]Comunque sul libro tra le proprietà delle sommatorie c'è la seguente:
$\sum_{i=1}^c \sum_{j=1}^r a_i*b_J= \sum_{i=1}^r a_I* \sum_{j=1}^c b_j$
Ops! Hai ragione, ero partito da un esempio di statistica descrittiva e ragionavo su sommatorie singole, non doppie

Comunque, tornando al problema iniziale, scrivevi:
\[\begin{align}
Cov(X,Y)&=E[(X-\mu_x)(y-\mu_y)] = \sum_{i=1}^N \sum_{j=1}^N (x_i-\mu_x)(y_j-\mu_y)*P_(ij) \\
&= \sum_{i=1}^N (x_(i)-\mu_(x))*P_(i+)*\sum_{j=1}^N (y_(j)-\mu_(y))*P_(j|i)
\end{align}\]
ma l'ultima uguaglianza non regge, in quanto mentre moltiplichi \(x_i-\mu_x\) per le probabilità marginali (giusto), moltiplichi \(y_j-\mu_y\) per le probabilità condizionate (sbagliato).
Potresti operare in quel modo solo se le probabilità congiunte fossero uguali ai prodotto delle marginali, ma in questo caso le variabili sarebbero indipendenti.[/quote]
Scusa, ma la relazione $P_(j|i) = P_(ij) / p_(i+)$ non vale sempre, a prescindere dall'indipendenza? Io so che quando X ed Y sono indipendenti allora $P_(j|i) = P_(+j)$ ma io quest'ultima relazione non l'ho usata..sarò scema, ma io ancora non capisco perchè è sbagliato!
Ok Sergio, finalmente è tutto chiaro! Sei stato gentilissimo e un sacco paziente. Davvero complimenti!

Come non detto..se è come dici tu (e su questo non ho dubbi), allora non ha senso la definizione che ho io di funzione di regressione:
$\varphi=E[Y|X]=\sum_{j=1}^N y_(j)*P_(j|i)$ perchè ho lo stesso problema di prima (una sola sommatoria e un fattore che varia secondo due indici), o sbaglio?
$\varphi=E[Y|X]=\sum_{j=1}^N y_(j)*P_(j|i)$ perchè ho lo stesso problema di prima (una sola sommatoria e un fattore che varia secondo due indici), o sbaglio?
Scusate un attimo ma allora, in verità, la sommatoria in causa NON si può spezzare !
Nel senso che anche conoscere le probabilità marginali e le condizionate non sarebbe sufficente perché, si, apparentemente la probabilità congiunta si può scomporre ma dobbiamo sempre tenere unita la doppia sommatoria; spezzarla ci porterebbe ad una quantità indefinita o meglio indefinibile, ed è poi solo per questo che comunque non verrebbe assorbita dallo zero.
Altrimenti l'ipotesi iniziale di $cov(X,Y)=0$ sempre, sarebbe dimostrata.
Sbaglio?
Nel senso che anche conoscere le probabilità marginali e le condizionate non sarebbe sufficente perché, si, apparentemente la probabilità congiunta si può scomporre ma dobbiamo sempre tenere unita la doppia sommatoria; spezzarla ci porterebbe ad una quantità indefinita o meglio indefinibile, ed è poi solo per questo che comunque non verrebbe assorbita dallo zero.
Altrimenti l'ipotesi iniziale di $cov(X,Y)=0$ sempre, sarebbe dimostrata.
Sbaglio?
Grazie mille Sergio, ora ho davvero capito..penso che molti dei dubbi che ho derivino dal fatto che la mia facoltà, ahimè, non prevede un corso molto approfondito di Statistica e tanti concetti sono dati un po "alla buona". Grazie ancora!
