Chiarimenti sulle variabili aleatorie scorrelate
Ciao a tutti!
avrei bisogno del vostro aiuto per la definizione di variabili aleatorie scorrelate che non so se è giusta o sbagliata. Io ho questa definizione
siano X, Y variabili aleatorie. Esse si dicono scorrelate se $ E(X*Y)=E(X)E(Y) $, ma $ P(X*Y)!=P(X)P(Y) $
E' corretta? purtroppo il mio libro di testo non espone la definizione in questi termini, ma usa il coefficiente di correlazione
potreste aiutarmi? grazie...
avrei bisogno del vostro aiuto per la definizione di variabili aleatorie scorrelate che non so se è giusta o sbagliata. Io ho questa definizione
siano X, Y variabili aleatorie. Esse si dicono scorrelate se $ E(X*Y)=E(X)E(Y) $, ma $ P(X*Y)!=P(X)P(Y) $
E' corretta? purtroppo il mio libro di testo non espone la definizione in questi termini, ma usa il coefficiente di correlazione
potreste aiutarmi? grazie...
Risposte
Si è affrontata una disquisizione che, credo, ti possa interessare in un mio topic intitolato: "valore atteso di un prodotto", prova a dare un'occhiata.
Per il resto ti posso sicuramente dire che due v.a. $x$ ed $y$
sono scorrelate se
$corr(x,y)=0$ da cui sapendo che $corr(x,y)=(cov(x,y))/(var(x)*var(y))^(1/2)$ si deduce che la correlazione si annnulla solo se $cov(x,y)=0$ quindi suppongo che anche l'annullamento della varianza è un modo diverso per indicare la scorrelazione, da cui sapendo che in generale:
$E[xy]=E[x]*E[y]+cov(x,y)$, dire che $E[xy]=E[x]*E[y]$ equivale ad indicare la scorrelazione
l'indipendenza è invece una condizione più forte.
Il mio dubbio è che su diversi libri come anche il tuo la condizione di scorrelazione non è mai enunciata mostrando
$E[xy]=E[x]*E[y]$
tuttavia credo sia vero. Comunque leggiti il topic, io non ho trovato molto altro ne online ne sui libri
Per il resto ti posso sicuramente dire che due v.a. $x$ ed $y$
sono scorrelate se
$corr(x,y)=0$ da cui sapendo che $corr(x,y)=(cov(x,y))/(var(x)*var(y))^(1/2)$ si deduce che la correlazione si annnulla solo se $cov(x,y)=0$ quindi suppongo che anche l'annullamento della varianza è un modo diverso per indicare la scorrelazione, da cui sapendo che in generale:
$E[xy]=E[x]*E[y]+cov(x,y)$, dire che $E[xy]=E[x]*E[y]$ equivale ad indicare la scorrelazione
l'indipendenza è invece una condizione più forte.
Il mio dubbio è che su diversi libri come anche il tuo la condizione di scorrelazione non è mai enunciata mostrando
$E[xy]=E[x]*E[y]$
tuttavia credo sia vero. Comunque leggiti il topic, io non ho trovato molto altro ne online ne sui libri
da quel che mi ricordo $X,Y$ incorrelate $\Leftrightarrow E(XY)=E(X)E(Y)$ mentre per l'indipendenza le cose sono un po' diverse...
Inoltre la definizione di incorrelazione che ho studiato io è diversa, cioe $X$ e $Y$ sono incorrelate se $Cov(X,Y)=0$ con $Cov(X,Y)=E(XY)-E(X)E(Y)$
Inoltre la definizione di incorrelazione che ho studiato io è diversa, cioe $X$ e $Y$ sono incorrelate se $Cov(X,Y)=0$ con $Cov(X,Y)=E(XY)-E(X)E(Y)$
Non so perchè non mi ha pubblicato il post, forse lo riscrivo e ne compaiono due.
Premeto dicendo che per me scorrelazione $Cov=0$ sono la stessa cosa.
Ora se hai $X$ e $Y$ indipendenti allora $Cov(X,Y)=0$;
il viceversa in generale non è vero.
Ci sono però dei casi in cui è vero.
ad esempio se $X$ e$Y$ sono normali; dunque l'indipendenza equivale a $Cov(X,Y)=0$
Premeto dicendo che per me scorrelazione $Cov=0$ sono la stessa cosa.
Ora se hai $X$ e $Y$ indipendenti allora $Cov(X,Y)=0$;
il viceversa in generale non è vero.
Ci sono però dei casi in cui è vero.
ad esempio se $X$ e$Y$ sono normali; dunque l'indipendenza equivale a $Cov(X,Y)=0$
Secondo il libro di Feller, l'uso del termine "scorrelazione" è poco felice perché suggerisce implicazioni non vere (An introduction to Probability Theory, vol. I, IX.8). Due v.a. $X, Y$ si dicono scorrelate se il loro coefficiente di correlazione si annulla, il che è equivalente a richiedere l'annullarsi della covarianza oppure l'identità $E(XY)=E(X)E(Y)$. Come si diceva sopra, questo non significa che $X, Y$ sono indipendenti. Un esempio semplice:
sia $X$ una v.a. che assume i valori $1, 2, -1, -2$ ognuno con probabilità $1/4$, e sia $Y=X^2$. Queste due v.a. non sono, naturalmente, indipendenti. Però esse sono scorrelate: infatti il valore atteso del prodotto è $E(X^3)$, ovvero il valore atteso di una v.a. che assume i valori $1, 8, -1, -8$ ognuno con probabilità $1/4$, ed è dunque nullo; ma anche il prodotto dei valori attesi $E(X)E(Y)$ si annulla come $E(X)$.
Si annulla quindi il coefficiente di correlazione pur essendoci piena dipendenza tra le due v.a., quindi questo coefficiente non è una misura generale dell'indipendenza. Però funziona bene per misurare la dipendenza lineare tra v.a.: è possibile dimostrare che
il coefficiente di correlazione di $X, Y$ è uguale a $+-1$ se e solo se esistono costanti $a, b$ tali che $Y=aX+b$ (l'uguaglianza tra v.a. si intende a meno di valori assunti con probabilità zero, o come si direbbe in matematica, "quasi ovunque").
sia $X$ una v.a. che assume i valori $1, 2, -1, -2$ ognuno con probabilità $1/4$, e sia $Y=X^2$. Queste due v.a. non sono, naturalmente, indipendenti. Però esse sono scorrelate: infatti il valore atteso del prodotto è $E(X^3)$, ovvero il valore atteso di una v.a. che assume i valori $1, 8, -1, -8$ ognuno con probabilità $1/4$, ed è dunque nullo; ma anche il prodotto dei valori attesi $E(X)E(Y)$ si annulla come $E(X)$.
Si annulla quindi il coefficiente di correlazione pur essendoci piena dipendenza tra le due v.a., quindi questo coefficiente non è una misura generale dell'indipendenza. Però funziona bene per misurare la dipendenza lineare tra v.a.: è possibile dimostrare che
il coefficiente di correlazione di $X, Y$ è uguale a $+-1$ se e solo se esistono costanti $a, b$ tali che $Y=aX+b$ (l'uguaglianza tra v.a. si intende a meno di valori assunti con probabilità zero, o come si direbbe in matematica, "quasi ovunque").
Grazie mille! è tutto molto più chiaro ora... comunque visto che è stato usato come fonte vorrei sapere qualcosa in più sul Feller. A me hanno consigliato sia il libro "Calcolo delle probabilità" di Ross, sia il Feller secondo voi qual'è la scelta migliore? E comunque sul Feller è trattato l'argomento della $\sigma$-additività?