Valore atteso di un prodotto
se abbiamo 2 variabili aleatorie $X1$ ed $X2$ sappiamo che in generale:
$E[X1*X2]=E[X1]*E[X2]+cov(X1,X2)$
se le variabili sono incorrelate:
$E[X1*X2]=E[X1]*E[X2]$
ma se vogliamo generalizzare ed abbiamo un'insieme di v.a. $Xs$ con $s=1,...,N$ tutte incorrelate
si può? dire che:
$E[prod_(s= 1)^(N) Xs]=prod_(s=1)^(N)E[Xs]$
e se invece fossero correlate si può dire che:
$E[prod_(s= 1)^(N) Xs]=prod_(s=1)^(N)E[Xs]+sum_(s = 1)^(N)sum_(j = 1)^(N)cov(Xs,Xj)$ con $j!=s$
o non è così?.
Lo chiedo perchè non ho mai visto una forma con più di 2 dimensioni.
$E[X1*X2]=E[X1]*E[X2]+cov(X1,X2)$
se le variabili sono incorrelate:
$E[X1*X2]=E[X1]*E[X2]$
ma se vogliamo generalizzare ed abbiamo un'insieme di v.a. $Xs$ con $s=1,...,N$ tutte incorrelate
si può? dire che:
$E[prod_(s= 1)^(N) Xs]=prod_(s=1)^(N)E[Xs]$
e se invece fossero correlate si può dire che:
$E[prod_(s= 1)^(N) Xs]=prod_(s=1)^(N)E[Xs]+sum_(s = 1)^(N)sum_(j = 1)^(N)cov(Xs,Xj)$ con $j!=s$
o non è così?.
Lo chiedo perchè non ho mai visto una forma con più di 2 dimensioni.
Risposte
no sergio, basta la scorrelazione affinchè si abbia che $E[X_1\cdotX_2]=E[X_1]E[X_2]$ semplicemente perchè ti serve sapere che $cov(X_1,X_2)=0$
Infatti quell'uguaglianza si trova dalla definizione stessa della covarianza $cov(X,Y)=E[(X-E(X))(Y-E(Y))]$ (basta sviluppare i conti).
Sotto questo però ci sta il fatto che noi stiamo lavorando su $L^2$ col suo prodotto interno.
La generalizzazione ad $N$ variabili che tu hai proposto non penso sia giusta, infatti proviamo a iterare la formula che vale per due variabili, otteniamo
$E[\prod_{s=1}^NX_s]=E[\prod_{s=1}^{N-1}X_s\cdot X_N]=E[\prod_{s=1}^{N-1}X_s]E[X_N]+cov(\prod_{s=1}^{N-1}X_s, X_N)=E[\prod_{s=1}^{N-2}X_s\cdotX_{N-1}]E[X_N]+cov(\prod_{s=1}^{N-1}X_s, X_N)=E[\prod_{s=1}^{N-2}X_s]E[X_{N-1}]E[X_N]+cov(\prod_{s=1}^{N-1}X_s, X_N)+E[X_N]cov(\prod_{s=1}^{N-2}X_s,X_{N-1})$ e così via...
Quindi per scrivere qualcosa in breve per ragionare, poniamo $N=3$, ottenendo
$E[XYZ]=E[X]E[Y}]E[Z]+cov(XY, Z)+E[Z]cov(X,Y)$ e la $cov(XY,Z)$ ce la dobbiamo tenere così com'è...
dunque penso che una formula generale potrebbe essere (guardando a occhio i risultati sopra, sarebbe opportuno provarla per induzione, cosa che non ho fatto quindi ci potrebbero essere degli errori... anche se...)
$E[\prod_{s=1}^N X_s]=\prod_{s=1}^NE[X_s]+cov(\prod_{s=1}^{N-1}X_s,X_N)+\sum_{s=1}^{N-2}[\prod_{k=1}^{s}E[X_{N-k+1}]cov(\prod_{m=1}^{N-s-1}X_m,X_{N-s})]$
Da notare che se le variabili sono scorrelate allora vale la fattorizzazione $E[\prod_{s=1}^N X_s]=\prod_{s=1}^NE[X_s]$.
Infatti quell'uguaglianza si trova dalla definizione stessa della covarianza $cov(X,Y)=E[(X-E(X))(Y-E(Y))]$ (basta sviluppare i conti).
Sotto questo però ci sta il fatto che noi stiamo lavorando su $L^2$ col suo prodotto interno.
La generalizzazione ad $N$ variabili che tu hai proposto non penso sia giusta, infatti proviamo a iterare la formula che vale per due variabili, otteniamo
$E[\prod_{s=1}^NX_s]=E[\prod_{s=1}^{N-1}X_s\cdot X_N]=E[\prod_{s=1}^{N-1}X_s]E[X_N]+cov(\prod_{s=1}^{N-1}X_s, X_N)=E[\prod_{s=1}^{N-2}X_s\cdotX_{N-1}]E[X_N]+cov(\prod_{s=1}^{N-1}X_s, X_N)=E[\prod_{s=1}^{N-2}X_s]E[X_{N-1}]E[X_N]+cov(\prod_{s=1}^{N-1}X_s, X_N)+E[X_N]cov(\prod_{s=1}^{N-2}X_s,X_{N-1})$ e così via...
Quindi per scrivere qualcosa in breve per ragionare, poniamo $N=3$, ottenendo
$E[XYZ]=E[X]E[Y}]E[Z]+cov(XY, Z)+E[Z]cov(X,Y)$ e la $cov(XY,Z)$ ce la dobbiamo tenere così com'è...
dunque penso che una formula generale potrebbe essere (guardando a occhio i risultati sopra, sarebbe opportuno provarla per induzione, cosa che non ho fatto quindi ci potrebbero essere degli errori... anche se...)
$E[\prod_{s=1}^N X_s]=\prod_{s=1}^NE[X_s]+cov(\prod_{s=1}^{N-1}X_s,X_N)+\sum_{s=1}^{N-2}[\prod_{k=1}^{s}E[X_{N-k+1}]cov(\prod_{m=1}^{N-s-1}X_m,X_{N-s})]$
Da notare che se le variabili sono scorrelate allora vale la fattorizzazione $E[\prod_{s=1}^N X_s]=\prod_{s=1}^NE[X_s]$.
Prima di tutto vi ringrazio per le risposte
La formula che avevo proposto si basava sul fatto, solo intuitivo ma non controllato ed evidentemente errato, che ci si potesse ricondurre ad una forma simile a quella della varianza di una somma dove compaiono le coppie di covarianze.
D'altra parte ho capito perchè tale generalizzazione solitamente non è proposta!!!

La formula che avevo proposto si basava sul fatto, solo intuitivo ma non controllato ed evidentemente errato, che ci si potesse ricondurre ad una forma simile a quella della varianza di una somma dove compaiono le coppie di covarianze.
D'altra parte ho capito perchè tale generalizzazione solitamente non è proposta!!!

Non sbagli, quello che dici è sicuramente giusto nel senso che hai appena dimostrato che due variabili aleatorie indipendenti hanno covarianza nulla quindi $E[XY]=E[X]*E[Y]$ ma ti posso anche dire che se sono indipendenti puoi anche generalizzare e dire che
$E[f(X)*g(Y)]=E[f(X)]*E[g(Y)]$ dove $f$ e $g$ sono due funzioni in qualsiasi modo definite.
Adesso però nel mio esempio mi limitavo ad analizzare il caso $E[XY]=E[X]*E[Y]$ che equivale ad inporre la condizione di scorrelazione (o no?) ovvero di assenza di dipendenza lineare tra le variabili, altri tipi di dipendenza non sono riscontrabili dal coefficente di correlazione e quindi, correggimi se sbaglio, neppure dalla covarianza.
Parlare di incorrelazione/scorrelazione equivale a "rilassare" l'ipotesi di indipendenza che è più forte. Da cui si deduce che indipendenza include scorrelazione ma chiaramente, in generale, non è vero il viceversa.
In particolare si possono trovare esempi di v.a. non indipendenti ma che hanno covarianza nulla, quindi, correggimi se sbaglio, rispettano la condizione $E[XY]=E[X]*E[Y]$ quindi non covariano.
Nel caso proposto la scorrelazione penso fosse sufficente.
Se mi sto perdendo qualche pezzo tra indipendenza incorrelazione indipendenza in media condizionata..... ti sarei grato se chiarissi una volta per tutte sottigliezze che per me sono amletiche e che nei corsi che ho seguito potrebbero non essere state adeguatamente approfondite.
$E[f(X)*g(Y)]=E[f(X)]*E[g(Y)]$ dove $f$ e $g$ sono due funzioni in qualsiasi modo definite.
Adesso però nel mio esempio mi limitavo ad analizzare il caso $E[XY]=E[X]*E[Y]$ che equivale ad inporre la condizione di scorrelazione (o no?) ovvero di assenza di dipendenza lineare tra le variabili, altri tipi di dipendenza non sono riscontrabili dal coefficente di correlazione e quindi, correggimi se sbaglio, neppure dalla covarianza.
Parlare di incorrelazione/scorrelazione equivale a "rilassare" l'ipotesi di indipendenza che è più forte. Da cui si deduce che indipendenza include scorrelazione ma chiaramente, in generale, non è vero il viceversa.
In particolare si possono trovare esempi di v.a. non indipendenti ma che hanno covarianza nulla, quindi, correggimi se sbaglio, rispettano la condizione $E[XY]=E[X]*E[Y]$ quindi non covariano.
Nel caso proposto la scorrelazione penso fosse sufficente.

Se mi sto perdendo qualche pezzo tra indipendenza incorrelazione indipendenza in media condizionata..... ti sarei grato se chiarissi una volta per tutte sottigliezze che per me sono amletiche e che nei corsi che ho seguito potrebbero non essere state adeguatamente approfondite.
"Sergio":
Quanto ai miei dubbi, posso esporli solo così: se dovunque si dice che $[EXY]=E[X]E[Y]$ solo se $X$ e $Y$ sono indipendenti (non semplicemente incorrelate) un motivo ci deve essere
Riepilogo in breve: [definizione] due variabili sono scorrelate se $cov(X,Y)=0$.
Essendo che in tutta la discussione sulla generalizzazione della formula del prodotto si fa uso solo di questo concetto, abbiamo che richiedere questo è più che sufficiente.
La diatriba che è sorta ruota intorno alla seguente domanda se non ho capito male: ma richiedere l'incorrelatezza e chiedere l'indipendenza non sarà la stessa cosa?...
Come fai vedere te Sergio, nel caso di v.a. indipendenti tu hai che $cov(X,Y)=0$ (ovvero essere indipendenti è una condizione sufficiente), ma essa non è necessaria.
Ti propongo un esempio carino a supporto di ciò (sul discreto, non c'è bisogno di andare al continuo

Sia $\alpha$ con $P(\alpha=i)=1/3$, con $i\in {0,\pi/2,\pi}$. Siano $X=\sin\alpha$ e $Y=\cos\alpha$.
Si verifica facilemente che $cov(X,Y)=0$, ma esse non sono indipendenti, infatti $P(X=1,Y=1)=0\ne P(X=1)P(Y=1)=1/9$.
In generale, se introduci concetti come la "matrice di covarianza", hai che essere diagonale non implica che i vettori aleatori che tratti sono indipendenti; questo è vero nel caso di vettori gaussiani per esempio...
Da leggere nelle righe dell'ultimo intervento di markowitz
"markowitz":
Non sbagli, quello che dici è sicuramente giusto nel senso che hai appena dimostrato che due variabili aleatorie indipendenti hanno covarianza nulla quindi $E[XY]=E[X]*E[Y]$ ma ti posso anche dire che se sono indipendenti puoi anche generalizzare e dire che $E[f(X)*g(Y)]=E[f(X)]*E[g(Y)]$ dove $f$ e $g$ sono due funzioni in qualsiasi modo definite.
(chiedendo che $f$ e $g$ siano misurabili e non definite in modo completamente selvaggio

qui puoi invertire, ovvero se $E[f(X)*g(Y)]=E[f(X)]*E[g(Y)]$ per ogni scelta di $f,g$ misurabili, allora $X,Y$ sono indipendenti.