Media, varianza e densità condizionata

bellrodo
Ciao, spero che qualcuno possa darmi un input per poter impostare correttamente un esercizio che mi sta mettendo in difficoltà.

Sia $X~exp(3/2)$ e sia $Y|X~\Gamma(x^2,x)$.

$a) $ Calcolare $E(Y)$ e $Var(Y)$.
$b) $ Calcolare la funzione di densità congiunta di $X$ e $Y$.

Allora, per quanto riguarda il punto $a$, le formule per la media e la varianza condizionata le ho studiate ma non riesco a capire come applicarle in questo contesto.
In particolare, mi stanno mettendo in difficoltà i parametri della $\Gamma$.

Mentre, per il punto $b$ so che:

$f_X = 3/2e^{-3/2x}$;

$f_{Y|X}=(f_{X,Y})/(f_{X}) => f_{X,Y}=f_{Y|X}f_X$.

Ma non capisco come ricavare $f_{Y|X}$, sempre per lo stesso problema (parametri della $\Gamma$).

Risposte
Lo_zio_Tom
$E[Y[=E[E(Y|X)]$

La media di $Y|X$ la conosci. Poi medi ancora rispetto a x ed hai finito. Per la varianza discorso analogo. Per la distribuzione congiunta non penso tu abbia problemi . Basta moltiplicare le due densità note.

$f(y|x)$ è una $Gamma (a,b)$ solo che al posto di a ci scrivi $x^2$ e al posto di b $x$.

Ciao

bellrodo
Ciao tommik, grazie :D

"tommik":
$E[Y[=E[E(Y|X)]$

La media di $Y|X$ la conosci.


è quì che trovo difficoltà, come faccio ad ottenere $E(Y|X) $ ?
Basta che calcolo la media come se fosse una generica $\Gamma $ ?

Ovvero, $E(Y|X)=x^2/x=x$

Lo_zio_Tom
Esattamente! In questo momento x è solo un parametro. Ovviamente a seconda della parametrizzazione della gamma potrebbe essere $x^2/x$ oppure $x^2*x$. Questo lo devi sapere tu[nota]il libro di solito specifica quale sia la densità a cui si fa riferimento; altrimenti basta che lo specifichi tu.[/nota] . Dopodiché fai la media rispetto a x e stop. Banalissimo :)

Per la varianza stessa manfrina... calcoli il momento secondo condizionato ecc ecc

Prova anche a calcolare $E[XY]$

bellrodo
Allora:

$E(Y)=E[E(Y|X)]$

$E(Y|X)=x^2/x=x => E(Y)=E(x)$.
Ma ora come faccio a calcolare questa media?

Poi:

$Var(Y)=E[Var(X|Y)]+Var[E(Y|X)]= E(1)+Var(x)$.
Stesso dubbio, come faccio a calcolare $Var(x)$?

Non capisco come devo trattare quella $x$ :? :?

Lo_zio_Tom
Media è varianza di x sono quelli dell"esponenziale... come fai a non saperlo fare
$E(X)=int_0^(oo)3/2xe^(-3/2 x)dx=2/3$

Per la varianza calcoli il momento secondo condizionato $E(Y^2|X)=1+x$

Quindi $V(Y)=E(1+x)-E^2(X)=1+2/3-4/9=11/9$

Ora però ho fatto tutto io... tu puoi fare $E(XY)$

Azz no ho sbagliato i conti ( sto facendo i conti a mente)

$E(Y^2|X)=1+x^2$

Quindi

$V(Y)=E(1+X^2)-E^2(X)=1+E(X^2)-4/9$

$E(X^2)=V(X)+E^2(X)$

Oppure $E(X^2)=int_0^(oo)3/2 x^2 e^(-3/2 x)dx=4/9 Gamma(3)=8/9$

Come preferisci

Quindi in definitiva viene

$V(Y)=1+8/9 -4/9=13/9$

Sorry...

Anche facendo come volevi fare tu va bene

$V(Y)=V[E(Y|X)]+E[V(Y|X)]=V(X)+E(1)=4/9+1=13/9$

:)

bellrodo
Ok perfetto, tutto chiaro, grazie :D
Non avevo capito che $E(x)$ fosse $E(X)$ #-o

Per il secondo punto, procedo così:

$f_{X,Y}=f_{Y|X}*f_X=$

$3/2 * (x^{x^2} (y|x)^{x^2 -1}e^{-x (y|x)-3/2x})/(\Gamma(x^2))$

Giusto? :?

Lo_zio_Tom
Boh basta moltiplicare le due densità...senza carta e penna non riesco a controllarlo.

A prima vista mi pare corretto, però non devi scrivere $(y|x)$ ma solo $y$. Nella densità condizionata x è un parametro. Intanto ti mostro il quesito che ti ho proposto io.... più interessante, secondo me

$E(XY)=E[E(XY|X)]=E[xE(Y|X)]=E(X^2)=8/9$

markowitz
Bell'esercizio anche se incasinato con i termini.
Infatti forse mi sto confondendo ma la $V[Y]$ che suggerisci non mi convince al 100%.

Ovvero:
"tommik":


$E(Y^2|X)=1+x^2$

Quindi

$V(Y)=E(1+X^2)-E^2(X)=1+E(X^2)-4/9$


come fai a dire che $E(Y^2)=E(1+X^2)$ ?


"tommik":

Anche facendo come volevi fare tu va bene

$V(Y)=V[E(Y|X)]+E[V(Y|X)]=V(X)+E(1)=4/9+1=13/9$

come fai a dire che $V[E(Y|X)]=V(X)$ ?

a me verrebbe da dire
$V(Y)=V[E(Y|X)]+E[V(Y|X)]=V(x)+E(1)=0+1=1$
questo perché $E(Y|X)$ diventa una costante e non più una v.a.
e facendo altri due calcoli trovo $E(Y^2)=1+x^2=E(Y^2|X)$
quindi:
$V(Y)=E(Y^2)-E^2(X)=1+x^2-x^2=1$
sbaglio :?:

N.B: $E(1+X^2)$ è cosa diversa da $1+x^2$

Lo_zio_Tom
No è la stessa cosa. $E(Y|X=x)$ viene ovviamente $a/b=x$. Qui hai ragione a dire che è una costante ma solo per la probabilità condizionata; poi occorre mediare tale risultato rispetto a X, ovvero rispetto a tutti i valori di $x in RR^+$. Ergo viene $E(X)=2/3$

Non so se mi sono spiegato

Allo stesso modo $E[Y^2|X=x]=V(Y|X=x)+E^2(Y|X=x)=1+x^2$

Poi medi rispetto alla variabile X ed ottieni il risultato

Guardate anche questi:

viewtopic.php?f=34&t=167487&p=8241664#p8241614

viewtopic.php?f=34&t=169203&p=8250179#p8250179

Ditemi se è chiaro o se ho scritto fesserie

:)

markowitz
Ok, ora ti seguo.
Diciamo che
$E(Y|X=x)=x$
mentre
$E(Y|X)=2/3$ che inoltre è uguale a $E(X)$

peraltro il fatto che
$V(Y|X=x)=1=V(Y|X)$ aiuta a confondere :?

ma allora cosa c'è di errato in questa scrittura?
$ V(Y)=V[E(Y|X)]+E[V(Y|X)]=V(2/3)+E(1)=0+1=1 $

Lo_zio_Tom
Di sbagliato c'è che $V(E(Y|X=x))=V(x) rarr V(X)$ dato che occorre calcolare $V(x)$ quando x varia nel suo dominio.

In altri termini è la varianza della regressione di Y su X. La funzione di regressione è $E[Y|X=x]=x$ e la sua varianza è $4/9$

Anche questo che hai scritto è sbagliato

$E[Y|X]=2/3$

Invece è $E[E(Y|X)]=2/3$

Non è la stessa cosa

markowitz
In sta trappola ci son già cascato, ... aiutami a capire ripartendo dalle basi

che differenza c'è, se c'è, tra

$E(Y|X=x)$
e
$E(Y|X)$
?
Io penso che siano la stessa cosa e che siano interpretabili come $y=f(x)$

mentre
$E(Y)$ per me è un numero, o se vogliamo è una funzione dei parametri che però sono ipotizzati noti e quindi ... è un numero.

quindi una scrittura del tipo
$E(Y|X)=E[Y]=E[X]$
non ha senso, o meglio è la prima uguaglianza a non averne
Giusto ?

Lo_zio_Tom
ammetto che ci sia un po' di ambiguità in talune scritture, ambiguità che trovi anche nei testi. In generale, senza ulteriori spiegazioni e precisazioni le due simbologie

$E(Y|X)$ e $E(Y|X=x)$ sono la stessa cosa, e la prima è solo una scrittura "alleggerita" della più corretta seconda.

Occorre anche interpretare l'esercizio. Nel caso in esame la notazione è chiara perché ti danno una densità che è condizionata ad un parametro e poi la distribuzione di tale parametro. Se invece di $X$ avessero indicato $theta$ non ti saresti nemmeno posto il problema.

Per supportare la correttezza del mio procedimento ti faccio un esempio simile ma più semplice che può essere facilmente risolto anche per via analitica, senza utilizzare le proprietà del valore atteso condizionato (che però mi piacciono un sacco!)


Abbiamo la seguente distribuzione condizionata

$f(x|theta)=thetae^(-thetax)$

che, più correttamente, andrebbe scritta così: $f_(X|Theta)(x|Theta=theta)$ (ma che per semplicità di notazione la teniamo scritta come sopra)

abbiamo anche la distribuzione del parametro: Uniforme in $(1;2)$

In pratica f è una esponenziale negativa con il parametro che può assumere qualutnque valore fra uno e due, uniformemente.

Calcolare la media di $X$

Con il metodo analitico (definizione di valore atteso) non si può sbagliare e non vi sono fraintendimenti:


$E(X)=int_(-oo)^(+oo)int_(-oo)^(+oo)xf(x,theta)dxd theta=int_(1)^(2)d theta int_(0)^(oo)xthetae^(-thetax)dx=...=log2$

ora vediamo la soluzione che ho proposto io

$E(X)=E[E(X|Theta)]=E[1/theta]=int_(1)^(2)1/theta d theta=log2$

:)


in questo caso era inutile il secondo metodo (anche se più elegante) ma in altri casi, calcolare il valore atteso in maniera analitica può essere arduo e a volte anche impossibile.

Spero di aver chiarito la questione

markowitz
Grazie della spiegazione!
Penso di aver capito.

Lasciami solo aggiungere che nell'esercizio in esame i problemi di nomenclatura e notazione che possono portare a confusione, si esaltano in questo passaggio:

"markowitz":

ma allora cosa c'è di errato in questa scrittura?
$ V(Y)=V[E(Y|X)]+E[V(Y|X)]=V(2/3)+E(1)=0+1=1 $


Il primo termine dopo la seconda uguaglianza è errato. Non si ha a che fare con la varianza di un numero, cioè $0$, ma con la varianza di una funzione di regressione come hai giustamente fatto notare ... che peraltro ha speranza (non condizionale) in comune con quella del regressore. E' li che mi son confuso. Come se non bastasse il fatto è anche che il secondo termine invece è giusto perchè si ha proprio a che fare col valore atteso di un numero, ovvero se stesso, ma questo è vero solo con la particolare parametrizzazione scelta dall'autore perché in generale dovremmo avere anche li il valore atteso di una funzione. Ovvero il fatto che la varianza condizionale sia costante è un caso particolare.
Se la parametrizzazione fosse stata $Gamma(x,x)$ la situazione si sarebbe capovolta mentre se fosse stata ad esempio $Gamma(x^3,x)$ avremmo avuto media e varianza condizionate non costanti ... e speranza non comune tra variabile dipendente ed indipendente, una situazione più chiara ed istruttiva a mio parere.

Lo_zio_Tom
Se qualcuno ha voglia di approfondire l'argomento, problema molto più interessante ma che si può risolvere sempre utilizzando il teorema del valore atteso condizionato è il seguente:

Si considerino $X_1,..,X_n$ variabili aleatorie i.i.d. con media $mu$ e varianza $sigma^2$ ed una variabile aleatoria $N$ discreta, indipendente dalle precedenti, a valori $in {1,2,...,n}$.

Calcolare media e varianza della variabile aleatoria somma

$S=sum_(i=1)^(N)X_i$

dove appunto $N$ non è un numero fissato ma è aleatorio.

markowitz
Rappresenta un caso classico delle assicurazioni ramo danni. Somma aleatoria di addendi aleatori.
Allora vale quanto segue:

$E=E[E[X|N=n]]= E[NE[X]]=E[N]E[X]=(n+1)/2 * mu$

ovvero ci comportiamo come la logica spicciola suggerirebbe, ovvero prendiamo la media di $N$ è la consideriamo come se fosse un dato noto. :-)
Con la varianza, con $n$ noto ed uguale alla media, verrebbe $V= sigma^2*(n+1)/2$ ... ma qui l'argomento sopra non funziona, la varianza risulta inflazionata dall'aleatorietà di $n$ ... ma per la soluzione passo la palla al prossimo :)

Lo_zio_Tom
ma non ho detto che $E(N)=(n+1)/2$

questo nel caso la variabile fosse uniforme....qui è generale, quindi rimane

$E=E(N)mu$

Per calcolare la varianza di S calcoliamo prima il momento secondo


$E[S^2]=E[E(S^2|N=n)]$

prendiamo il momento secondo condizionato:

$E(S^2|N=n)=E[sum_(i=1)^N sum_(j=1)^N X_iX_j|N=n]=sum_(i=1)^n sum_(j=1)^nE[X_iX_j]=$

$=n(sigma^2+mu^2)+(n^2-n)mumu=nsigma^2+n^2mu^2$

Ora mediamo rispetto a N (n ora varia nel suo dominio) ottenendo

$E[S^2]=E[N]sigma^2+E[N^2]mu^2$

e quindi (EDIT: grazie markowitz, sì, intendevo $V$)

$V=E[N]sigma^2+E[N^2]mu^2-E^2(N)mu^2=E[N]sigma^2+V[N]mu^2$

la cosa (a mio parere) interessante è che ponendo N deterministico, ovvero

$N-={{: ( n ),( 1 ) :}$

otteniamo proprio

$V[sum_(i=1)^n X_i]=nsigma^2$

come ci saremmo aspettati da n variabili iid di varianza $sigma^2$

markowitz
"tommik":
ma non ho detto che $E(N)=(n+1)/2$

questo nel caso la variabile fosse uniforme....qui è generale, quindi rimane

$E=E(N)mu$


azz davo per scontata la distribuzione uniforme. Allora si, deve restare così (e se proprio vogliamo possiamo solo dire $E(N) >=1$

"tommik":

e quindi

$V[S^2]=E[N]sigma^2+E[N^2]mu^2-E^2(N)mu^2=E[N]sigma^2+V[N]mu^2$

Bella dimostrazione! Ma qui intendevi $V$ vero ?

"tommik":

la cosa (a mio parere) interessante è che ponendo N deterministico, ovvero

$N-={{: ( n ),( 1 ) :}$

otteniamo proprio

$V[sum_(i=1)^n X_i]=nsigma^2$

come ci saremmo aspettati da n variabili iid di varianza $sigma^2$

Questo mi sembra ovvio, se $n$ è noto perché avremmo dovuto aspettarci qualcosa di diverso ? O mi perdo qualcosa ?

Piuttosto direi che è interessante soffermarsi sul termine
$V[N]mu^2$
che rappresenta proprio l'inflazionamento di cui parlavo :-)

e che nel caso di uniforme discreta divernta:
$(n^2 - 1) /12 *mu^2$
ovvero $V = sigma^2*(n+1)/2 +mu^2 * (n^2 - 1) /12 $

Lo_zio_Tom
Ovviamente intendevo $V$ e non $V[S^2]$. Grazie ho corretto.

Interessante semplicemente per me perché così mi tornano i conti sulla varianza di $S$....

(sono tutte idee buttate giù ragionando su esercizi proposti qui dagli utenti. E' per quello che mi piace condividerle)

"markowitz":
(e se proprio vogliamo possiamo solo dire $E(N) >=1$


beh no....possiamo anche dire che

$1<=E[N]<=n$

markowitz
Si certo hai ragione.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.