Stimatore media e varianza di una variabile chi quadro
Ragazzi aiuto, il mio problema è questo:
Sia X una variabile aleatoria esponenziale di parametro lambda:
determinare:
1) lo stimatore ml del parametro lambda partendo da N osservazioni di X
2) media e varianza dello stimatore
3)Il CRLB per stimatori polarizzati e non polarizzati e commentare il risultato.
RAGAZZI VI PREGO è IMPORTANTISSIMO AIUTATEMI
Sia X una variabile aleatoria esponenziale di parametro lambda:
determinare:
1) lo stimatore ml del parametro lambda partendo da N osservazioni di X
2) media e varianza dello stimatore
3)Il CRLB per stimatori polarizzati e non polarizzati e commentare il risultato.
RAGAZZI VI PREGO è IMPORTANTISSIMO AIUTATEMI

Risposte
nessuno ha le competenze per rispondermi?
Qualche competente dovrebbe esserci, ma dovresti perlomeno provare a rispondere alle domande, altrimenti non c'è niente su cui discutere.
Concordo con Luca, postare domande in questo modo è assolutamente improduttivo.
Comunque sia, da ciò che hai scritto, tu devi trovare lo stimatore di massima verosimiglianza di un campione di v.a. esponenziali.
Dato $(X_1,...,X_n)$ con le $X_i\sim \exp(\lambda)$ i.i.d, $\lambda >0$, devi prima scrivere la funzione di verosimiglianza cioè
$L(\lambda;x_1,...,x_n)=\prod_{i=1}^{n}\lambda e^{-\lambda x_i}=\lambda^n e^{-\lambda \sum_{i=1}^{n}x_i}$
Per semplicità si passa al logaritmo di tale funzione (perché?), calcolare il "massimo" rispetto a $\lambda$. Prova a fare il primo passo
poi magari provi a postare il risultato.
Comunque sia, da ciò che hai scritto, tu devi trovare lo stimatore di massima verosimiglianza di un campione di v.a. esponenziali.
Dato $(X_1,...,X_n)$ con le $X_i\sim \exp(\lambda)$ i.i.d, $\lambda >0$, devi prima scrivere la funzione di verosimiglianza cioè
$L(\lambda;x_1,...,x_n)=\prod_{i=1}^{n}\lambda e^{-\lambda x_i}=\lambda^n e^{-\lambda \sum_{i=1}^{n}x_i}$
Per semplicità si passa al logaritmo di tale funzione (perché?), calcolare il "massimo" rispetto a $\lambda$. Prova a fare il primo passo
poi magari provi a postare il risultato.
Ciao ragazzi si avete ragione ma sono nuovo come avete visto e non so ancora come muovermi. Cmq la stima a ML di lambd, dopo aver fatto il log è: $ (n / lambda) =sum x_i => lambda= (n/ (sum x_i)) $
a questo punto dovrei trovare la media e la varianza ma la sommatoria si trova giu al denominatore quindi dovrei pensare la sommatoria come una variabile chi quadro . ma non so pero trovare ne media ne varianza .. come si fa
a questo punto dovrei trovare la media e la varianza ma la sommatoria si trova giu al denominatore quindi dovrei pensare la sommatoria come una variabile chi quadro . ma non so pero trovare ne media ne varianza .. come si fa
aiutoooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooo
"unisol":
2) media e varianza dello stimatore
Se lo stimatore di massima verosimiglianza è [tex]\widehat\lambda = n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {x_i } } \right)^{ - 1}[/tex] calcolare la speranza e la varianza non devi fare altro che
1) [tex]E\left( {\widehat\lambda } \right) = E\left[ {n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {x_i } } \right)^{ - 1} } \right] = \ldots[/tex]
2) [tex]Var\left( {\widehat\lambda } \right) = Var\left[ {n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {x_i } } \right)^{ - 1} } \right] = \ldots[/tex]
e la cosa non è così difficile: basta ricordarsi le proprietà della media e della varianza, nonché la media e la varianza di una v.a. esponenziale

ciao Aliseo grazie per l'aiuto , ma il prof mi disse che si tratta di una variabile chi quadro e io la sua media e la sua varianza non la so proprio calcolare. so che centra l'integrale:)
Variabile Chi quadro? e dove la trova? uhm ...
in pratica dice che la sommatoria al denominatore è uguale a Y ed è una variabile chi quadro come somma di quadrati di gaussiane standard. ora per determinare la media lui fa un integrale della N/Y con la pdf di Y
Allora vediamo un po' ... una v.a. ha distribuzione esponenziale se la sua funzione di densità è
[tex]f_e \left( x \right) = \lambda e^{ - \lambda x} I_{\left[ {0, + \infty } \right[} \left( x \right) \;\;\;\;\; \lambda >0[/tex]
Mentre, una v.a. ha distribuzione gamma se la sua funzione di densità è
[tex]f_g \left( x \right) = \displaystyle\frac{\lambda }{{\Gamma \left( r \right)}}\left( {\lambda x} \right)^{r - 1} e^{ - \lambda x} I_{\left[ {0, + \infty } \right[} \left( x \right)[/tex] con [tex]r>0, \lambda > 0[/tex]
Infine, una v.a. ha distribuzione chi-quadro se la sua funzione di densità è
[tex]f_{cq} \left( x \right) = \displaystyle\frac{1}{{\Gamma \left( {\displaystyle\frac{n}{2}} \right)}}\left( {\displaystyle\frac{1}{2}} \right)^{n/2} x^{n/2 - 1} e^{ - 1/2x} I_{\left[ {0, + \infty } \right[} \left( x \right)[/tex]
Nel caso in cui $r=1$, la densità gamma diventa una esponenziale. Ora da quel che mi ricordo, la somma di $n$ v.a. esponenziali indipendenti ha distribuzione gamma di parametri $n$ e $\lambda$. La densità chi-quadro è, poi, un caso particolare della densità gamma solo nel caso in cui $r=n/2$ e $\lambda=1/2$.
[tex]f_e \left( x \right) = \lambda e^{ - \lambda x} I_{\left[ {0, + \infty } \right[} \left( x \right) \;\;\;\;\; \lambda >0[/tex]
Mentre, una v.a. ha distribuzione gamma se la sua funzione di densità è
[tex]f_g \left( x \right) = \displaystyle\frac{\lambda }{{\Gamma \left( r \right)}}\left( {\lambda x} \right)^{r - 1} e^{ - \lambda x} I_{\left[ {0, + \infty } \right[} \left( x \right)[/tex] con [tex]r>0, \lambda > 0[/tex]
Infine, una v.a. ha distribuzione chi-quadro se la sua funzione di densità è
[tex]f_{cq} \left( x \right) = \displaystyle\frac{1}{{\Gamma \left( {\displaystyle\frac{n}{2}} \right)}}\left( {\displaystyle\frac{1}{2}} \right)^{n/2} x^{n/2 - 1} e^{ - 1/2x} I_{\left[ {0, + \infty } \right[} \left( x \right)[/tex]
Nel caso in cui $r=1$, la densità gamma diventa una esponenziale. Ora da quel che mi ricordo, la somma di $n$ v.a. esponenziali indipendenti ha distribuzione gamma di parametri $n$ e $\lambda$. La densità chi-quadro è, poi, un caso particolare della densità gamma solo nel caso in cui $r=n/2$ e $\lambda=1/2$.
Ma (forse mi sto perdendo) dato che [tex]X_i \sim Exp\left(\lambda\right)[/tex] [tex]i.i.d.[/tex], avrai che
[tex]\displaystyle\sum\limits_{i = 1}^n {x_i } \sim Gamma\left( {n,\lambda } \right)[/tex]
In tal caso, bisogna ricordarsi la media e la varianza di una distribuzione Gamma ...
[tex]\displaystyle\sum\limits_{i = 1}^n {x_i } \sim Gamma\left( {n,\lambda } \right)[/tex]
In tal caso, bisogna ricordarsi la media e la varianza di una distribuzione Gamma ...
Devi risolvere l'integrale come lo svolge il tuo prof.
$X_i \quad sim \quad Esp(lambda)$ $i.i.d.$ allora $Y=sum_(i=1)^n X_i \quad sim \quad Gam(n,lambda)$
$E[(n/Y)^k]=n^k int_0^(infty) 1/y^k f_(gam)(y) dy$.
Ora devi risovere l'integrale per (k=1,2) e ti trovi media e varianza
$X_i \quad sim \quad Esp(lambda)$ $i.i.d.$ allora $Y=sum_(i=1)^n X_i \quad sim \quad Gam(n,lambda)$
$E[(n/Y)^k]=n^k int_0^(infty) 1/y^k f_(gam)(y) dy$.
Ora devi risovere l'integrale per (k=1,2) e ti trovi media e varianza
Però non capisco perché complicarsi la vita, cioè se [tex]X_i \sim Exp\left( \lambda \right)[/tex] e [tex]i.i.d.[/tex] allora
[tex]E\left( {\widehat\lambda } \right) = E\left[ {n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {x_i } } \right)^{ - 1} } \right] = n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {E\left( {x_i } \right)} } \right)^{ - 1} = \displaystyle\frac{n}{{n/\lambda }} = \lambda[/tex]
Per quello che ho detto prima, poi, cioè che la somma di $n$ v.a. indipendenti e identicamente distribuite come una $Exp(\lambda)$ si distribuisce come una Gamma di parametri $n$ e $\lambda$. Quindi, posto
[tex]Y = \displaystyle\sum\limits_{i = 1}^n {x_i } \sim Gamma\left( {n,\lambda } \right)[/tex] si ha che [tex]E\left( Y \right) = \displaystyle\frac{n}{\lambda }[/tex] e cioè
[tex]E\left( {\widehat\lambda } \right) = E\left[ {n \cdot \left( Y \right)^{ - 1} } \right] = \displaystyle\frac{n}{{E\left( Y \right)}} = \displaystyle\frac{n}{{n/\lambda }} = \lambda[/tex]
[tex]E\left( {\widehat\lambda } \right) = E\left[ {n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {x_i } } \right)^{ - 1} } \right] = n \cdot \left( {\displaystyle\sum\limits_{i = 1}^n {E\left( {x_i } \right)} } \right)^{ - 1} = \displaystyle\frac{n}{{n/\lambda }} = \lambda[/tex]
Per quello che ho detto prima, poi, cioè che la somma di $n$ v.a. indipendenti e identicamente distribuite come una $Exp(\lambda)$ si distribuisce come una Gamma di parametri $n$ e $\lambda$. Quindi, posto
[tex]Y = \displaystyle\sum\limits_{i = 1}^n {x_i } \sim Gamma\left( {n,\lambda } \right)[/tex] si ha che [tex]E\left( Y \right) = \displaystyle\frac{n}{\lambda }[/tex] e cioè
[tex]E\left( {\widehat\lambda } \right) = E\left[ {n \cdot \left( Y \right)^{ - 1} } \right] = \displaystyle\frac{n}{{E\left( Y \right)}} = \displaystyle\frac{n}{{n/\lambda }} = \lambda[/tex]
Giustamente complicarsi la vita non è sbagliato;
ma te hai semplificato un po' troppo.
C'è un errore;
a te ora trovarlo.
ma te hai semplificato un po' troppo.
C'è un errore;
a te ora trovarlo.
Sinceramente non trovo l'errore (e mi scuso se l'ho commesso), ma non vedo dove stia! Se me lo fai notare sarò felice di aver imparato qualcos'altro!

Se me lo fai notare sarò felice di aver imparato qualcos'altro!
E non sarai più felice se lo trovi te?
Prova a scrivere per esteso la sommatoria,
c'è un ragionamento sulla linearità della funzione che abbiamo (e del valore atteso).
Allora, opero con la funzione generatrice dei momenti. Sia [tex]X_i \sim Exp\left( \lambda \right)[/tex], si ha che
[tex]M_{X_i } \left( t \right) = \displaystyle\frac{\lambda }{{\lambda - t}}[/tex]. Se considero $n$ v.a. esponenziali indipendenti e identicamente distribuite avrò che
[tex]M_{\sum {X_i } } \left( t \right) = \displaystyle\prod\limits_{i = 1}^n {M_{X_i } \left( t \right)} = \left( {\displaystyle\frac{\lambda }{{\lambda - t}}} \right)^n[/tex], la cui derivata prima è data
[tex]M_{\sum {X_i } }^{'} \left( t \right) = \displaystyle\frac{{n\left( {\displaystyle\frac{\lambda }{{\lambda - t}}} \right)^n }}{{\lambda - t}}[/tex], da cui la speranza matematica di [tex]Y ={\sum {X_i } }[/tex] è dato da
[tex]M_Y^{'} \left( 0 \right) = \displaystyle\frac{n}{\lambda }[/tex]. Quindi
[tex]E\left( {\widehat\lambda } \right) = E\left( {\displaystyle\frac{n}{Y}} \right) = \displaystyle\frac{{E\left( n \right)}}{{E\left( Y \right)}} = \frac{n}{{\displaystyle\frac{n}{\lambda }}} = \lambda[/tex]
Se ho sbagliato qualche passaggio (errare è umano
) fammelo notare così mi correggo e non farò più errori
[tex]M_{X_i } \left( t \right) = \displaystyle\frac{\lambda }{{\lambda - t}}[/tex]. Se considero $n$ v.a. esponenziali indipendenti e identicamente distribuite avrò che
[tex]M_{\sum {X_i } } \left( t \right) = \displaystyle\prod\limits_{i = 1}^n {M_{X_i } \left( t \right)} = \left( {\displaystyle\frac{\lambda }{{\lambda - t}}} \right)^n[/tex], la cui derivata prima è data
[tex]M_{\sum {X_i } }^{'} \left( t \right) = \displaystyle\frac{{n\left( {\displaystyle\frac{\lambda }{{\lambda - t}}} \right)^n }}{{\lambda - t}}[/tex], da cui la speranza matematica di [tex]Y ={\sum {X_i } }[/tex] è dato da
[tex]M_Y^{'} \left( 0 \right) = \displaystyle\frac{n}{\lambda }[/tex]. Quindi
[tex]E\left( {\widehat\lambda } \right) = E\left( {\displaystyle\frac{n}{Y}} \right) = \displaystyle\frac{{E\left( n \right)}}{{E\left( Y \right)}} = \frac{n}{{\displaystyle\frac{n}{\lambda }}} = \lambda[/tex]
Se ho sbagliato qualche passaggio (errare è umano

$E[n/Y]=(E[n])/(E[Y])$
è qua che sbagli;
tralasciando $n$; $E[1/Y]$ in generale è diverso da $1/(E[Y])$;
come ti dicevo la media è un operatore lineare;
ora se tu hai una funzione lineare la media di f è uguale a f della media;
ma $1/Y$ non è lineare
Grazie ragazzi, si mi ritrovo con la formula di DajeForte. ora vi scivo la mia soluzione secondo le direttive del prof e mi dite se va bene
$ T=N/(sum (x_i) )$ con $(sum (x_i) )=Y $
a questo punto io vedo Y come una funzione gamma con parametri n, lambda
$ E[T]=int_(0)^(oo ) T(y)f_y(y) dy=int_(0)^(oo ) n/(y)lambda^n/(GAMMA(n))e^-(lambday)y^(n-1) dy= n/(n-1)lambda $
Bene direi che sono riuscito a capire il tutto. invece no!!!!!!!!!! e qui vi chiedo aiuto
il prof dice che la $ sum x_i $ devo vederla come una variabile chi quadro... ma perchè? lui dice che è come se ogni $ x_i $ fosse una gaussiana al quadrato e quindi la procedura diventa questa:
$ T=N/(sum (x_i) ) $ con $(sum (x_i) )=Y $
$ f_T(T)=(f_Y(Y) )/|(dY)/(dT)| $
tutto calcolato in Y=n/T
e considerando quindi la $f_Y(Y)$=alla pdf della chi quadro, che è la generalizzazione della funzione gamma con parametri n/2 e 1/2
$ T=N/(sum (x_i) )$ con $(sum (x_i) )=Y $
a questo punto io vedo Y come una funzione gamma con parametri n, lambda
$ E[T]=int_(0)^(oo ) T(y)f_y(y) dy=int_(0)^(oo ) n/(y)lambda^n/(GAMMA(n))e^-(lambday)y^(n-1) dy= n/(n-1)lambda $
Bene direi che sono riuscito a capire il tutto. invece no!!!!!!!!!! e qui vi chiedo aiuto
il prof dice che la $ sum x_i $ devo vederla come una variabile chi quadro... ma perchè? lui dice che è come se ogni $ x_i $ fosse una gaussiana al quadrato e quindi la procedura diventa questa:
$ T=N/(sum (x_i) ) $ con $(sum (x_i) )=Y $
$ f_T(T)=(f_Y(Y) )/|(dY)/(dT)| $
tutto calcolato in Y=n/T
e considerando quindi la $f_Y(Y)$=alla pdf della chi quadro, che è la generalizzazione della funzione gamma con parametri n/2 e 1/2
naturalmente quello che non sono riuscito a capire è: perchè devo considerarla una chi quadro se come v.a ho una esponenziale? e perchè a questo punto devo utilizzare la formula con la derivata per trovare la pdf della Y?