Stimatore MLE
Sia X1 , .., Xn un campione casuale d’ampiezza n ≥ 1 in cui ciascuna variabile abbia legge:
$ f(x;γ,λ)=λe^(-λ(x-γ))1(γ,+∞)(x) $
Si trovino gli stimatori massima verosimiglianza per (λ,γ)
per lo stimatore MLE di λ non ho problemi, per quello di γ invece non so proprio come fare, non è che qualcuno potrebbe spiegarmelo?
$ f(x;γ,λ)=λe^(-λ(x-γ))1(γ,+∞)(x) $
Si trovino gli stimatori massima verosimiglianza per (λ,γ)
per lo stimatore MLE di λ non ho problemi, per quello di γ invece non so proprio come fare, non è che qualcuno potrebbe spiegarmelo?
Risposte
$hat(gamma)_(ML)=x_((1))$
$hat(lambda)_(ML)=n/(Sigma_i x_i-nx_((1)))$
$hat(lambda)_(ML)=n/(Sigma_i x_i-nx_((1)))$
come hai trovato $ gamma MLE $ ?
così l'ho scritto in modo accettabile? ahah
premesso che anche io ho dei grossi dubbi su questo tipo di esercizio ti provo a spiegare come lo ho risolto io:
\( f(\overrightarrow{x},\lambda,\gamma )= \lambda ^n * exp ({\lambda \gamma n-\lambda \sum {x} })\prod_{i = 1}^{n} I_{\gamma,\infty}(x_i) \)
analizzando il dominio della funzione indicatrice ( come tommik insegna
)
$-oo
$-oo
...
$-oo
si nota che si puo riscrivere come $I_(-oo,x_1)(gamma)$
da qui si puo utilizzare il teorema di fattorizzazione per capire che x_1 ossia il minimo è statistica sufficiente e anche solo graficamente si vede che x_1 è MLE (il massimo della nostra funzione trovata) per $gamma$
\( f(\overrightarrow{x},\lambda,\gamma )= \lambda ^n * exp ({\lambda \gamma n-\lambda \sum {x} })\prod_{i = 1}^{n} I_{\gamma,\infty}(x_i) \)
analizzando il dominio della funzione indicatrice ( come tommik insegna

$-oo
$-oo
da qui si puo utilizzare il teorema di fattorizzazione per capire che x_1 ossia il minimo è statistica sufficiente e anche solo graficamente si vede che x_1 è MLE (il massimo della nostra funzione trovata) per $gamma$
grazie
"reggi96":
e anche solo graficamente si vede che x_1 è MLE (il massimo della nostra funzione trovata) per $gamma$
giusto....con una precisazione. Il massimo di una funzione è il punto in ordinata di un'ascissa che appartiene al dominio. Qui $x_((1))$ non appartiene nemmeno al supporto. Infatti abbiamo $mathbb{1}_((-oo;x_((1))))(gamma)$
PS: dovresti scrivere meglio le formule, guarda come ho fatto io con i pedici (basta che fai "cita" sul mio messaggio)
In definitiva il risultato è giusto ma con la seguente correzione:
$x_((1))$ è l'ArgSup della funzione.
Infatti lo stimatore di massima verosimiglianza può anche non appartenere al dominio del parametro, basta che appartenga ad una sua chiusura euclidea
$hat(theta)_(ML) ="ArgSup_(theta in Theta) L(theta)$
NOTA BENE: diversi testi, anche molto diffusi, definiscono lo stimatore di massima verosimiglianza come "ArgMax" ma, ahimé, è un errore.
una volta trovato $ \hat gamma_(ML)=x_((1)) $ voglio trovare l'UMVUE a partire da $ \hatgamma_(ML) $ .
per fare ciò devo controllare il valore atteso di $ \hatgamma_(ML) $ e quindi mi serve la distribuzione di $ \hat gamma_(ML) $ che ho trovato imponendo
$ F_(X_((1)))(t)=P(X_((1))t)=1-(P(X_((i))>t))^n=1-(1-P(X_((i))
ora trovo $ f_(X_((1)))(t)=nlambda e^(nlambda (gamma -t) $
quindi il valore atteso di $ \hatgamma_(ML) $ è $ E(X_((1)))=int_(gamma )^(oo ) tnlambda e^(nlambda (gamma -t))dt=gamma +1/(nlambda ) $ solo che qualcosa non quadra perché io mi aspettavo di trovare un risultato del tipo $ gamma c $ dove 1/c è la costante che avrei moltiplicato a $ \hatgamma_(ML) $ per rendere $ \hatgamma_(ML) $ non distorto e quindi l'UMVUE. cosa ne pensate ?
per fare ciò devo controllare il valore atteso di $ \hatgamma_(ML) $ e quindi mi serve la distribuzione di $ \hat gamma_(ML) $ che ho trovato imponendo
$ F_(X_((1)))(t)=P(X_((1))
quindi il valore atteso di $ \hatgamma_(ML) $ è $ E(X_((1)))=int_(gamma )^(oo ) tnlambda e^(nlambda (gamma -t))dt=gamma +1/(nlambda ) $ solo che qualcosa non quadra perché io mi aspettavo di trovare un risultato del tipo $ gamma c $ dove 1/c è la costante che avrei moltiplicato a $ \hatgamma_(ML) $ per rendere $ \hatgamma_(ML) $ non distorto e quindi l'UMVUE. cosa ne pensate ?
non ho fatto i conti ma se li hai fatti bene (ed immagino con $lambda$ fissato) hai trovato che $mathbb{E}[x_((1))]=gamma +c$
...e mi pare un buon risultato. Purtroppo per statistica $T=x_((1))$ hai solo provato che è sufficiente....mentre per applicare Lehmann Scheffé deve essere anche completa. Dato che il modello non è regolare devi quindi provare che
$mathbb{E}_gamma[g(T)]=0 rarr mathbb{P}_gamma[g(T)=0]=1$ , $AA gamma$
...ho scritto una guida completa per la ricerca degli UMVUE...non l'hai guardata?
...e mi pare un buon risultato. Purtroppo per statistica $T=x_((1))$ hai solo provato che è sufficiente....mentre per applicare Lehmann Scheffé deve essere anche completa. Dato che il modello non è regolare devi quindi provare che
$mathbb{E}_gamma[g(T)]=0 rarr mathbb{P}_gamma[g(T)=0]=1$ , $AA gamma$
...ho scritto una guida completa per la ricerca degli UMVUE...non l'hai guardata?
ma siccome $ x_((1)) $ ha legge di un esponenziale traslata, non implica che è statistica sufficiente e completa?
Ho controllato per bene i calcoli che hai fatto e....sono tutti corretti, manca solo di provare la completezza. Dato che ho appena scritto una guida sulla ricerca di UMVUE, risolvo per bene l'esercizio e lo aggiungo nella guida, per futura utilità di altri studenti.
Ripetere i passaggi che hai già fatto correttamente ha il solo scopo di avere un post con tutta la soluzione senza dover costringere gli utenti ad andare su e giù per n post.
Tanto per iniziare, dovendo calcolare l'UMVUE di $gamma$, che chiamo $theta$ perché mi piace di più.....si intende per $lambda$ fissato e quindi, senza perdere di generalità e semplificando la notazione, pongo $lambda=1$
La densità della popolazione diventa dunque
$f_X(x)=e^(theta-x)mathbb{1}_((theta;+oo))(x)$
con funzione di ripartizione $F_X(x)=1-e^(theta-x)$
Cerchiamo lo stimatore sufficiente:
$L(theta)=e^(-Sigma_i x_i)*e^(ntheta)mathbb{1}_((-oo;x_((1))))(theta)$
da cui si vede che $T=x_((1))$ è stimatore sufficiente.....non necessariamente completo, dato che il dominio della variabile dipende da $theta$
$F_T(t)=1-(1-F)^n=1-e^(ntheta-nt)$
$f_T(t)=n e^(ntheta-nt)$
Iniziamo comunque a calcolarne il valore atteso
$mathbb{E}[T]=int_(theta)^(+oo)nte^(ntheta-nt)dt=...=theta+1/n$
Quindi $T_1=x_((1))-1/n$
E' stimatore non distorto e funzione di una statistica sufficiente.....se tale statistica fosse anche completa, $T_1$ sarebbe UMVUE
Vediamo quindi come provare la completezza di T
Supponiamo che esista una funzione $g$ tale per cui
$mathbb{E}_theta[g(T)]=0$ , $AAtheta$
ovvero supponiamo che
$int_(theta)^(+oo)g(t)n e^(ntheta-nt)dt=0 rarr int_(theta)^(+oo)g(t)e^(-nt)dt=0$
deriviamo entrambi i membri rispetto a $theta$ ottenendo
$-g(theta)e^(-ntheta)=0$
che evidentemente implica
...in altri termini...Sì, $T_1=x_((1))-1/n$ è UMVUE
Ripetere i passaggi che hai già fatto correttamente ha il solo scopo di avere un post con tutta la soluzione senza dover costringere gli utenti ad andare su e giù per n post.
Tanto per iniziare, dovendo calcolare l'UMVUE di $gamma$, che chiamo $theta$ perché mi piace di più.....si intende per $lambda$ fissato e quindi, senza perdere di generalità e semplificando la notazione, pongo $lambda=1$
La densità della popolazione diventa dunque
$f_X(x)=e^(theta-x)mathbb{1}_((theta;+oo))(x)$
con funzione di ripartizione $F_X(x)=1-e^(theta-x)$
Cerchiamo lo stimatore sufficiente:
$L(theta)=e^(-Sigma_i x_i)*e^(ntheta)mathbb{1}_((-oo;x_((1))))(theta)$
da cui si vede che $T=x_((1))$ è stimatore sufficiente.....non necessariamente completo, dato che il dominio della variabile dipende da $theta$
$F_T(t)=1-(1-F)^n=1-e^(ntheta-nt)$
$f_T(t)=n e^(ntheta-nt)$
Iniziamo comunque a calcolarne il valore atteso
$mathbb{E}[T]=int_(theta)^(+oo)nte^(ntheta-nt)dt=...=theta+1/n$
Quindi $T_1=x_((1))-1/n$
E' stimatore non distorto e funzione di una statistica sufficiente.....se tale statistica fosse anche completa, $T_1$ sarebbe UMVUE
Vediamo quindi come provare la completezza di T
Supponiamo che esista una funzione $g$ tale per cui
$mathbb{E}_theta[g(T)]=0$ , $AAtheta$
ovvero supponiamo che
$int_(theta)^(+oo)g(t)n e^(ntheta-nt)dt=0 rarr int_(theta)^(+oo)g(t)e^(-nt)dt=0$
deriviamo entrambi i membri rispetto a $theta$ ottenendo
$-g(theta)e^(-ntheta)=0$
che evidentemente implica
$mathbb{P}_theta[g(theta)=0]=1$, $AAtheta$
...in altri termini...Sì, $T_1=x_((1))-1/n$ è UMVUE