Stimatore MLE

FabioA_97
Sia X1 , .., Xn un campione casuale d’ampiezza n ≥ 1 in cui ciascuna variabile abbia legge:

$ f(x;γ,λ)=λe^(-λ(x-γ))1(γ,+∞)(x) $

Si trovino gli stimatori massima verosimiglianza per (λ,γ)


per lo stimatore MLE di λ non ho problemi, per quello di γ invece non so proprio come fare, non è che qualcuno potrebbe spiegarmelo?

Risposte
Lo_zio_Tom
$hat(gamma)_(ML)=x_((1))$

$hat(lambda)_(ML)=n/(Sigma_i x_i-nx_((1)))$

FabioA_97
come hai trovato $ gamma MLE $ ?

FabioA_97
così l'ho scritto in modo accettabile? ahah

reggi96
premesso che anche io ho dei grossi dubbi su questo tipo di esercizio ti provo a spiegare come lo ho risolto io:
\( f(\overrightarrow{x},\lambda,\gamma )= \lambda ^n * exp ({\lambda \gamma n-\lambda \sum {x} })\prod_{i = 1}^{n} I_{\gamma,\infty}(x_i) \)
analizzando il dominio della funzione indicatrice ( come tommik insegna ;) )
$-oo $-oo ...
$-oo si nota che si puo riscrivere come $I_(-oo,x_1)(gamma)$
da qui si puo utilizzare il teorema di fattorizzazione per capire che x_1 ossia il minimo è statistica sufficiente e anche solo graficamente si vede che x_1 è MLE (il massimo della nostra funzione trovata) per $gamma$

FabioA_97
grazie

Lo_zio_Tom
"reggi96":
e anche solo graficamente si vede che x_1 è MLE (il massimo della nostra funzione trovata) per $gamma$


giusto....con una precisazione. Il massimo di una funzione è il punto in ordinata di un'ascissa che appartiene al dominio. Qui $x_((1))$ non appartiene nemmeno al supporto. Infatti abbiamo $mathbb{1}_((-oo;x_((1))))(gamma)$

PS: dovresti scrivere meglio le formule, guarda come ho fatto io con i pedici (basta che fai "cita" sul mio messaggio)

In definitiva il risultato è giusto ma con la seguente correzione:

$x_((1))$ è l'ArgSup della funzione.

Infatti lo stimatore di massima verosimiglianza può anche non appartenere al dominio del parametro, basta che appartenga ad una sua chiusura euclidea

$hat(theta)_(ML) ="ArgSup_(theta in Theta) L(theta)$

NOTA BENE: diversi testi, anche molto diffusi, definiscono lo stimatore di massima verosimiglianza come "ArgMax" ma, ahimé, è un errore.

FabioA_97
una volta trovato $ \hat gamma_(ML)=x_((1)) $ voglio trovare l'UMVUE a partire da $ \hatgamma_(ML) $ .
per fare ciò devo controllare il valore atteso di $ \hatgamma_(ML) $ e quindi mi serve la distribuzione di $ \hat gamma_(ML) $ che ho trovato imponendo
$ F_(X_((1)))(t)=P(X_((1))t)=1-(P(X_((i))>t))^n=1-(1-P(X_((i)) ora trovo $ f_(X_((1)))(t)=nlambda e^(nlambda (gamma -t) $
quindi il valore atteso di $ \hatgamma_(ML) $ è $ E(X_((1)))=int_(gamma )^(oo ) tnlambda e^(nlambda (gamma -t))dt=gamma +1/(nlambda ) $ solo che qualcosa non quadra perché io mi aspettavo di trovare un risultato del tipo $ gamma c $ dove 1/c è la costante che avrei moltiplicato a $ \hatgamma_(ML) $ per rendere $ \hatgamma_(ML) $ non distorto e quindi l'UMVUE. cosa ne pensate ?

Lo_zio_Tom
non ho fatto i conti ma se li hai fatti bene (ed immagino con $lambda$ fissato) hai trovato che $mathbb{E}[x_((1))]=gamma +c$

...e mi pare un buon risultato. Purtroppo per statistica $T=x_((1))$ hai solo provato che è sufficiente....mentre per applicare Lehmann Scheffé deve essere anche completa. Dato che il modello non è regolare devi quindi provare che

$mathbb{E}_gamma[g(T)]=0 rarr mathbb{P}_gamma[g(T)=0]=1$ , $AA gamma$

...ho scritto una guida completa per la ricerca degli UMVUE...non l'hai guardata?

FabioA_97
ma siccome $ x_((1)) $ ha legge di un esponenziale traslata, non implica che è statistica sufficiente e completa?

Lo_zio_Tom
Ho controllato per bene i calcoli che hai fatto e....sono tutti corretti, manca solo di provare la completezza. Dato che ho appena scritto una guida sulla ricerca di UMVUE, risolvo per bene l'esercizio e lo aggiungo nella guida, per futura utilità di altri studenti.

Ripetere i passaggi che hai già fatto correttamente ha il solo scopo di avere un post con tutta la soluzione senza dover costringere gli utenti ad andare su e giù per n post.

Tanto per iniziare, dovendo calcolare l'UMVUE di $gamma$, che chiamo $theta$ perché mi piace di più.....si intende per $lambda$ fissato e quindi, senza perdere di generalità e semplificando la notazione, pongo $lambda=1$

La densità della popolazione diventa dunque

$f_X(x)=e^(theta-x)mathbb{1}_((theta;+oo))(x)$

con funzione di ripartizione $F_X(x)=1-e^(theta-x)$

Cerchiamo lo stimatore sufficiente:

$L(theta)=e^(-Sigma_i x_i)*e^(ntheta)mathbb{1}_((-oo;x_((1))))(theta)$

da cui si vede che $T=x_((1))$ è stimatore sufficiente.....non necessariamente completo, dato che il dominio della variabile dipende da $theta$

$F_T(t)=1-(1-F)^n=1-e^(ntheta-nt)$

$f_T(t)=n e^(ntheta-nt)$

Iniziamo comunque a calcolarne il valore atteso

$mathbb{E}[T]=int_(theta)^(+oo)nte^(ntheta-nt)dt=...=theta+1/n$

Quindi $T_1=x_((1))-1/n$

E' stimatore non distorto e funzione di una statistica sufficiente.....se tale statistica fosse anche completa, $T_1$ sarebbe UMVUE

Vediamo quindi come provare la completezza di T

Supponiamo che esista una funzione $g$ tale per cui

$mathbb{E}_theta[g(T)]=0$ , $AAtheta$

ovvero supponiamo che

$int_(theta)^(+oo)g(t)n e^(ntheta-nt)dt=0 rarr int_(theta)^(+oo)g(t)e^(-nt)dt=0$

deriviamo entrambi i membri rispetto a $theta$ ottenendo

$-g(theta)e^(-ntheta)=0$

che evidentemente implica

$mathbb{P}_theta[g(theta)=0]=1$, $AAtheta$


...in altri termini...Sì, $T_1=x_((1))-1/n$ è UMVUE

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.