Esercizio: stimatore sufficiente e minimale e ML
Ciao a tutti,
sto avendo qualche difficoltà nel risolvere il seguente esercizio.
Data una v.c. X con densità:
$f(x;theta,lambda)=lambdatheta^lambdax^-(lambda+1)$
in cui $x>=theta$, con $lambda>0$ e $theta>0$ parametri incogniti.
[list=1]1) Il primo punto chiede, fissato $Psi>theta$, di ricavare la distribuzione di X condizionata a $(X>Psi)$. Su questo sono abbastanza sicuro, vi chiederei solo una conferma:
$f(x; theta,lambda)=f(x; theta,lambda)/(1-F(Psi))$[/list:o:1e3mzit8]
[list=2]2) Sul secondo punto iniziano i problemi: dato $lambda$ noto, mostrare se la statistica $S=min(X_1,...,X_n)$ è sufficiente per $theta$ e valutare se è minimale
Da quanto ne so io, per il criterio di fattorizzazione di Fisher, $S(X_1,...,X_n)$ è una statistica sufficiente per $theta$ se possiamo fattorizzare la densità congiunta come segue:
$f(X_1,...,X_n;theta)= g(S(X_1,...,X_n);theta)*h(X_1,...,X_n)$
$f(X_1,...,X_n;theta)=lambda^ntheta^(nlambda)*\prod_{i=1}^n x_i^-(lambda+1)$, ma non riesco a ricondure la densità congiunta ad una funzione dello stimatore....avete qualche idea?[/list:o:1e3mzit8]
[list=3]3) Il terzo punto chiede di ricavare lo stimatore di $theta$ con il metodo della max verosimiglianza e verificare se è non distorto.
Ma imponendo le condizioni del primo ordine risulta:
$L(theta)=lambda^ntheta^(nlambda)*\prod_{i=1}^n x_i^-(lambda+1)$
$lnL(theta)=nln(lambda)+nlambdaln(theta)-(lambda+1)\sum_{i=1}^n ln(x_i)$
$d(lnL(theta))/(d(theta))=(nlambda)/theta=0$ ma non ha senso...
Il mio dubbio è che nel derivare anche le $x_i$ dipendano da $theta$ in quanto non possono essere minori di $theta$, ma onestamente brancolo un po'...idee?
[/list:o:1e3mzit8]
sto avendo qualche difficoltà nel risolvere il seguente esercizio.
Data una v.c. X con densità:
$f(x;theta,lambda)=lambdatheta^lambdax^-(lambda+1)$
in cui $x>=theta$, con $lambda>0$ e $theta>0$ parametri incogniti.
[list=1]1) Il primo punto chiede, fissato $Psi>theta$, di ricavare la distribuzione di X condizionata a $(X>Psi)$. Su questo sono abbastanza sicuro, vi chiederei solo una conferma:
$f(x; theta,lambda)=f(x; theta,lambda)/(1-F(Psi))$[/list:o:1e3mzit8]
[list=2]2) Sul secondo punto iniziano i problemi: dato $lambda$ noto, mostrare se la statistica $S=min(X_1,...,X_n)$ è sufficiente per $theta$ e valutare se è minimale
Da quanto ne so io, per il criterio di fattorizzazione di Fisher, $S(X_1,...,X_n)$ è una statistica sufficiente per $theta$ se possiamo fattorizzare la densità congiunta come segue:
$f(X_1,...,X_n;theta)= g(S(X_1,...,X_n);theta)*h(X_1,...,X_n)$
$f(X_1,...,X_n;theta)=lambda^ntheta^(nlambda)*\prod_{i=1}^n x_i^-(lambda+1)$, ma non riesco a ricondure la densità congiunta ad una funzione dello stimatore....avete qualche idea?[/list:o:1e3mzit8]
[list=3]3) Il terzo punto chiede di ricavare lo stimatore di $theta$ con il metodo della max verosimiglianza e verificare se è non distorto.
Ma imponendo le condizioni del primo ordine risulta:
$L(theta)=lambda^ntheta^(nlambda)*\prod_{i=1}^n x_i^-(lambda+1)$
$lnL(theta)=nln(lambda)+nlambdaln(theta)-(lambda+1)\sum_{i=1}^n ln(x_i)$
$d(lnL(theta))/(d(theta))=(nlambda)/theta=0$ ma non ha senso...
Il mio dubbio è che nel derivare anche le $x_i$ dipendano da $theta$ in quanto non possono essere minori di $theta$, ma onestamente brancolo un po'...idee?

[/list:o:1e3mzit8]
Risposte
Per lo stimatore sufficiente hai sbagliato a scrivere la verosimiglianza. Trovato lo stimatore sufficiente, applicando un noto metodo sulle partizioni sufficienti è minimali, verifichi facilmente che esso è anche minimale...
Per lo stimatore di Max verosimiglianza ( che per note proprietà è funzione dello stimatore sufficiente) , fissato $lambda$, esso si trova subito considerando che la verosimiglianza è strettamente crescente in $theta $
Il modello in questione è una pareto; come noto questo modello non è regolare e quindi non puoi operare come hai fatto tu.
Ciao
Per lo stimatore di Max verosimiglianza ( che per note proprietà è funzione dello stimatore sufficiente) , fissato $lambda$, esso si trova subito considerando che la verosimiglianza è strettamente crescente in $theta $
Il modello in questione è una pareto; come noto questo modello non è regolare e quindi non puoi operare come hai fatto tu.
Ciao
"tommik":
Per lo stimatore sufficiente hai sbagliato a scrivere la verosimiglianza.
Non ti seguo, dov'è l'errore?
"tommik":
Per lo stimatore di Max verosimiglianza ( che per note proprietà è funzione dello stimatore sufficiente) , fissato λ, esso si trova subito considerando che la verosimiglianza è strettamente crescente in θ
Di nuovo, non capisco...se effettivamente come mi fai notare la verosimiglianza è strettamente crescente in θ, e dunque la derivata prima non si annulla mai, come trovo θ?
guarda qui
Ps1: osservazione corretta, lo stimatore sta alla frontiera e per trovarlo non serve cercare di annullare la derivata prima...Basta trovare l'argmax della funzione.
Ps2: in genere lo stimatore di Max verosimiglianza è distorto ma consistente. In questo caso lo puoi verificare
calcolando la distribuzione esatta dello stimatore (Non ho fatto i conti ma non mi pare complicato)
Ps1: osservazione corretta, lo stimatore sta alla frontiera e per trovarlo non serve cercare di annullare la derivata prima...Basta trovare l'argmax della funzione.
Ps2: in genere lo stimatore di Max verosimiglianza è distorto ma consistente. In questo caso lo puoi verificare
calcolando la distribuzione esatta dello stimatore (Non ho fatto i conti ma non mi pare complicato)
Per il punto 2 è chiaro, usare la funzione indicatrice non mi era minimamente passato per la mente, thanks!
Mmmm quindi devo uguagliare la verosimiglianza a 1 (perchè è una probabilità) e da lì ricavo $theta$?
Cioè mi verrebbe da dire che la verosimiglianza è massima per $theta$ che tende all'infinito, per cui la probabilità dovrebbe tendere ad 1.
Mmmm quindi devo uguagliare la verosimiglianza a 1 (perchè è una probabilità) e da lì ricavo $theta$?
Cioè mi verrebbe da dire che la verosimiglianza è massima per $theta$ che tende all'infinito, per cui la probabilità dovrebbe tendere ad 1.
La verosimiglianza è definita in $0
Quindi il valore che massimizza la verosimiglianza, ovvero lo stimatore cercato è $hat(theta)_(ML)=x_((1))$
Come calcolare la distribuzione del minimo non dovrebbe essere un problema....e quindi nemmeno il suo valore atteso
Quindi il valore che massimizza la verosimiglianza, ovvero lo stimatore cercato è $hat(theta)_(ML)=x_((1))$
Come calcolare la distribuzione del minimo non dovrebbe essere un problema....e quindi nemmeno il suo valore atteso
Ah si giusto, lo abbiamo appena detto...

"°Dan89°":
Il primo punto chiede, fissato $Psi>theta$, di ricavare la distribuzione di X condizionata a $(X>Psi)$. Su questo sono abbastanza sicuro, vi chiederei solo una conferma:
a dir la verità chiede la distribuzione, ovvero la funzione di distribuzione che è questa
$F_(X|X>psi)-={{: ( 0 , ;x
come hai fatto tu, ovvero calcolandone la densità (che è giusta), dovresti per lo meno scriverne il dominio
Per l'ultimo punto, come immaginavo, con pochi e semplici calcoli trovi che, fissato $lambda$ in modo che $nlambda>1$:
$E
Quindi, come spesso accade, lo stimatore di massima verosimiglianza è DISTORTO ma asintoticamente CORRETTO.
ciao
Hai ragione, chiedeva la distribuzione, grazie per avermelo fatto notare. La distribuzione l'hai ricavata semplicemente integrando la densità fra $theta$ e $x$, giusto?
Per il $E$ a me viene diverso, forse ho sbagliato qualche calcolo...
$F_S(x)=1-(1-F_X(x))^n$
$f_S(x)=(n-1)(1-F_X(x))^(n-1)*f_X(x)=lambda(n-1)theta^(lambdan)*x^-(lambdan+1)$
$E=\int_theta^(+infty) lambda(n-1)*theta^(lambdan)*x^(-lambdan)dx=(lamda(n-1))/(1-lamdan)*theta$
Il mio è asintoticamente ben distorto anche asintoticamente ($-theta$) quindi mi sa che c'è qualche errore :/
Per il $E
$F_S(x)=1-(1-F_X(x))^n$
$f_S(x)=(n-1)(1-F_X(x))^(n-1)*f_X(x)=lambda(n-1)theta^(lambdan)*x^-(lambdan+1)$
$E
Il mio è asintoticamente ben distorto anche asintoticamente ($-theta$) quindi mi sa che c'è qualche errore :/
Ci sono due errori che però non c'entrano nulla con Statistica
1) hai sbagliato la derivata di $F_S$
2) hai sbagliato un segno nell'integrale
1) hai sbagliato la derivata di $F_S$
2) hai sbagliato un segno nell'integrale
Ooops, trovati! 
Tornando un attimo al punto 2, abbiamo detto che $S=X_((1))$ è uno stimatore sufficiente. Per verificare che sia anche minimale dovrebbe valere la seguente relazione:
$(L(theta; ul(X)))/(L(theta; ul(Y))) = $costante al variare di $theta \Leftrightarrow S(ul(X))=S(ul(Y))$
$(L(theta; ul(X)))/(L(theta; ul(Y))) =(prod_{i=1}^n x_i^-(lambda+1)*I_(0; X_((1)))(theta))/(prod_{i=1}^n y_i^-(lambda+1)*I_(0; Y_((1)))(theta))$
Che al variare di $theta$ è effettivamente costante solo se i due campioni sono identici, quindi lo stimatore è anche minimale. Ti torna?

Tornando un attimo al punto 2, abbiamo detto che $S=X_((1))$ è uno stimatore sufficiente. Per verificare che sia anche minimale dovrebbe valere la seguente relazione:
$(L(theta; ul(X)))/(L(theta; ul(Y))) = $costante al variare di $theta \Leftrightarrow S(ul(X))=S(ul(Y))$
$(L(theta; ul(X)))/(L(theta; ul(Y))) =(prod_{i=1}^n x_i^-(lambda+1)*I_(0; X_((1)))(theta))/(prod_{i=1}^n y_i^-(lambda+1)*I_(0; Y_((1)))(theta))$
Che al variare di $theta$ è effettivamente costante solo se i due campioni sono identici, quindi lo stimatore è anche minimale. Ti torna?

più o meno....il rapporto che hai trovato è indipendente da $theta$ se e solo se $x_((1))=y_((1))$ ovvero se $S(ul(X))=S(ul(Y))$