Esercizio su stimatore di massima verosimiglianza
Ho questo esercizio:
Si consideri un campione casuale $X_1,....X_n$ estratto da una popolazione avente densità:
$f(\theta;x)=\theta*x^{-2}$ per $x\in [\theta,+\infty]$ e 0 altrove.
Determinare lo stimatore di massima verosimiglianza di $\theta$.
Allora io mi sono ricavato la funzione di verosimiglianza:
$L(\theta;x_1,...x_n)=prod_(i=1)^(n)\theta*x_i^{-2}=\theta^{n}*prod_(i=1)^(n)x_i^{-2}$
ed il suo logaritmo:
$ln(L(\theta;x_1...x_n))=n*ln(\theta)-2*sum_(i=1)^(n)ln(x_i)$
Ne calcolo la derivata:
$\delta/(\delta\theta)[n*ln(\theta)-2*sum_(i=1)^(n)ln(x_i)]=n/\theta$
A questo punto mi blocco perché dovrei imporre la derivata uguale a zero ma otterrei un risultato assurdo.
Dove sbaglio?
Si consideri un campione casuale $X_1,....X_n$ estratto da una popolazione avente densità:
$f(\theta;x)=\theta*x^{-2}$ per $x\in [\theta,+\infty]$ e 0 altrove.
Determinare lo stimatore di massima verosimiglianza di $\theta$.
Allora io mi sono ricavato la funzione di verosimiglianza:
$L(\theta;x_1,...x_n)=prod_(i=1)^(n)\theta*x_i^{-2}=\theta^{n}*prod_(i=1)^(n)x_i^{-2}$
ed il suo logaritmo:
$ln(L(\theta;x_1...x_n))=n*ln(\theta)-2*sum_(i=1)^(n)ln(x_i)$
Ne calcolo la derivata:
$\delta/(\delta\theta)[n*ln(\theta)-2*sum_(i=1)^(n)ln(x_i)]=n/\theta$
A questo punto mi blocco perché dovrei imporre la derivata uguale a zero ma otterrei un risultato assurdo.
Dove sbaglio?
Risposte
Ti do la risposta ma dimmi te il perchè:
$hat theta=min{X_1,...,X_n}$
$hat theta=min{X_1,...,X_n}$
"DajeForte":
Ti do la risposta ma dimmi te il perchè:
$hat theta=min{X_1,...,X_n}$
La soluzione suggerisce che la funzione di verosimiglianza è sempre crescente e che essa si mantiene sempre inferiore a $min{X_1,...,X_n}$ ma non riesco a ricavare questo dalle formule della funzione di verosimiglianza
Mettiamola così:
con la stima di max vero tu vuoi, dato un campione, massimizzare la verosimiglianza sotto il/i parametro/i.
Chiama $L(theta,x)$ la f di vero (con $x$ intendo ilcampione osservato).
$L(theta,x)=theta g(x)$; a questo punto quale è il valore che massimizza questa funzione? il più grande valore che $theta$ può assumere;
che ovviamente non può essere più grande del più piccolo valore delle $x_i$ se no non può provenire dalla nostra distribuzione.
Es.
Considera il campione $(4,8,6,3,6)$ il minimo è $3$ ora se $theta$ fosse più grande di tre non andrebbe bene per la nostra distr.
Ora tra i valori $<=3$ quale è quello che massimizza ovviamente il più grande.
Se vuoi lavorare analiticamente puoi ragionare così:
$L(theta,x)=prod_(i=1)^n theta x_i^(-2) I_([theta,+infty))(x_i)=theta^n I_((0,min{x_1,...x_n}])(theta) prod_(i=1)^nx_i^(-2)=$
$theta^n prod_(i=1)^nx_i^(-2) \quad \quad \quad se \quad 0
$0 \quad \quad \quad \quad \quad \quad \quad \quad \quad \quad text(altrimenti)$
(te lo ho scritto così ma non so come si fanno quelle parentesi grandi superfiche)
Derivi e cerchi il punto di massimo ovvero dove la derivata si annulla o agli estremi
In questo caso agli estremi.
Comunque il succo della questione è che non ti devi dimenticare la funzione indicatrice
con la stima di max vero tu vuoi, dato un campione, massimizzare la verosimiglianza sotto il/i parametro/i.
Chiama $L(theta,x)$ la f di vero (con $x$ intendo ilcampione osservato).
$L(theta,x)=theta g(x)$; a questo punto quale è il valore che massimizza questa funzione? il più grande valore che $theta$ può assumere;
che ovviamente non può essere più grande del più piccolo valore delle $x_i$ se no non può provenire dalla nostra distribuzione.
Es.
Considera il campione $(4,8,6,3,6)$ il minimo è $3$ ora se $theta$ fosse più grande di tre non andrebbe bene per la nostra distr.
Ora tra i valori $<=3$ quale è quello che massimizza ovviamente il più grande.
Se vuoi lavorare analiticamente puoi ragionare così:
$L(theta,x)=prod_(i=1)^n theta x_i^(-2) I_([theta,+infty))(x_i)=theta^n I_((0,min{x_1,...x_n}])(theta) prod_(i=1)^nx_i^(-2)=$
$theta^n prod_(i=1)^nx_i^(-2) \quad \quad \quad se \quad 0
$0 \quad \quad \quad \quad \quad \quad \quad \quad \quad \quad text(altrimenti)$
(te lo ho scritto così ma non so come si fanno quelle parentesi grandi superfiche)
Derivi e cerchi il punto di massimo ovvero dove la derivata si annulla o agli estremi
In questo caso agli estremi.
Comunque il succo della questione è che non ti devi dimenticare la funzione indicatrice
@DajeForte: ma dal tuo ragionamento sembra che tu conosca già la risposta a priori. Se uno invece se svolge i calcoli ed arriva al risultato di maxsiverio, e si trova la derivata nulla per $\theta = \+infty$, comn quale criterio può tradurlo in un $min{X_1, ..}$ ?
"stefano_89":
@DajeForte: ma dal tuo ragionamento sembra che tu conosca già la risposta a priori. Se uno invece se svolge i calcoli ed arriva al risultato di maxsiverio, e si trova la derivata nulla per $\theta = \+infty$, comn quale criterio può tradurlo in un $min{X_1, ..}$ ?
visto che $theta$ è positivo, se uno arriva alla derivata di max conclude che la funzione è crescente. A questo punto ti chiedi (come dici te) $theta=infty$ ha senso? Allora devo avere sbagliato qualcosa; infatti la funzione di verosimiglianza per alcuni valori si annulla. Ottieni cosi una soluzione, ci pensi e ti rendi conto che è giusta.