Log-normale? No grazie, Poisson per tutti
CIao a tutti, scrivo per avere dei chiarimenti su questo esercizio di inferenza con distribuzione discreta.
SI chiede di calcolare la funzione di log-verosimiglianza, di trovare lo stimatore di max verosimiglianza e di dire se esso è corretto.
$ P_Y(y;theta)=e^(thetay-e^theta-log(y!) $
$ l(theta)=thetasum_i^ny_i-n(e^theta) $
$ hat(theta)=log(1/nsum_i^ny_i) $
Nessun problema fin qui, ora però bisogna stabilire la sua correttezza, ovvero:
$E[hat(theta)]=theta$
Quindi: $ E[log((sum_i^ny_i)/n)] $ , lo stimatore è sostanzialmente il logaritmo della media campionaria, dato che la media campionaria è distribuita $ ~ N(mu, sigma^(2)/n) $ è possibile dire che, applicando il logaritmo, la media dello stimatore è pari alla media della distribuzione log-normale? Questo tipo di distribuzione non l'ho mai trattata, è lecito affermare ciò? In alternativa, come è possibile ricondursi ad una distribuzione nota avendo quello stimatore? Grazie
SI chiede di calcolare la funzione di log-verosimiglianza, di trovare lo stimatore di max verosimiglianza e di dire se esso è corretto.
$ P_Y(y;theta)=e^(thetay-e^theta-log(y!) $
$ l(theta)=thetasum_i^ny_i-n(e^theta) $
$ hat(theta)=log(1/nsum_i^ny_i) $
Nessun problema fin qui, ora però bisogna stabilire la sua correttezza, ovvero:
$E[hat(theta)]=theta$
Quindi: $ E[log((sum_i^ny_i)/n)] $ , lo stimatore è sostanzialmente il logaritmo della media campionaria, dato che la media campionaria è distribuita $ ~ N(mu, sigma^(2)/n) $ è possibile dire che, applicando il logaritmo, la media dello stimatore è pari alla media della distribuzione log-normale? Questo tipo di distribuzione non l'ho mai trattata, è lecito affermare ciò? In alternativa, come è possibile ricondursi ad una distribuzione nota avendo quello stimatore? Grazie
Risposte
ahahahhhh
complimenti davvero all'ideatore dell'esercizio
....[size=200]è una poisson[/size]


complimenti davvero all'ideatore dell'esercizio
....[size=200]è una poisson[/size]
Ciao Tommik, pensavo di aver scritto il dominio, e invece no:
$ Yin mathbb(N) $
$ Yin mathbb(N) $
sì l'ho capito da solo....infatti ho editato il messaggio
basta riscrivere la pmf così
$(e^(thetay)e^(-e^theta))/(y!)~ Po(e^theta)$
ora puoi continuare....più tardi lo guardo bene....ti chiede lo stimatore di max verosimiglianza per $theta$, o per $e^theta$?
basta riscrivere la pmf così
$(e^(thetay)e^(-e^theta))/(y!)~ Po(e^theta)$
ora puoi continuare....più tardi lo guardo bene....ti chiede lo stimatore di max verosimiglianza per $theta$, o per $e^theta$?
Per esercizio avevo calcolato lo stimatore utilizzando il metodo dei momenti per vedere se gli stimatori erano uguali, ovvero (sintetizzando i conti al massimo):
$ E[Y]=sum_i e^(thetay-e^(theta)-log(y!))*y=1/e^(e^theta)sum_i(e^(thetay)y)/(y!) $ che somiglia infatti alla media della Poisson, e risolvendo: $ =1/(e^(e^theta))*(e^(theta)*e^(e^theta))=e^theta $
Da qui dovrei concludere che la media dello stimatore è il parametro della Poisson cioè $e^theta$?
$ E[Y]=sum_i e^(thetay-e^(theta)-log(y!))*y=1/e^(e^theta)sum_i(e^(thetay)y)/(y!) $ che somiglia infatti alla media della Poisson, e risolvendo: $ =1/(e^(e^theta))*(e^(theta)*e^(e^theta))=e^theta $
Da qui dovrei concludere che la media dello stimatore è il parametro della Poisson cioè $e^theta$?
non l'ho ancora guardato (sto lavorando). Prima di mettermi vorrei sapere se ti chiede lo stimatore di max verosimiglianza per cosa
1) per $theta$
2) per $e^theta$
va sempre specificato
1) per $theta$
2) per $e^theta$
va sempre specificato
per $theta$
"Walter97lor":
$ hat(theta)=log(1/nsum_i^ny_i) $
mi sembra funzionare
infatti dovrebbe valere
$ hat(exp(theta))=(1/nsum_i^ny_i) $
e per l'invarianza funzionale degli stimatori di max verosimiglianza
$ hat(theta)=log(hat(exp(theta))) = log(1/nsum_i^ny_i)$
ma per colpa del $log$ mi sembra che lo stimatore non sia corretto (anche se è consistente).
AAAAAAHHHHHHHHHHH
in termine tecnico possiamo dire che la soluzione ....

grazie a Markowitz[nota]Sì avevo provato subito così ma poi stupidamente ho cercato strade impossibili...leggendo il tuo post mi hai subito illuminato[/nota] ho risolto subito....
Dunque
$Y~ Po(e^theta)$
per note proprietà sappiamo anche che
$E[Y]=e^theta$ ma anche $E[bar(Y)]=e^theta$
Ora applicando la disuguaglianza di Jensen otteniamo subito che
$E[log bar(Y)] ne logE[bar(Y)]=log e^(theta)=theta$
... e quindi lo stimatore è distorto
in termine tecnico possiamo dire che la soluzione ....

grazie a Markowitz[nota]Sì avevo provato subito così ma poi stupidamente ho cercato strade impossibili...leggendo il tuo post mi hai subito illuminato[/nota] ho risolto subito....
Dunque
$Y~ Po(e^theta)$
per note proprietà sappiamo anche che
$E[Y]=e^theta$ ma anche $E[bar(Y)]=e^theta$
Ora applicando la disuguaglianza di Jensen otteniamo subito che
$E[log bar(Y)] ne logE[bar(Y)]=log e^(theta)=theta$
... e quindi lo stimatore è distorto
Grande Tommik, ero riuscito ad arrivarci anche io, non ho potuto di postare subito per lontananza dal pc. Ringrazio te e markovitz, per la disponibilità e la competenza. Siete sempre dei grandi!
La soluzione è sua... io avevo provato altre strade inconcludenti e finché non ho letto il suo post brancolavo nel buio
Non essere troppo buono , che poi mi monto la testa
