Log-normale? No grazie, Poisson per tutti

Walter97lor
CIao a tutti, scrivo per avere dei chiarimenti su questo esercizio di inferenza con distribuzione discreta.
SI chiede di calcolare la funzione di log-verosimiglianza, di trovare lo stimatore di max verosimiglianza e di dire se esso è corretto.
$ P_Y(y;theta)=e^(thetay-e^theta-log(y!) $

$ l(theta)=thetasum_i^ny_i-n(e^theta) $

$ hat(theta)=log(1/nsum_i^ny_i) $
Nessun problema fin qui, ora però bisogna stabilire la sua correttezza, ovvero:
$E[hat(theta)]=theta$
Quindi: $ E[log((sum_i^ny_i)/n)] $ , lo stimatore è sostanzialmente il logaritmo della media campionaria, dato che la media campionaria è distribuita $ ~ N(mu, sigma^(2)/n) $ è possibile dire che, applicando il logaritmo, la media dello stimatore è pari alla media della distribuzione log-normale? Questo tipo di distribuzione non l'ho mai trattata, è lecito affermare ciò? In alternativa, come è possibile ricondursi ad una distribuzione nota avendo quello stimatore? Grazie

Risposte
Lo_zio_Tom
ahahahhhh

:partyman: :partyman:

complimenti davvero all'ideatore dell'esercizio


....[size=200]è una poisson[/size]

Walter97lor
Ciao Tommik, pensavo di aver scritto il dominio, e invece no:
$ Yin mathbb(N) $

Lo_zio_Tom
sì l'ho capito da solo....infatti ho editato il messaggio

basta riscrivere la pmf così

$(e^(thetay)e^(-e^theta))/(y!)~ Po(e^theta)$

ora puoi continuare....più tardi lo guardo bene....ti chiede lo stimatore di max verosimiglianza per $theta$, o per $e^theta$?

Walter97lor
Per esercizio avevo calcolato lo stimatore utilizzando il metodo dei momenti per vedere se gli stimatori erano uguali, ovvero (sintetizzando i conti al massimo):

$ E[Y]=sum_i e^(thetay-e^(theta)-log(y!))*y=1/e^(e^theta)sum_i(e^(thetay)y)/(y!) $ che somiglia infatti alla media della Poisson, e risolvendo: $ =1/(e^(e^theta))*(e^(theta)*e^(e^theta))=e^theta $
Da qui dovrei concludere che la media dello stimatore è il parametro della Poisson cioè $e^theta$?

Lo_zio_Tom
non l'ho ancora guardato (sto lavorando). Prima di mettermi vorrei sapere se ti chiede lo stimatore di max verosimiglianza per cosa

1) per $theta$

2) per $e^theta$

va sempre specificato

Walter97lor
per $theta$

markowitz
"Walter97lor":

$ hat(theta)=log(1/nsum_i^ny_i) $

mi sembra funzionare

infatti dovrebbe valere
$ hat(exp(theta))=(1/nsum_i^ny_i) $

e per l'invarianza funzionale degli stimatori di max verosimiglianza
$ hat(theta)=log(hat(exp(theta))) = log(1/nsum_i^ny_i)$

ma per colpa del $log$ mi sembra che lo stimatore non sia corretto (anche se è consistente).

Lo_zio_Tom
AAAAAAHHHHHHHHHHH

in termine tecnico possiamo dire che la soluzione ....



grazie a Markowitz[nota]Sì avevo provato subito così ma poi stupidamente ho cercato strade impossibili...leggendo il tuo post mi hai subito illuminato[/nota] ho risolto subito....

Dunque

$Y~ Po(e^theta)$

per note proprietà sappiamo anche che

$E[Y]=e^theta$ ma anche $E[bar(Y)]=e^theta$

Ora applicando la disuguaglianza di Jensen otteniamo subito che

$E[log bar(Y)] ne logE[bar(Y)]=log e^(theta)=theta$

... e quindi lo stimatore è distorto

Walter97lor
Grande Tommik, ero riuscito ad arrivarci anche io, non ho potuto di postare subito per lontananza dal pc. Ringrazio te e markovitz, per la disponibilità e la competenza. Siete sempre dei grandi!

Lo_zio_Tom
La soluzione è sua... io avevo provato altre strade inconcludenti e finché non ho letto il suo post brancolavo nel buio

markowitz
Non essere troppo buono , che poi mi monto la testa :-D

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.