Stima con la tecnica della massima verosimiglianza per campione poissoniano
Salve, ho un problema con la parte finale di un esercizio che mi chiede, in sunto, di trovare, dato un campione $x_1,....,x_n$
Con $P(X=n) = e^(-\lambda) (lambda^(n))/(n!)$
1- lo stimatore di massima verosimiglianza per $/lambda$
2- verificare che esso sia corretto
3-verificare che è quello più efficiente.
La mia soluzione è stata:
Calcolo $L= prod_{i=1}^n P(X=x_i)$
$= prod_{i=1}^n e^(-lambda) (lambda^(x_i))/(x_i!)$
$ L = e^(-n lambda) lambda^(sum_{i=1}^n x_i)/(prod_{i=1}^n x_i!)$
Di cui faccio il logaritmo, e dopo qualche semplice passaggio ottengo
$log(L) = log(lambda) sum_{i=1}^n x_i -n lambda - sum_{i=1}^n (log(x_i))$
E, calcolando
$(dellog(L))/(dellambda) = 1/lambda sum_{i=1}^n x_i - n $
Ponendolo uguale a zero ottengo
$bar x = lambda$
Che è il mio stimatore di massima verosimiglianza.
Per verificare che sia corretto ho semplicemente calcolato
$E[bar x]= lambda$
dopo un paio di semplici passaggi.
Credo quindi di non aver sbagliato fino a qui. Ora, mi viene chiesto di verificare che sia il più efficiente. La formulina che in modo bovino applico perché mi è stata sparata lì è
$E[((dellogP)/(delQ))^2] = sum_{i=1}^n ((dellogP(X=x_i))/(delQ))^2 * P(X=x_i))$
E questo dovrebbe valere per le distribuzioni discrete. Ora, applicando lo al mio caso, dopo qualche passaggio ottengo
$sum_{i=1}^n (1 + x^2/lambda^2 -2 x/lambda) lambda^(x_i)/(x_i!) e^(-lambda)$
E qui mi blocco..potreste darmi qualche consiglio?
Ps. Ho calcolato $Var= lambda/n$
Edit: ho provato a cambiare strada e andare sul sicuro: applicare direttamente la disuguaglianza di Cramer Rao
Nel mio caso:
$Var = lambda/n >= 1/ n 1/{E[(dellog(e^(-lambda) lambda^x/(x!))/(dellambda))^2]}$
Con:
$ log(..)= - lambda + xlog(lambda) - log (x!)$
$(dellog)/(dellambda) (...) = -1 + x/lambda$
$[(dellog)/(dellambda) (...)]^2 = (-1 + x/lambda)^2 = x^2/lambda^2 -2x/lambda +1$
Da cui
$n E[1+ x^2/lambda^2 -2x/lambda] = n/lambda$
Usando la linearita del valore atteso e poiché:
$Var[x] = E[x] = lambda$
E
$E[x^2] = Var[x] + E[x]^2 = lambda + lambda^2 = lambda (lambda +1)$
Dunque l estremo inferiore della disuguaglianza di Cramer Rao è proprio la varianza calcolata, da cui cocludo che
$U= bar x$
È lo stimatore più efficiente.
Mi ero perso in un bicchiere d acqua
PS. Se non disturbo vorrei comunque dei pareri sul procedimento e inoltre, vorrei sapere se in questi casi le domande devono essere cancellate dall autore. Grazie
Con $P(X=n) = e^(-\lambda) (lambda^(n))/(n!)$
1- lo stimatore di massima verosimiglianza per $/lambda$
2- verificare che esso sia corretto
3-verificare che è quello più efficiente.
La mia soluzione è stata:
Calcolo $L= prod_{i=1}^n P(X=x_i)$
$= prod_{i=1}^n e^(-lambda) (lambda^(x_i))/(x_i!)$
$ L = e^(-n lambda) lambda^(sum_{i=1}^n x_i)/(prod_{i=1}^n x_i!)$
Di cui faccio il logaritmo, e dopo qualche semplice passaggio ottengo
$log(L) = log(lambda) sum_{i=1}^n x_i -n lambda - sum_{i=1}^n (log(x_i))$
E, calcolando
$(dellog(L))/(dellambda) = 1/lambda sum_{i=1}^n x_i - n $
Ponendolo uguale a zero ottengo
$bar x = lambda$
Che è il mio stimatore di massima verosimiglianza.
Per verificare che sia corretto ho semplicemente calcolato
$E[bar x]= lambda$
dopo un paio di semplici passaggi.
Credo quindi di non aver sbagliato fino a qui. Ora, mi viene chiesto di verificare che sia il più efficiente. La formulina che in modo bovino applico perché mi è stata sparata lì è
$E[((dellogP)/(delQ))^2] = sum_{i=1}^n ((dellogP(X=x_i))/(delQ))^2 * P(X=x_i))$
E questo dovrebbe valere per le distribuzioni discrete. Ora, applicando lo al mio caso, dopo qualche passaggio ottengo
$sum_{i=1}^n (1 + x^2/lambda^2 -2 x/lambda) lambda^(x_i)/(x_i!) e^(-lambda)$
E qui mi blocco..potreste darmi qualche consiglio?
Ps. Ho calcolato $Var= lambda/n$
Edit: ho provato a cambiare strada e andare sul sicuro: applicare direttamente la disuguaglianza di Cramer Rao
Nel mio caso:
$Var = lambda/n >= 1/ n 1/{E[(dellog(e^(-lambda) lambda^x/(x!))/(dellambda))^2]}$
Con:
$ log(..)= - lambda + xlog(lambda) - log (x!)$
$(dellog)/(dellambda) (...) = -1 + x/lambda$
$[(dellog)/(dellambda) (...)]^2 = (-1 + x/lambda)^2 = x^2/lambda^2 -2x/lambda +1$
Da cui
$n E[1+ x^2/lambda^2 -2x/lambda] = n/lambda$
Usando la linearita del valore atteso e poiché:
$Var[x] = E[x] = lambda$
E
$E[x^2] = Var[x] + E[x]^2 = lambda + lambda^2 = lambda (lambda +1)$
Dunque l estremo inferiore della disuguaglianza di Cramer Rao è proprio la varianza calcolata, da cui cocludo che
$U= bar x$
È lo stimatore più efficiente.
Mi ero perso in un bicchiere d acqua

PS. Se non disturbo vorrei comunque dei pareri sul procedimento e inoltre, vorrei sapere se in questi casi le domande devono essere cancellate dall autore. Grazie
Risposte
i risultati sono giusti ma c'è qualche errore / imprecisione
La verosimiglianza è sbagliata.
mentre quando poi ne fai il log è giusto.....forse volevi intendere una cosa diversa
inoltre esiste un altro metodo per controllare se T è lo stimatore il più efficiente, anche se Cramer Rao va bene.
Puoi infatti utilizzare la CNES:
$sum_(i)partial/(partialtheta)logf(x,theta)=b_([n;theta])(T-E(T))$
Suggerimento: esiste un'altra versione della Cramer Rao che è molto più comoda
$V(T)>=1/(-nE{partial^2/(partialtheta^2)logf(x,theta)})$
La verosimiglianza è sbagliata.
"Luca34":
$=e^(-n lambda) ((lambda^x)/(x!))^n$
mentre quando poi ne fai il log è giusto.....forse volevi intendere una cosa diversa
inoltre esiste un altro metodo per controllare se T è lo stimatore il più efficiente, anche se Cramer Rao va bene.
Puoi infatti utilizzare la CNES:
$sum_(i)partial/(partialtheta)logf(x,theta)=b_([n;theta])(T-E(T))$
Suggerimento: esiste un'altra versione della Cramer Rao che è molto più comoda
$V(T)>=1/(-nE{partial^2/(partialtheta^2)logf(x,theta)})$
Correggo:
$ L = e^(-n lambda) lambda^(sum_{i=1}^n x_i)/(prod_{i=1}^n x_i!)$
Era tardi e ho fatto confusione con i fogliacci
$ L = e^(-n lambda) lambda^(sum_{i=1}^n x_i)/(prod_{i=1}^n x_i!)$
Era tardi e ho fatto confusione con i fogliacci
