Teorema di cramer rao
Ciao a tutti qualcuno sa spiegarmi in modo semplice cosa ci dice questo teorema?Io dal libro e da internet non ci ho capito molto.A parte il fatto che questo teorema stabilisce il limite inferiore per la varianza di ogni stimatore del parametro teta.
Risposte
Come saprai un buon stimatore dev'essere in primo luogo corretto (o non distorto), cioè deve valere in media il parametro da stimare.
Se questo si verifica si ha che l'MSE, dato dalla varianza dello stimatore più il quadrato della sua distorsione, coincide ovviamente con la varianza (perchè la distorsione è $0$).
L'altra condizione importante è che uno stimatore dev'essere efficiente. Se abbiamo diversi stimatore corretti, quello con varianza minima sarà il più efficiente tra tutti e sarà quindi il più adatto da usare (questo perchè la valutazione avviene sempre col valore assunto dall'MSE e dunque, coincidendo quest'ultimo con la varianza, allora dovremmo cercare di minimizzarlo per avere un buon stimatore e quindi vorremo minimizzare la varianza).
Allora, la disuguaglianza di Rao-Cramèr ti dà il limite inferiore per la varianza relativamente alla sottoclasse di stimatore corretti che hai individuato e dunque, vedendo qual è lo stimatore con la varianza più vicina a questo valore, avrai senz'altro lo stimatore a varianza minima, cioè quello più efficiente.
Se questo si verifica si ha che l'MSE, dato dalla varianza dello stimatore più il quadrato della sua distorsione, coincide ovviamente con la varianza (perchè la distorsione è $0$).
L'altra condizione importante è che uno stimatore dev'essere efficiente. Se abbiamo diversi stimatore corretti, quello con varianza minima sarà il più efficiente tra tutti e sarà quindi il più adatto da usare (questo perchè la valutazione avviene sempre col valore assunto dall'MSE e dunque, coincidendo quest'ultimo con la varianza, allora dovremmo cercare di minimizzarlo per avere un buon stimatore e quindi vorremo minimizzare la varianza).
Allora, la disuguaglianza di Rao-Cramèr ti dà il limite inferiore per la varianza relativamente alla sottoclasse di stimatore corretti che hai individuato e dunque, vedendo qual è lo stimatore con la varianza più vicina a questo valore, avrai senz'altro lo stimatore a varianza minima, cioè quello più efficiente.
Grazie mille ora è tutto più chiaro=)Ti ringrazio molto!Purtroppo il libro non lo spiega bene e mette solo formule e dimostrazioni,senza spiegarlo a parole!
Prego

"fabiranni":
Grazie mille ora è tutto più chiaro=)Ti ringrazio molto!Purtroppo il libro non lo spiega bene e mette solo formule e dimostrazioni,senza spiegarlo a parole!
mi accodo anch'io.... grazie

Penso che con un esempio pratico risolvi molti dubbi.
Prendiamo una bernulliana
$f(x,theta)=theta^x(1-theta)^(1-x)$;$x=0,1$
prendiamo uno stimatore non distorto della media $T=bar(x)$
calcoliamo il limite inferiore di Cramer Rao
$V(T)>=1/(-nE{partial^2/(partialtheta^2)log f(x,theta)})$
$logf(x,theta)=xlogtheta+(1-x)log(1-theta)$
$partial/(partialtheta)logf(x,theta)=x/theta+(1-x)/(1-theta)$
$partial^2/(partialtheta^2)logf(x,theta)=...=-(x-theta)^2/(theta^2(1-theta)^2)$
$E{partial^2/(partialtheta^2)logf(x,theta)}=-(theta(1-theta))/(theta^2(1-theta)^2)=-1/(theta(1-theta))$
quindi in definitiva
$V(T)>=(theta(1-theta))/n=sigma^2/n$
abbiamo trovato che il limite inferiore della varianza di uno stinatore non distorto per $theta$ è proprio uguale alla varianza della media campionaria....quindi $bar(x)$ è uno stimatore UMVUE
******************
altro esempio:
$f(x,theta)=theta e^(-thetax)$
stimiamo una funzione di $theta$
$1/theta$ con lo stimatore $bar(x)$
per calcolare il limite inferiore di Cramer Rao occorre utlilizzare una verisone più allargata della disuguaglianza:
$V(T)>=[partial/(partialtheta)g(theta)]^2/(-nE{partial^2/(partialtheta^2)log f(x,theta)})$
$log f(x,theta)=logtheta-thetax$
$partial/(partialtheta)log f(x,theta)=1/theta-x$
$partial^2/(partialtheta^2)log f(x,theta)=-1/theta^2$
$-nE[partial^2/(partialtheta^2)log f(x,theta)]=n/theta^2$
quindi otteniamo
$V(T)>=1/(theta^2n)=sigma^2/n$
e quindi, anche in questo caso, concludiamo che $bar(x)$ è UMVUE
ora dovrebbe essere più chiaro....fai delle prove con altre distribuzioni (regolari, ovviamente). Se ti interessa il limite inferiore di Cramer Rao anche per distribuzioni non regolari c'è un topic dove calcolo anche questo, secondo l'approccio di Chapman, Robbins Kiefer.
Prendiamo una bernulliana
$f(x,theta)=theta^x(1-theta)^(1-x)$;$x=0,1$
prendiamo uno stimatore non distorto della media $T=bar(x)$
calcoliamo il limite inferiore di Cramer Rao
$V(T)>=1/(-nE{partial^2/(partialtheta^2)log f(x,theta)})$
$logf(x,theta)=xlogtheta+(1-x)log(1-theta)$
$partial/(partialtheta)logf(x,theta)=x/theta+(1-x)/(1-theta)$
$partial^2/(partialtheta^2)logf(x,theta)=...=-(x-theta)^2/(theta^2(1-theta)^2)$
$E{partial^2/(partialtheta^2)logf(x,theta)}=-(theta(1-theta))/(theta^2(1-theta)^2)=-1/(theta(1-theta))$
quindi in definitiva
$V(T)>=(theta(1-theta))/n=sigma^2/n$
abbiamo trovato che il limite inferiore della varianza di uno stinatore non distorto per $theta$ è proprio uguale alla varianza della media campionaria....quindi $bar(x)$ è uno stimatore UMVUE
******************
altro esempio:
$f(x,theta)=theta e^(-thetax)$
stimiamo una funzione di $theta$
$1/theta$ con lo stimatore $bar(x)$
per calcolare il limite inferiore di Cramer Rao occorre utlilizzare una verisone più allargata della disuguaglianza:
$V(T)>=[partial/(partialtheta)g(theta)]^2/(-nE{partial^2/(partialtheta^2)log f(x,theta)})$
$log f(x,theta)=logtheta-thetax$
$partial/(partialtheta)log f(x,theta)=1/theta-x$
$partial^2/(partialtheta^2)log f(x,theta)=-1/theta^2$
$-nE[partial^2/(partialtheta^2)log f(x,theta)]=n/theta^2$
quindi otteniamo
$V(T)>=1/(theta^2n)=sigma^2/n$
e quindi, anche in questo caso, concludiamo che $bar(x)$ è UMVUE
ora dovrebbe essere più chiaro....fai delle prove con altre distribuzioni (regolari, ovviamente). Se ti interessa il limite inferiore di Cramer Rao anche per distribuzioni non regolari c'è un topic dove calcolo anche questo, secondo l'approccio di Chapman, Robbins Kiefer.