Consistenza stimatore
Ciao a tutti,
ho studiato in questi giorni la consistenza di uno stimatore, ho visto che in genere si utilizzano tre modi per dimostrarla:
1. stimatore corretto e varianza stimatore asintoticamente nulla e questo mi è chiaro;
2. utilizzo della convergenza in probabilità per la consistenza debole, cioè il limite per n che va ad infinito di Prob(ltheta^-thetal>epsilon)=0;
3. sfruttare una conseguenza del teorema di Slutsky, cioè se theta^ è consistente per theta, f(theta^) lo è per f(theta) se f è continua.
Visto che non trovo esercizi qualcuno mi può fare degli esempi per l'applicazione del secondo e terzo metodo?
Grazie
ho studiato in questi giorni la consistenza di uno stimatore, ho visto che in genere si utilizzano tre modi per dimostrarla:
1. stimatore corretto e varianza stimatore asintoticamente nulla e questo mi è chiaro;
2. utilizzo della convergenza in probabilità per la consistenza debole, cioè il limite per n che va ad infinito di Prob(ltheta^-thetal>epsilon)=0;
3. sfruttare una conseguenza del teorema di Slutsky, cioè se theta^ è consistente per theta, f(theta^) lo è per f(theta) se f è continua.
Visto che non trovo esercizi qualcuno mi può fare degli esempi per l'applicazione del secondo e terzo metodo?
Grazie
Risposte
Per quanto riguarda il secondo punto l'esempio più semplice è quello della media campionaria che in generale è lo stimatore usuale per le distribuzioni elementari, la convergenza è conseguenza diretta della legge debole dei grandi numeri.
Per il terzo punto più che il teorema di Slutsky, che è utile nel caso per esempio della distribuzione $t$ di student, parlerei di "continuous mapping theorem" o del "delta method". In generale gli stimatori che si trovano sono in gran parte funzioni della media campionaria (o dei momenti campionari) allora si ottiene, sotto le opportune ipotesi che $f(1/n\sum_{i=1}^{n}X_i)\rightarrow f(\theta)$ se $1/n\sum_{i=1}^{n}X_i\rightarrow \theta$ con almeno la convergenza in probabilità.
Un buon testo per iniziare è il Rohatgi: Introduction to probability and statistic
Per il terzo punto più che il teorema di Slutsky, che è utile nel caso per esempio della distribuzione $t$ di student, parlerei di "continuous mapping theorem" o del "delta method". In generale gli stimatori che si trovano sono in gran parte funzioni della media campionaria (o dei momenti campionari) allora si ottiene, sotto le opportune ipotesi che $f(1/n\sum_{i=1}^{n}X_i)\rightarrow f(\theta)$ se $1/n\sum_{i=1}^{n}X_i\rightarrow \theta$ con almeno la convergenza in probabilità.
Un buon testo per iniziare è il Rohatgi: Introduction to probability and statistic
ok..grazie intanto..anche per la risposta del teorema lehmann..
in merito alla consistenza degli stimatori di Mv ho difficoltà a dimostrarla...Ad esempio: Verificare la consistenza dello stimatore di MV di una binomiale.
Io mi sono ricavato lo stimatore che mi risulta $ hatTheta_(mv)= (Sigma y_i)/n $ ma non so continuare.
Devo usare i comandi del software R
Io mi sono ricavato lo stimatore che mi risulta $ hatTheta_(mv)= (Sigma y_i)/n $ ma non so continuare.
Devo usare i comandi del software R

