Stimatore
Sia $X_1, . . . ,X_n$ un campione casuale da una popolazione esponenziale
di parametro incognito $theta$ $in (0,+oo)$
(i) Si determini uno stimatore non distorto per $1/ theta$, si verifichi la
sua consistenza in L1.
So alcune cose di inferenza statistica ma non ho testi di riferimento per affrontare l'argomento
specifico ne appunti ad hoc.
Come imposto il problema?
di parametro incognito $theta$ $in (0,+oo)$
(i) Si determini uno stimatore non distorto per $1/ theta$, si verifichi la
sua consistenza in L1.
So alcune cose di inferenza statistica ma non ho testi di riferimento per affrontare l'argomento
specifico ne appunti ad hoc.
Come imposto il problema?
Risposte
Il link sembra ottimo anche se la maggior parte delle nozioni non mi sono nuove.
Vediamo se ho capito come si procede.
Uso il metodo dei momenti che non genera calcoli troppo lunghi.
Se mi interessa una stima di $1/theta$ in sostanza mi interessa una stima di $E[X]$
Allora passando ai dati
$mu_X=(X_1+...+X_n)/N=1/theta_s$ dove $theta_s$= stima di $theta$
io ricordo che, in generale, la media campionaria è uno stimatore non distorto è consistente
della media di popolazione.
Basta questo per dire che quella ottenuta è una stima non distorta?
E la consistenza? in $L_1$ poi cosa vuol dire?
Poi mi si chiede
Lo stimatore ricavato al punto 1 e efficiente? Rappresenta lo
stimatore non distorto a varianza uniformemente minima?
Credo sia inefficiente rispetto allo stimatore ML ogni volta che conosciamo la
distribuzione generatrice dei dati, vero?
Vediamo se ho capito come si procede.
Uso il metodo dei momenti che non genera calcoli troppo lunghi.
Se mi interessa una stima di $1/theta$ in sostanza mi interessa una stima di $E[X]$
Allora passando ai dati
$mu_X=(X_1+...+X_n)/N=1/theta_s$ dove $theta_s$= stima di $theta$
io ricordo che, in generale, la media campionaria è uno stimatore non distorto è consistente
della media di popolazione.
Basta questo per dire che quella ottenuta è una stima non distorta?
E la consistenza? in $L_1$ poi cosa vuol dire?
Poi mi si chiede
Lo stimatore ricavato al punto 1 e efficiente? Rappresenta lo
stimatore non distorto a varianza uniformemente minima?
Credo sia inefficiente rispetto allo stimatore ML ogni volta che conosciamo la
distribuzione generatrice dei dati, vero?
"markowitz":
E la consistenza? in $L_1$ poi cosa vuol dire?
Poi mi si chiede
Lo stimatore ricavato al punto 1 e efficiente? Rappresenta lo
stimatore non distorto a varianza uniformemente minima?
Credo sia inefficiente rispetto allo stimatore ML ogni volta che conosciamo la
distribuzione generatrice dei dati, vero?
Mi risulta un po' strana la convergenza in $L_1$, di solito per la consistenza si intende se converge in probabilità.
Comunque si intende la convergenza in media
http://en.wikipedia.org/wiki/Convergenc ... _variables
Dovresti vedere se sussistono le ipotesi per applicare qualche teorema che implichi la convergenza in media.
O magari passare per un calcolo diretto che magari non è molto complicato.
Per quanto riguarda il secondo punto devi controllare se è verificata l'uguaglianza tra la varianza dello stimatore ed il limite di Cramer Rao.
Mi pare comunque di ricordare che con la massima verosimiglianza ottieni lo stesso stimatore.
per la prima domanda
io so che per la convergenza in probabilità dei momenti campionari
a quelli teorici, parlando di processi stocastici, sono necessarie
stazionarietà ed ergodicità (meno stringente dell'indipendenza)
Quello postato è il testo di un'esame di statistica
non ho altre informazioni, ma se non è diversamente detto suppongo che
si debba IPOTIZZARE campionamento casuale semplice quindi le obs sono
v,a, iid.
cosa diavolo devo verificare, sotto l'ipotesi iid, la convergenza e sempre vera!!!
o no?
In sostanza, senza farla troppo lunga, un prof che non ha tenuto nessun corso
però l'esame si intende di livello abbastanza avanzato secondo voi cosa
si aspetterebbe come risposta.
io so che per la convergenza in probabilità dei momenti campionari
a quelli teorici, parlando di processi stocastici, sono necessarie
stazionarietà ed ergodicità (meno stringente dell'indipendenza)
Quello postato è il testo di un'esame di statistica
non ho altre informazioni, ma se non è diversamente detto suppongo che
si debba IPOTIZZARE campionamento casuale semplice quindi le obs sono
v,a, iid.
cosa diavolo devo verificare, sotto l'ipotesi iid, la convergenza e sempre vera!!!
o no?
In sostanza, senza farla troppo lunga, un prof che non ha tenuto nessun corso
però l'esame si intende di livello abbastanza avanzato secondo voi cosa
si aspetterebbe come risposta.
Scusate un secondo,
per dimostrare la consistenza dove intendo convergenza in prob.
devo far vedere che per N che diventa grande la
varianza dello stimatore si annulla e non abbiamo bias asintotici
Se ho estrazioni iid (direi di si) si fa vedere abbastanza facilmente che
la varianza della media campionaria è uguale alla varianza campionaria diviso N
quindi ci siamo.
Però se invece di ragionare su $mu_x$ ragiono direttamente su $theta=n/(x_1+x_2+...+x_n)$
e calcolo $VAR(theta)$ mi compare l'$n^2$ al numeratore è sono fritto!!!
sicuro sto commettendo un grave errore, ma quale?
per dimostrare la consistenza dove intendo convergenza in prob.
devo far vedere che per N che diventa grande la
varianza dello stimatore si annulla e non abbiamo bias asintotici
Se ho estrazioni iid (direi di si) si fa vedere abbastanza facilmente che
la varianza della media campionaria è uguale alla varianza campionaria diviso N
quindi ci siamo.
Però se invece di ragionare su $mu_x$ ragiono direttamente su $theta=n/(x_1+x_2+...+x_n)$
e calcolo $VAR(theta)$ mi compare l'$n^2$ al numeratore è sono fritto!!!
sicuro sto commettendo un grave errore, ma quale?
"markowitz":
Però se invece di ragionare su $mu_x$ ragiono direttamente su $theta=n/(x_1+x_2+...+x_n)$
e calcolo $VAR(theta)$ mi compare l'$n^2$ al numeratore è sono fritto!!!
sicuro sto commettendo un grave errore, ma quale?
Hai provato a calcolare la varianza? Magari ti viene fuori che n si semplifica (dovrebbe essere così viste le proprietà degli stimatori di MV).