Normalità asintotica stimatore massima verosimiglianza
salve a tutti,
è la prima volta che scrivo in questo forum. Vi pongo una "semplice" questione: chi è in grado di darmi una dimostrazione abbastanza formale della normalità asintotica dello stimatore di massima verosimiglianza. In particolare, mi riferisco a quella dimostrazione che parte dall'espansione di taylor del vettore score e della convergenza dello stesso (scalato per radice di N) ad una normale. vi ringrazio anticipatamente
è la prima volta che scrivo in questo forum. Vi pongo una "semplice" questione: chi è in grado di darmi una dimostrazione abbastanza formale della normalità asintotica dello stimatore di massima verosimiglianza. In particolare, mi riferisco a quella dimostrazione che parte dall'espansione di taylor del vettore score e della convergenza dello stesso (scalato per radice di N) ad una normale. vi ringrazio anticipatamente
Risposte
si lo so non è una cosa molto veloce, per cui cerco di essere piu preciso...ciò che, non so per quale motivo, non mi torna è la varianza asintotica dello score (scalato per N^1/2). mi spiego meglio: 1) lo score è,ovviamente, la sommatoria degli score di ciascuna osservazione; 2) dividere per N^1/2 corrisponde a moltiplicare per (N^1/2)/N. dunque abbiamo un "termine" che puo essere visto come una media campionaria (di ciascun score appunto), e ipotizzando osservazioni i.i.d. possiamo applicare il teorema limite centrale. Ora, mi chiedo se sia possibile giungere a questa conclusione: dato che la varianza dello score coincide con la matrice di informazione è corretto dire che la varianza (asintotica) dello score scalato (e quindi il termine che puo essere visto come una media campionaria) è il limite di (1/N) per la matrice di informazione? spero di essere stato abbastanza chiaro (anche se ne dubito
)

grazie mille, mi hai, o meglio, mi ha reso un po piu chiaro il mio dilemma, mi sembra molto più preparato della mia prof. (la quale si limita ad una lettura superficiale delle sue slide anzichè far ben CAPIRE ai ragazzi di quanto sia bella ma in un certo senso precisa questa "materia"), inoltre trovare altri ragazzi con cui condividere perplessità o semplicemente "parlare di cio che si studia" è per me una cosa rarissima per nn dire impossibile. mi scuso per questo sfogo e la ringrazio di nuovo

"Sergio":
In altri termini, non criticare un docente perché non ti dice "tutto e subito" (sarebbe semplicemente impossibile) e abbi la pazienza di fare un passo (un corso) alla volta.
Si in effetti ho esagerato, ma in un corso di laurea magistrale mi aspetterei qualcosa in più


sergio non ti conosco ma ti stimo

"Sergio":
Ci provo. Una convergenza in probabilità o in distribuzione è un limite, ma il limite di \( 1/N \) per una quantità finita è zero, non molto utile per definire una varianza asintotica.
Si preferisce quindi dire che:
\[ \frac{\hat\theta-\theta^*}{\sqrt{I_n(\theta^*)^{-1}}}= \frac{\sqrt{n}(\hat\theta-\theta^*)}{\sqrt{I_n(\theta^*)^{-1}/n}} =\frac{\sqrt{n}(\hat\theta-\theta^*)}{\sqrt{I_1(\theta^*)^{-1}}} \overset{d}{\rightarrow}N(0,1) \]
dove \( \hat\theta \) è lo stimatore di massima verosimiglianza, \( \theta^* \) è il valore vero del parametro, \( I_n() \) è l'informazione attesa per il campione \( X_n \) inteso come vettore di \( n \) variabili iid, e \( I_1() \) è l'informazione attesa associata alla singola variabile aleatoria \( X \).
Al secondo passaggio, se non erro, $n$ dovrebbe moltiplicare e non dividere.
Ma soprattutto questa convergenza in distribuzione sottintende $n$ che va effettivamente ad infinito o no? Direi di si.
ah ecco!!!! perfettto!!!!!