Dimostrazione varianza capionaria e informazione attesa

icklazza
Non riesco a capire un passaggio della dimostrazione dell'informazione attesa di Fisher.
Devo dimostrare che il valore atteso della funzione punteggio è uguale a meno il valore atteso della derivata seconda della logverosimiglianza.
In particolare non capisco questo passaggio:

$ \int_{Y} (\frac{1}{f(y,\theta)} \frac{d}{d\theta} f(y;\theta))^2 f(y;\theta) dv(y) = \int_y (\frac{1}{f(y,\theta)} \frac{d^2}{d\theta^2}f(y;\theta) - \frac{d^2}{d\theta^2}\log f(y;\theta)) f(y;\theta) dv(y)$

Qualcuno mi può spiegare da dove viene fuori questo risultato.

Poi dovrei dimostrare che la varianza campionaria non è uno stimatore corretto.
E' una dimostrazione che avevo già fatto anni fa... ma adesso non mi viene più. Ho provato 2 strade ma probabilmente o faccio degli errori, o sono quelle sbagliate.
devo dimostrare che $E(\frac{1}{n}\sum_1^n(y_i-\bar{y}_n)^2) = \frac{n-1}{n}\sigma^2$
ho provato prima a sviluppare il quadrato
$E( \frac{1}{n}\sum_1^n(y_i-\cap{y}_n)^2) = \frac{1}{n}E[\sum_1^n y_i^2 - 2\bar{y}_n\sum_1^n y_i + n \bar{y}^2]$
ma che non mi sembra portare da nessuna parte.
L'altra strada che ho provato + quella di aggiungere e togliere $\mu$

$E(\frac{1}{n}\sum_1^n(y_i-\bar{y}_n)^2) = E( \frac{1}{n}\sum_1^n(y_i - \mu + \mu - \bar{y}_n)^2 )= E( \frac{1}{n} (\sum_1^n (y_i - \mu)^2 + \sum_1^n (\mu - \bar{y}_n)^2))$
ma anche qui non so più come proseguire

Di questo secondo esercizio preferirei non avere la soluzione (almeno per ora) ma solo qualche dritta, e sapere magari se sono sulla strada giusta.

Grazie a tutti quelli che rispoderanno

Risposte
icklazza
Grazie per la risposta. Ma sono un po' duro. Non mi è chiaro il passaggio $\frac{1}{n}E[\sum_1^n X_i^2] = E[X^2]$

Anzi no adesso mi è chiaro :-) praticamente dovrebbe essere: $ \frac{1}{n}E[\sum_1^n X_i^2] = \frac{1}{n} \sum_1^n E[X_i^2] = \frac{1}{n} \sum_1^n E[X^2] = \frac{1}{n} nE[X^2] = E[X^2]$
Giusto?

wtf88
Ho ripreso questa discussione perchè anche io ho un passaggio non chiaro di quella dimostrazione:

$E[S^2] = E[ X^2] − \mu^2 − {\sigma^2}/n = \sigma^2 − {\sigma^2}/n$

Come ha fatto a trasformare $E[ X^2] − \mu^2$ in $\sigma^2$ ???
Forse è una banalità ma non riesco a capirla.

Arado90
$E[X^2]-[E(X)]^2$ è semplicemente un altro modo di scrivere la varianza.
Per la dimostrazione vedi il mio messaggio qua: http://www.matematicamente.it/forum/post597393.html#p597393

G3nd4rM31
Ciao a tutti,

Mi trovo costretto a riaprire questa discussione poichè non visualizzando bene alcuni messaggi precedenti (non so perchè!) non riesco a capire come svolgere la dimostrazione del valore atteso della varianza campionaria...

Qual'è la strada da seguire?


Grazie 1000 in advice!

G3nd4rM31
Grazie per avere sistemato il post!

saluti!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.