Correttezza degli stimatori dei minimi quadrati

ermes*11
Salve,
non so se posso sperare di ricevere un aiuto in questi giorni di festa, ma io provo a postare la domanda. Si tratta della dimostrazione di correttezza degli stimatori dei minimi quadrati (statistica inferenziale); questo è il caso dello stimatore B1 per il coefficiente angolare della retta di regressione.

$\sum_{i=1}^n frac {(x_i - \bar x)}{sum_{i=1}^n(x_i - \bar x)^2}E (Y_i) = \sum_{i=1}^n frac {(x_i - \bar x)}{sum_{i=1}^n (x_i - \bar x)^2}(\beta_0+\beta_1x_i)= (\sum_{i=1}^n (x_i - \bar x)) / (\sum_{i=1}^n (x_i - \bar x)^2)beta_0 +{\sum_{i=1}^n (x_i - \bar x)x_i}/{\sum_{i=1}^n (x_i-\bar x)^2}beta_1=beta_1$
poiché $\sum_{i=1}^n (x_i - \bar x) = 0$ e $\sum_{i=1}^n (x_i - \bar x)x_i = \sum_{i=1}^n (x_i - \bar x)^2$

Non mi è chiaro quest'ultimo passaggio. Da dove esce fuori quest'ultima uguaglianza???

Grazie in anticipo,

Andrea

Risposte
_Tipper
Per favore, cambia il titolo del topic scegliendone uno che descrive il problema che devi affrontare.

ermes*11
Fatto. Chiedo scusa, quello era il titolo provvisorio e mi ero dimenticato di cambiarlo.

_Tipper
No problem. :wink:

ermes*11
Credo di aver risolto. Infatti:

$\sum_{i=1}^n (x_i - \bar x)^2 =\sum_{i=1}^n (x_i^2-2x_i\bar x + \bar x^2) =\sum_{i=1}^n x_i^2 -2\bar x\sum_{i=1}^nx_i+n\barx^2=\sum_{i=1}^nx_i^2-2\bar x*n\bar x+n\bar x^2=\sum_{i=1}^nx_i^2-n\bar x^2$

e $\sum_{i=1}^n (x_1 - \bar x)x_i = \sum_{i=1}^n (x_i^2-\bar x x_i) = \sum_{i=1}^n x_i^2 - \bar x \sum_{i=1}^n x_i = \sum_{i=1}^n x_i^2 - n\bar x^2$

Ovvero quelle due espressioni sono uguali, il rapporto è pari ad uno e dato che il coefficiente di $beta_0$ è pari a 0, il risultato finale è $beta_1$. E' giusto?

Ora però non capisco come si fa la dimostrazione per $B_0$. Si ha $E(B_0)=\sum_{i=1}^n [[1/n-(x_i-\bar x)\bar x]/ \{sum_{i=1}^n (x_i-\bar x)^2]]E(Y_i)$, con $E(Y_i)=beta_0+beta_1x_$.

Ho provato a distribuire la sommatoria ma non riesco ad ottenere che $E(B_0)=beta_0$, come richiesto. Potrei avere una dritta, please?
Andrea

olaxgabry
Un altro modo per dimostare l'identità può essere il seguente:

$sum_{i=1}^{n}(x_{i}-bar{x})x_{i}=sum_{i=1}^{n}(x_{i}-bar{x})(x_{i}-bar{x}+\bar{x})=sum_{i=1}^{n}(x_{i}-bar{x})^{2}+sum_{i=1}^{n}(x_{i}-bar{x})\bar{x}$

Ma

$sum_{i=1}^{n}(x_{i}-bar{x})\bar{x}=\bar{x}sum_{i=1}^{n}x_{i}-sum_{i=1}^{n}\bar{x}^{2}=\bar{x}sum_{i=1}^{n}x_{i}-n\bar{x}^2=0$

Per lo stimatore $\hat{beta}_{0}$ puoi ragionare così: sai che

$hat{beta}_{0}=bar{y}-hat{beta}_{1}bar{x}$

Quindi

$E(hat{beta}_{0})=E(bar{y}-hat{beta}_{1}bar{x})=E(bar{y})-E(hat{beta}_{1}bar{x})$

Ora

$bar{y}=1/n sum_{i=1}^{n}(beta_{0}+beta_{1}x_{i})=beta_{0}+beta_{1}1/n sum_{i=1}^{n}x_{i}=beta_{0}+beta_{1}bar{x}$

Quindi

$E(bar{y})=E(beta_{0}+beta_{1}bar{x})=beta_{0}+beta_{1}bar{x}$

e dato che $hat{beta}_1$ è uno stimatore corretto

$E(hat{beta}_{1}bar{x})=beta_{1}bar{x}$

Allora in conclusione

$E(hat{beta}_{0})=E(bar{y})-E(hat{beta}_{1}bar{x})=beta_{0}+beta_{1}bar{x}-beta_{1}bar{x}=beta_{0}$

Tutto chiaro?

ermes*11
Sì sì, è chiaro. Grazie mille!

olaxgabry
Prego :-D .

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.