Correttezza degli stimatori dei minimi quadrati
Salve,
non so se posso sperare di ricevere un aiuto in questi giorni di festa, ma io provo a postare la domanda. Si tratta della dimostrazione di correttezza degli stimatori dei minimi quadrati (statistica inferenziale); questo è il caso dello stimatore B1 per il coefficiente angolare della retta di regressione.
$\sum_{i=1}^n frac {(x_i - \bar x)}{sum_{i=1}^n(x_i - \bar x)^2}E (Y_i) = \sum_{i=1}^n frac {(x_i - \bar x)}{sum_{i=1}^n (x_i - \bar x)^2}(\beta_0+\beta_1x_i)= (\sum_{i=1}^n (x_i - \bar x)) / (\sum_{i=1}^n (x_i - \bar x)^2)beta_0 +{\sum_{i=1}^n (x_i - \bar x)x_i}/{\sum_{i=1}^n (x_i-\bar x)^2}beta_1=beta_1$
poiché $\sum_{i=1}^n (x_i - \bar x) = 0$ e $\sum_{i=1}^n (x_i - \bar x)x_i = \sum_{i=1}^n (x_i - \bar x)^2$
Non mi è chiaro quest'ultimo passaggio. Da dove esce fuori quest'ultima uguaglianza???
Grazie in anticipo,
Andrea
non so se posso sperare di ricevere un aiuto in questi giorni di festa, ma io provo a postare la domanda. Si tratta della dimostrazione di correttezza degli stimatori dei minimi quadrati (statistica inferenziale); questo è il caso dello stimatore B1 per il coefficiente angolare della retta di regressione.
$\sum_{i=1}^n frac {(x_i - \bar x)}{sum_{i=1}^n(x_i - \bar x)^2}E (Y_i) = \sum_{i=1}^n frac {(x_i - \bar x)}{sum_{i=1}^n (x_i - \bar x)^2}(\beta_0+\beta_1x_i)= (\sum_{i=1}^n (x_i - \bar x)) / (\sum_{i=1}^n (x_i - \bar x)^2)beta_0 +{\sum_{i=1}^n (x_i - \bar x)x_i}/{\sum_{i=1}^n (x_i-\bar x)^2}beta_1=beta_1$
poiché $\sum_{i=1}^n (x_i - \bar x) = 0$ e $\sum_{i=1}^n (x_i - \bar x)x_i = \sum_{i=1}^n (x_i - \bar x)^2$
Non mi è chiaro quest'ultimo passaggio. Da dove esce fuori quest'ultima uguaglianza???
Grazie in anticipo,
Andrea
Risposte
Per favore, cambia il titolo del topic scegliendone uno che descrive il problema che devi affrontare.
Fatto. Chiedo scusa, quello era il titolo provvisorio e mi ero dimenticato di cambiarlo.
No problem.

Credo di aver risolto. Infatti:
$\sum_{i=1}^n (x_i - \bar x)^2 =\sum_{i=1}^n (x_i^2-2x_i\bar x + \bar x^2) =\sum_{i=1}^n x_i^2 -2\bar x\sum_{i=1}^nx_i+n\barx^2=\sum_{i=1}^nx_i^2-2\bar x*n\bar x+n\bar x^2=\sum_{i=1}^nx_i^2-n\bar x^2$
e $\sum_{i=1}^n (x_1 - \bar x)x_i = \sum_{i=1}^n (x_i^2-\bar x x_i) = \sum_{i=1}^n x_i^2 - \bar x \sum_{i=1}^n x_i = \sum_{i=1}^n x_i^2 - n\bar x^2$
Ovvero quelle due espressioni sono uguali, il rapporto è pari ad uno e dato che il coefficiente di $beta_0$ è pari a 0, il risultato finale è $beta_1$. E' giusto?
Ora però non capisco come si fa la dimostrazione per $B_0$. Si ha $E(B_0)=\sum_{i=1}^n [[1/n-(x_i-\bar x)\bar x]/ \{sum_{i=1}^n (x_i-\bar x)^2]]E(Y_i)$, con $E(Y_i)=beta_0+beta_1x_$.
Ho provato a distribuire la sommatoria ma non riesco ad ottenere che $E(B_0)=beta_0$, come richiesto. Potrei avere una dritta, please?
Andrea
$\sum_{i=1}^n (x_i - \bar x)^2 =\sum_{i=1}^n (x_i^2-2x_i\bar x + \bar x^2) =\sum_{i=1}^n x_i^2 -2\bar x\sum_{i=1}^nx_i+n\barx^2=\sum_{i=1}^nx_i^2-2\bar x*n\bar x+n\bar x^2=\sum_{i=1}^nx_i^2-n\bar x^2$
e $\sum_{i=1}^n (x_1 - \bar x)x_i = \sum_{i=1}^n (x_i^2-\bar x x_i) = \sum_{i=1}^n x_i^2 - \bar x \sum_{i=1}^n x_i = \sum_{i=1}^n x_i^2 - n\bar x^2$
Ovvero quelle due espressioni sono uguali, il rapporto è pari ad uno e dato che il coefficiente di $beta_0$ è pari a 0, il risultato finale è $beta_1$. E' giusto?
Ora però non capisco come si fa la dimostrazione per $B_0$. Si ha $E(B_0)=\sum_{i=1}^n [[1/n-(x_i-\bar x)\bar x]/ \{sum_{i=1}^n (x_i-\bar x)^2]]E(Y_i)$, con $E(Y_i)=beta_0+beta_1x_$.
Ho provato a distribuire la sommatoria ma non riesco ad ottenere che $E(B_0)=beta_0$, come richiesto. Potrei avere una dritta, please?
Andrea
Un altro modo per dimostare l'identità può essere il seguente:
$sum_{i=1}^{n}(x_{i}-bar{x})x_{i}=sum_{i=1}^{n}(x_{i}-bar{x})(x_{i}-bar{x}+\bar{x})=sum_{i=1}^{n}(x_{i}-bar{x})^{2}+sum_{i=1}^{n}(x_{i}-bar{x})\bar{x}$
Ma
$sum_{i=1}^{n}(x_{i}-bar{x})\bar{x}=\bar{x}sum_{i=1}^{n}x_{i}-sum_{i=1}^{n}\bar{x}^{2}=\bar{x}sum_{i=1}^{n}x_{i}-n\bar{x}^2=0$
Per lo stimatore $\hat{beta}_{0}$ puoi ragionare così: sai che
$hat{beta}_{0}=bar{y}-hat{beta}_{1}bar{x}$
Quindi
$E(hat{beta}_{0})=E(bar{y}-hat{beta}_{1}bar{x})=E(bar{y})-E(hat{beta}_{1}bar{x})$
Ora
$bar{y}=1/n sum_{i=1}^{n}(beta_{0}+beta_{1}x_{i})=beta_{0}+beta_{1}1/n sum_{i=1}^{n}x_{i}=beta_{0}+beta_{1}bar{x}$
Quindi
$E(bar{y})=E(beta_{0}+beta_{1}bar{x})=beta_{0}+beta_{1}bar{x}$
e dato che $hat{beta}_1$ è uno stimatore corretto
$E(hat{beta}_{1}bar{x})=beta_{1}bar{x}$
Allora in conclusione
$E(hat{beta}_{0})=E(bar{y})-E(hat{beta}_{1}bar{x})=beta_{0}+beta_{1}bar{x}-beta_{1}bar{x}=beta_{0}$
Tutto chiaro?
$sum_{i=1}^{n}(x_{i}-bar{x})x_{i}=sum_{i=1}^{n}(x_{i}-bar{x})(x_{i}-bar{x}+\bar{x})=sum_{i=1}^{n}(x_{i}-bar{x})^{2}+sum_{i=1}^{n}(x_{i}-bar{x})\bar{x}$
Ma
$sum_{i=1}^{n}(x_{i}-bar{x})\bar{x}=\bar{x}sum_{i=1}^{n}x_{i}-sum_{i=1}^{n}\bar{x}^{2}=\bar{x}sum_{i=1}^{n}x_{i}-n\bar{x}^2=0$
Per lo stimatore $\hat{beta}_{0}$ puoi ragionare così: sai che
$hat{beta}_{0}=bar{y}-hat{beta}_{1}bar{x}$
Quindi
$E(hat{beta}_{0})=E(bar{y}-hat{beta}_{1}bar{x})=E(bar{y})-E(hat{beta}_{1}bar{x})$
Ora
$bar{y}=1/n sum_{i=1}^{n}(beta_{0}+beta_{1}x_{i})=beta_{0}+beta_{1}1/n sum_{i=1}^{n}x_{i}=beta_{0}+beta_{1}bar{x}$
Quindi
$E(bar{y})=E(beta_{0}+beta_{1}bar{x})=beta_{0}+beta_{1}bar{x}$
e dato che $hat{beta}_1$ è uno stimatore corretto
$E(hat{beta}_{1}bar{x})=beta_{1}bar{x}$
Allora in conclusione
$E(hat{beta}_{0})=E(bar{y})-E(hat{beta}_{1}bar{x})=beta_{0}+beta_{1}bar{x}-beta_{1}bar{x}=beta_{0}$
Tutto chiaro?
Sì sì, è chiaro. Grazie mille!
Prego
.
