Errore di misura e coefficienti di regressione
Stavo leggendo qui
Ipotizziamo di avere il seguente modello:
\(y_i = \alpha + \beta x_i^* + \epsilon_i \)
Purtroppo \( x_i^* \) non è osservabile. Possiamo solo osservare:
\( x_i = x_i^* + \upsilon_i \)
Dove \( \upsilon_i \) è un errore di misura
Sostituendo si ricava
\( y_i = \alpha + \beta (x_i - \upsilon_i) + \epsilon_i = \alpha + \beta x_i + u_i \)
Dove \( u_i = \epsilon_i - \beta \upsilon_i \)
Questa è l'equazione in funzione del segnale rumoroso \( x_i \)
Ora il testo dice che \( x_i \) e \(u_i\) sono correlati. Questo ok. E che la stima di \( \beta \) è sottostimato. Questo non lo capisco
Ipotizzando \( \beta > 0\), se \( v \uparrow \Rightarrow x \uparrow \) ma anche \( u \downarrow \) quindi l'effetto sulla stima di \( \beta \) non mi è chiaro
Ipotizziamo di avere il seguente modello:
\(y_i = \alpha + \beta x_i^* + \epsilon_i \)
Purtroppo \( x_i^* \) non è osservabile. Possiamo solo osservare:
\( x_i = x_i^* + \upsilon_i \)
Dove \( \upsilon_i \) è un errore di misura
Sostituendo si ricava
\( y_i = \alpha + \beta (x_i - \upsilon_i) + \epsilon_i = \alpha + \beta x_i + u_i \)
Dove \( u_i = \epsilon_i - \beta \upsilon_i \)
Questa è l'equazione in funzione del segnale rumoroso \( x_i \)
Ora il testo dice che \( x_i \) e \(u_i\) sono correlati. Questo ok. E che la stima di \( \beta \) è sottostimato. Questo non lo capisco
Ipotizzando \( \beta > 0\), se \( v \uparrow \Rightarrow x \uparrow \) ma anche \( u \downarrow \) quindi l'effetto sulla stima di \( \beta \) non mi è chiaro
Risposte
Hello, is anybody in there?
Just nod if you can hear me.
Is there anyone at home?
Just nod if you can hear me.
Is there anyone at home?
Lasciando perdere un attimo Wikipedia, in realtà il segno della distorsione (sovrastima o sottostima) dipende dal segno della covarianza fra $x$ ed $e$. Quindi se il termine d'errore è correlato positivamente con la variabile esplicativa del modello vi sarà una sovrastima del parametro, viceversa una sottostima.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).
Ma cosa succede se $Cov(x, e) != 0$ ?
Lo stimatore dei minimi quadrati convergerà a:
$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $
dove
$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$
*Tranne nel caso limite di variabile degenere.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).
Ma cosa succede se $Cov(x, e) != 0$ ?
Lo stimatore dei minimi quadrati convergerà a:
$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $
dove
$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$
*Tranne nel caso limite di variabile degenere.
"Injuria":
Lasciando perdere un attimo Wikipedia, in realtà il segno della distorsione (sovrastima o sottostima) dipende dal segno della covarianza fra $x$ ed $e$. Quindi se il termine d'errore è correlato positivamente con la variabile esplicativa del modello vi sarà una sovrastima del parametro, viceversa una sottostima.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).
Ma cosa succede se $Cov(x, e) != 0$ ?
Lo stimatore dei minimi quadrati convergerà a:
$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $
dove
$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$
*Tranne nel caso limite di variabile degenere.
Grandissimo. Grazie

No ragazzi.
Il segno della distorsione è da studiare nel problema delle variabili omesse ma nel caso di endogeneità prodotta da errori di misura (del tipo che tratti sopra) presente nei regressori ci si riconduce ad una sottostima sistematicamente del parametro. Si parla di attenuation bias
ecco una dimostrazione
https://it.wikipedia.org/wiki/Regressio ... _variabili

Il segno della distorsione è da studiare nel problema delle variabili omesse ma nel caso di endogeneità prodotta da errori di misura (del tipo che tratti sopra) presente nei regressori ci si riconduce ad una sottostima sistematicamente del parametro. Si parla di attenuation bias
ecco una dimostrazione
https://it.wikipedia.org/wiki/Regressio ... _variabili
Ciao markowitz, hai ragione, in caso di errori di misura della variabile esplicativa gli effetti sono diversi, errore mio di confusione. Però anche in questo caso bisogna vedere il segno del parametro: infatti si parla di "attenuazione" ovvero di un appiattimento della retta di regressione e quindi di tendenza allo zero. Dunque se il parametro è positivo ci sarà una sottostima, se il parametro è negativo una sovrastima.
Si certo hai ragione anche tu, ho tralasciato il caso $beta<0$.
Diciamo che intendevo una sottostima di $|beta|$
Diciamo che intendevo una sottostima di $|beta|$
