Errore di misura e coefficienti di regressione

Sk_Anonymous
Stavo leggendo qui

Ipotizziamo di avere il seguente modello:

\(y_i = \alpha + \beta x_i^* + \epsilon_i \)

Purtroppo \( x_i^* \) non è osservabile. Possiamo solo osservare:

\( x_i = x_i^* + \upsilon_i \)

Dove \( \upsilon_i \) è un errore di misura

Sostituendo si ricava

\( y_i = \alpha + \beta (x_i - \upsilon_i) + \epsilon_i = \alpha + \beta x_i + u_i \)

Dove \( u_i = \epsilon_i - \beta \upsilon_i \)

Questa è l'equazione in funzione del segnale rumoroso \( x_i \)

Ora il testo dice che \( x_i \) e \(u_i\) sono correlati. Questo ok. E che la stima di \( \beta \) è sottostimato. Questo non lo capisco

Ipotizzando \( \beta > 0\), se \( v \uparrow \Rightarrow x \uparrow \) ma anche \( u \downarrow \) quindi l'effetto sulla stima di \( \beta \) non mi è chiaro

Risposte
Sk_Anonymous
Hello, is anybody in there?
Just nod if you can hear me.
Is there anyone at home?


dasalv12
Lasciando perdere un attimo Wikipedia, in realtà il segno della distorsione (sovrastima o sottostima) dipende dal segno della covarianza fra $x$ ed $e$. Quindi se il termine d'errore è correlato positivamente con la variabile esplicativa del modello vi sarà una sovrastima del parametro, viceversa una sottostima.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).

Ma cosa succede se $Cov(x, e) != 0$ ?

Lo stimatore dei minimi quadrati convergerà a:

$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $

dove

$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$


*Tranne nel caso limite di variabile degenere.

Sk_Anonymous
"Injuria":
Lasciando perdere un attimo Wikipedia, in realtà il segno della distorsione (sovrastima o sottostima) dipende dal segno della covarianza fra $x$ ed $e$. Quindi se il termine d'errore è correlato positivamente con la variabile esplicativa del modello vi sarà una sovrastima del parametro, viceversa una sottostima.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).

Ma cosa succede se $Cov(x, e) != 0$ ?

Lo stimatore dei minimi quadrati convergerà a:

$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $

dove

$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$


*Tranne nel caso limite di variabile degenere.


Grandissimo. Grazie :smt023

markowitz
No ragazzi. [-X
Il segno della distorsione è da studiare nel problema delle variabili omesse ma nel caso di endogeneità prodotta da errori di misura (del tipo che tratti sopra) presente nei regressori ci si riconduce ad una sottostima sistematicamente del parametro. Si parla di attenuation bias
ecco una dimostrazione
https://it.wikipedia.org/wiki/Regressio ... _variabili

dasalv12
Ciao markowitz, hai ragione, in caso di errori di misura della variabile esplicativa gli effetti sono diversi, errore mio di confusione. Però anche in questo caso bisogna vedere il segno del parametro: infatti si parla di "attenuazione" ovvero di un appiattimento della retta di regressione e quindi di tendenza allo zero. Dunque se il parametro è positivo ci sarà una sottostima, se il parametro è negativo una sovrastima.

markowitz
Si certo hai ragione anche tu, ho tralasciato il caso $beta<0$.
Diciamo che intendevo una sottostima di $|beta|$ :D

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.