Domanda regressione

xml86
Quesito: Nella regressione lineare semplice se le 2 rette di regressione di Y a X e di X a Y coincidono significa che tra X e Y vi è:
1)indipendenza
2)perfetta correlazione lineare
3correlazione nulla

Vi spiego dove si ferma il mio ragionamento:

le 2 rette sono:

$y=a+bx$
$x=a^1+b^1y$

dove
$a=\bar y - b \bar x$ lo stello vale anche per $a^1$
$b=(cov(x,y))/(var(x))= (\sigma_(xy))/((\sigma_x)^2)................=$ inoltre =$ r* (\sigma_y)/(\sigma_x)$

allo stesso modo

$b^1= r* (\sigma_x)/(\sigma_y)$

dove r è il coefficiente di correlazione lineare

Affinchè le 2 rette coincidano deve aversi:

$a=a^1$
$b=b^1$

cioè

$r* (\sigma_y)/(\sigma_x) = r* (\sigma_x)/(\sigma_y)$

OSSERVAZIONE

$r= (\sigma_xy)/(max|\sigma_(xy)|)=(\sigma_(xy))/((\sigma_x)*(\sigma_y))=(cov(x,y))/(sqrt(var(x)*var(y))$

che misura il legame lineare fra X e Y, e si ha: $-1<=r<=1$

- $r>0$ in caso di concordanza fra X e Y
- $r=1$ in caso di perfetta dipendenza lineare diretta fra X e Y
- $r<0$ in caso di discordanza fra X e Y
- $r=-1$ in caso di perfetta dipendenza lineare inversa fra X e Y
- $r= 0$ in caso di non correlazione lineare o indifferenza fra X e Y, in particolare ciò si verifica in caso di indipendenza
stocastica (in generale non vale il viceversa)

Si noti inoltre che r è è indipendente da cambiamenti di unità di misura e di origine per le variabili X e Y



e qui mi blocco....come dovrei proseguire per giungere alla risposta? Fin qui il ragionamento è giusto? Grazie

Risposte
xml86
ragazzi nessuno sa darmi una mano?

Cheguevilla
Prima di tutto, ti faccio una domanda: hai mai visto la dimostrazione della scomposizione della varianza?

xml86
"Cheguevilla":
Prima di tutto, ti faccio una domanda: hai mai visto la dimostrazione della scomposizione della varianza?


Si penso che ti riferisci a quello che porta a queste conclusioni:

$(\sigma_y)^2=(1)/(N) \sum_{i=1}^N (y_i- \bar y)^2$ --> varianza totale

$(\sigma_e)^2=(1)/(N) \sum_{i=1}^N (y_i- f(x_i))^2$ --> varianza di errore

$(\sigma_f)^2=(1)/(N) \sum_{i=1}^N (f(x_i)- \bar y)^2$ --> varianza spiegata o di regressione

dove

$(\sigma_y)^2= (\sigma_e)^2 + (\sigma_f)^2$

Cheguevilla
Bene.
Comincia a pensare a cosa succede alle varianze quando c'è perfetta dipendenza in media biunivoca.

xml86
"Cheguevilla":
Bene.
Comincia a pensare a cosa succede alle varianze quando c'è perfetta dipendenza in media biunivoca.


Quando c'è perfetta dipendenza penso che $(\sigma_e)^2=0$ e quindi :

$(\sigma_y)^2= (\sigma_e)^2 + (\sigma_f)^2= (\sigma_y)^2=(\sigma_f)^2 $

e allora

$(1)/(N) \sum_{i=1}^N (y_i- \bar y)^2= (1)/(N) \sum_{i=1}^N (f(x_i)- \bar y)^2$

Cheguevilla
Un particolare.
Tu dici: $a= bar y - b bar y$ lo stesso vale anche per $a^1$.
A me pare di ricordare, ma non ho niente con me adesso, che $a^1= bar x - b^1x$.
Questo dovrebbe cambiare di molto le carte in tavola.

xml86
"Cheguevilla":
Un particolare.
Tu dici: $a= bar y - b bar y$ lo stesso vale anche per $a^1$.
A me pare di ricordare, ma non ho niente con me adesso, che $a^1= bar x - b^1x$.
Questo dovrebbe cambiare di molto le carte in tavola.


Io ho detto $a=bar y- b bar x$

poi non ho scritto $a^1$ che però dovrebbe essere:

$a^1= bar x - b^1 bar y$

non riesco proprio a proseguire...

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.