Differenza tra dipendenza e correlazione

carlo961
Qual è la differenza tra correlazione e dipendenza e chi implica chi?
So che la s indipendenza implica l incorrelazione , ma il contrario non vale. Il prof in classe ha detto che la correlazione implica la s dipendenza, ma se questo è vero non andrebbe in contraddizione con la prima affermazione? Qual è quindi la proprietà più forte?
Grazie mille a chiunque mi aiuti

Risposte
cooper1
Non so bene cosa vogliano dire le lettere s,l, comunque l'indipendenza implica l'incorrelazione.


se neghi quell'affermazioni hai quindi che se due v.a. sono correlate allora sono dipendenti. non c'è nessuna contraddizione (prova a pensare a cosa vuol dire logicamente negare la seguente: $A \Rightarrow B$)

L'implicazione contraria è in generale falsa. Diventa però vera nel caso di v.a. normali.

carlo961
Grazie mille, mi hai aiutato moltissimo.
Per s intendevo statisticamente. Quindi la proprietà più forte tra le 2 è la correlazione visto che implica la dipendenza?
Inoltre ti trovi che la correlazione dice se c'è un legame lineare tra le v.a. e se è 0 allora significa che la covarianza è nulla?
La dipendenza invece non saprei come definirla a parole

cooper1
"carlo96":
Quindi la proprietà più forte tra le 2 è la correlazione visto che implica la dipendenza?

non so cosa intendi con forte. potrebbe essere una motivazione accettabile.

"carlo96":
Inoltre ti trovi che la correlazione dice se c'è un legame lineare tra le v.a. e se è 0 allora significa che la covarianza è nulla?

in realtà l'affermazione è ribaltata: due v.a. si dicono incorrelate se la covarianza è nulla. anche perché per calcolare il coefficiente di correlazione ti serve la covarianza. comunque l'idea è quella.

"carlo96":
La dipendenza invece non saprei come definirla a parole

due variabili sono indipendenti se l'informazione di una delle due non aggiunge niente/non influisce sull'altra. per questa intuizione può essere utile pensare alla probabilità condizionata secondo cui
\[
P(A|B) = \frac{P(A \cap B)}{P(B)} = P(A), \quad P(B)\ne 0
\]
dove l'ultima uguaglianza segue dall'indipendenza. quindi la conoscenza di B non modifica la probabilità di A (B non influenza A)

carlo961
Va bene
Credo di aver capito
Grazie mille per tutto l aiuto
Il mio fondamentale problema è l insicurezza, cioè non sono mai sicuro di aver capito bene le cose. Essendo che comq stiamo parlando di variabili aleatorie credo sarebbe meglio dire che la pdf congiunta è uguale al prodotto delle marginali se sono indipendenti

cooper1
"carlo96":
Essendo che comq stiamo parlando di variabili aleatorie credo sarebbe meglio dire che la pdf congiunta è uguale al prodotto delle marginali se sono indipendenti

sono definizioni equivalenti. basta considerare come eventi gli eventi $\{ X \le x \}, { Y \le y \}$ e si ha che la probabilità si fattorizza.
oppure anche più generale usando le sigma-algebre generate: due v.a. sono indipendenti se lo sono le sigma algebre da loro generate.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.