Eta quadro (rapporto di correlazione)
ho questa domanda:
data una distribuzione doppia x,y determinare, utilizzando la scomposizione della varianza, l'indice $\eta_y^2$ e illustrarne il significato.
devo solo dire che è il rapporto tra la varianza delle medie condizionate di y|x e la varianza di y e che rappresenta il grado di dipendenza funzionale della y dalla x???
data una distribuzione doppia x,y determinare, utilizzando la scomposizione della varianza, l'indice $\eta_y^2$ e illustrarne il significato.
devo solo dire che è il rapporto tra la varianza delle medie condizionate di y|x e la varianza di y e che rappresenta il grado di dipendenza funzionale della y dalla x???
Risposte
Non so cosa intendi con "solo".
C'è una dimostrazione dietro ed un discorso interessante.
Comunque il concetto che sta alla base è quello che hai espresso tu.
C'è una dimostrazione dietro ed un discorso interessante.
Comunque il concetto che sta alla base è quello che hai espresso tu.
con solo intendo che non devo fare tutto il procedimento della scomposizione della varianza... dice utilizzando... prendo la scomposizione, la parte finale, dico cosa indico con eta quadro e il suo significato... quindi una frasetta???
oppure pensi che chieda anche tutta la scomposizione della varianza? (perchè allora avrei un altra dimostrazione da imparare T_T)
oppure pensi che chieda anche tutta la scomposizione della varianza? (perchè allora avrei un altra dimostrazione da imparare T_T)
A mio parere, la scomposizione della varianza come dimostrazione andrebbe saputa comunque, e non credo che sia una dimostrazione spaventosamente difficile.
Soprattutto, non è da "imparare".
Anche tralasciando la dimostrazione, secondo me, quello che conta è partire dal fatto che la varianza si possa scomporre in due quantità: la varianza delle medie e la media delle varianze.
Ognuna delle due quantità ha un significato ben preciso:
Se la varianza tra i gruppi è più o meno costante (quindi le medie dei gruppi sono tra loro simili, quindi c'è indipendenza), la maggior parte della varianza è composta dalla varianza all'interno dei singoli gruppi.
Se, al contrario, la varianza è composta in buona parte dalla varianza tra le medie dei gruppi (ovvero le medie dei gruppi sono tra loro diverse), significa che c'è dipendenza in media tra le due variabili.
Soprattutto, non è da "imparare".
Anche tralasciando la dimostrazione, secondo me, quello che conta è partire dal fatto che la varianza si possa scomporre in due quantità: la varianza delle medie e la media delle varianze.
Ognuna delle due quantità ha un significato ben preciso:
Se la varianza tra i gruppi è più o meno costante (quindi le medie dei gruppi sono tra loro simili, quindi c'è indipendenza), la maggior parte della varianza è composta dalla varianza all'interno dei singoli gruppi.
Se, al contrario, la varianza è composta in buona parte dalla varianza tra le medie dei gruppi (ovvero le medie dei gruppi sono tra loro diverse), significa che c'è dipendenza in media tra le due variabili.
grazie per la spiegazione e per imparare intendo che non è una dimostrazione che mi viene cosi naturale quindi qualche passaggio da imparare ce l'ho, ovviamente capendo i passaggi e non imparando a memoria (cosa per me impossibile).
grazie ancora per la spiegazione
grazie ancora per la spiegazione
ho compreso quello ceh mi hai scritto solo che nel rifare la risposta mi perdo tra le varie varianze e le medie... mi puoi dire se va bene (grazie):
sia x,y una variabile casuale bidimensionale, la varianza di y può esprimersi come la somma di due quantità non negative collegate alla distribuzione di y subordinata alla x.
$V(y)= E(V(y|x))+ V(E(y|x))$
$\eta^2=(V(E(y|x)))/(V(y))$
tanto è maggiore il valore di $\eta^2$ tanto più il valore della varianza di y è dovuto al variare delle medie condizionate della y alla x.
$\eta^2=1$ $rarr$ $y=\phi(x)$ e quindi y è descrivibile tramite una funzione di x
tanto minore è il valore di $\eta^2$ tanto più il valore della varianza di y è dovuto alla varianza all'interno dei singoli gruppi
$\eta^2=0$ $rarr$ $\phi(x)=\mu(y)$ e quindi y è regressivamente indipendente da x
sia x,y una variabile casuale bidimensionale, la varianza di y può esprimersi come la somma di due quantità non negative collegate alla distribuzione di y subordinata alla x.
$V(y)= E(V(y|x))+ V(E(y|x))$
$\eta^2=(V(E(y|x)))/(V(y))$
tanto è maggiore il valore di $\eta^2$ tanto più il valore della varianza di y è dovuto al variare delle medie condizionate della y alla x.
$\eta^2=1$ $rarr$ $y=\phi(x)$ e quindi y è descrivibile tramite una funzione di x
tanto minore è il valore di $\eta^2$ tanto più il valore della varianza di y è dovuto alla varianza all'interno dei singoli gruppi
$\eta^2=0$ $rarr$ $\phi(x)=\mu(y)$ e quindi y è regressivamente indipendente da x
Direi che va bene.
Io per mia natura non sono molto sintetico, ma è un mio difetto.
Io per mia natura non sono molto sintetico, ma è un mio difetto.
A prescindere da tutto il resto, non riesco a capire il significato del termine $V(E(y|x))$
Tale termine dovrebbe essere nullo. Infatti qualsiasi var. aleatoria si prenda, diciamo U,
il suo valore atteso $E(U)$ è un numero, non una var. aleatoria.
Ora la varianza di una "costante" è zero.
Quindi un'espressione del tipo: $V(E(U))$, qualunque sia U, deve essere zero!
Forse c'è qualcosa che mi sfugge.
Tale termine dovrebbe essere nullo. Infatti qualsiasi var. aleatoria si prenda, diciamo U,
il suo valore atteso $E(U)$ è un numero, non una var. aleatoria.
Ora la varianza di una "costante" è zero.
Quindi un'espressione del tipo: $V(E(U))$, qualunque sia U, deve essere zero!
Forse c'è qualcosa che mi sfugge.

non ho capito il tuo discorso comunque se le medie condizionate si discostano dalla media perchè dovrebbe essere nulla?
@cheguevilla: io trovo il mio essere sintetico un difetto... anzi se le spiegazioni sono un po' prolisse magari chiariscono di più e come vedi questa volta ha funzionato
@cheguevilla: io trovo il mio essere sintetico un difetto... anzi se le spiegazioni sono un po' prolisse magari chiariscono di più e come vedi questa volta ha funzionato
"seascoli":
A prescindere da tutto il resto, non riesco a capire il significato del termine $V(E(y|x))$
Tale termine dovrebbe essere nullo. Infatti qualsiasi var. aleatoria si prenda, diciamo U,
il suo valore atteso $E(U)$ è un numero, non una var. aleatoria.
Ora la varianza di una "costante" è zero.
Quindi un'espressione del tipo: $V(E(U))$, qualunque sia U, deve essere zero!
Forse c'è qualcosa che mi sfugge.
$E(y|x)$ dovrebbe essere la speranza condizionata, che è una v.a.:
http://en.wikipedia.org/wiki/Conditional_expectation
Si, $E(Y|x)$, correttamente parlando, è la media della variabile $Y$ dato il verificarsi dell'evento $x$.
Quindi, si chiama "media condizionata", nel senso che è la media di una variabile sapendo che si è verificato un certo risultato della variabile condizionante.
Si può dimostrare che $E(E(Y|x))=E(Y)$.
La varianza delle medie condizionate è nulla se e solo se le due variabili sono indipendenti in media.
Ovvero, quando le medie condizionate sono tutte uguali tra loro. Questo significa che le manifestazioni della variabile $X$ non causano variazioni (in media) della variabile $Y$.
Quindi, si chiama "media condizionata", nel senso che è la media di una variabile sapendo che si è verificato un certo risultato della variabile condizionante.
Si può dimostrare che $E(E(Y|x))=E(Y)$.
La varianza delle medie condizionate è nulla se e solo se le due variabili sono indipendenti in media.
Ovvero, quando le medie condizionate sono tutte uguali tra loro. Questo significa che le manifestazioni della variabile $X$ non causano variazioni (in media) della variabile $Y$.
Allora dovreste scrivere
$V(E(Y|X))$
La stessa scrittura E(y) va evitata, perchè comunque data una costante y, si ha banalmente E(y)=y.
Invece con E(Y), dove Y è una variabile aleatoria, si intende tutt'altra cosa.
Sono troppo pignolo?
$V(E(Y|X))$
La stessa scrittura E(y) va evitata, perchè comunque data una costante y, si ha banalmente E(y)=y.
Invece con E(Y), dove Y è una variabile aleatoria, si intende tutt'altra cosa.
Sono troppo pignolo?
"seascoli":No, se vogliamo essere proprio pignoli, bisogna scrivere, come ho scritto sopra, $V(E(Y|x))$.
Allora dovreste scrivere
$V(E(Y|X))$
La stessa scrittura E(y) va evitata, perchè comunque data una costante y, si ha banalmente E(y)=y.
Invece con E(Y), dove Y è una variabile aleatoria, si intende tutt'altra cosa.
Sono troppo pignolo?
Dove Y maiuscola rappresenta la variabile, mentre x minuscola rappresenta il singolo evento della variabile.
Per essere esageratamente pignoli, $V(E(Y|x_k))$.
Non sono d'accordo, per cui insisto, anche se si tratta di sottigliezze.
Qualunque sia il valore $x_k$, il valore aspettato $E(Y|X=x_k)$ è un numero che si può indicare con $\mu_k$.
Ora si ripresenta lo stesso problema da me segnalato, cioè:
$V(\mu_k)$ significa la varianza della costante $\mu_k$, quantità che è nulla per ogni k.
Quindi torno a difendere la mia notazione
$E(Y|X)$
L'operatore E agisce su Y, non su X (che resta generico e aleatorio), per cui dopo che l'operatore di media ha agito, si ottiene un valore aspettato che è ancora aleatorio, e che va indicato, per esempio, con $\mu_Y(X)$.
A questo punto sì che possiamo pretendere che la varianza di quest'ultima entità non sia banalmente nulla:
$V(E(Y|X))=V(\mu_Y(X))=... $ un certo numero positivo
Qualunque sia il valore $x_k$, il valore aspettato $E(Y|X=x_k)$ è un numero che si può indicare con $\mu_k$.
Ora si ripresenta lo stesso problema da me segnalato, cioè:
$V(\mu_k)$ significa la varianza della costante $\mu_k$, quantità che è nulla per ogni k.
Quindi torno a difendere la mia notazione
$E(Y|X)$
L'operatore E agisce su Y, non su X (che resta generico e aleatorio), per cui dopo che l'operatore di media ha agito, si ottiene un valore aspettato che è ancora aleatorio, e che va indicato, per esempio, con $\mu_Y(X)$.
A questo punto sì che possiamo pretendere che la varianza di quest'ultima entità non sia banalmente nulla:
$V(E(Y|X))=V(\mu_Y(X))=... $ un certo numero positivo
Sinceramente, trovo di poco significato la notazione $E(Y|X)$.
La media della variabile $Y$ condizionata dalla variabile $X$ (che è quello che dice la notazione) non mi dà altro che la media di $Y$ ovvero la media delle medie condizionate.
La notazione $V(E(Y|x_k))$ mi indica la varianza delle medie condizionate della variabile $Y$.
Se volessimo essere pignoli fino in fondo, si potrebbe aggiungere un $k=1...K$.
La media della variabile $Y$ condizionata dalla variabile $X$ (che è quello che dice la notazione) non mi dà altro che la media di $Y$ ovvero la media delle medie condizionate.
La notazione $V(E(Y|x_k))$ mi indica la varianza delle medie condizionate della variabile $Y$.
Se volessimo essere pignoli fino in fondo, si potrebbe aggiungere un $k=1...K$.
"Cheguevilla":
A mio parere, la scomposizione della varianza come dimostrazione andrebbe saputa comunque, e non credo che sia una dimostrazione spaventosamente difficile.
Soprattutto, non è da "imparare".
Anche tralasciando la dimostrazione, secondo me, quello che conta è partire dal fatto che la varianza si possa scomporre in due quantità: la varianza delle medie e la media delle varianze.
Ognuna delle due quantità ha un significato ben preciso:
Se la varianza tra i gruppi è più o meno costante (quindi le medie dei gruppi sono tra loro simili, quindi c'è dipendenza), la maggior parte della varianza è composta dalla varianza all'interno dei singoli gruppi.
Se, al contrario, la varianza è composta in buona parte dalla varianza tra le medie dei gruppi (ovvero le medie dei gruppi sono tra loro diverse), significa che c'è indipendenza in media tra le due variabili.
un saluto a tutti!
cercando informazioni sulla dipendenza tra variabili sono capitato in questo forum, che avevo già visitato in precedenza trovando utili consigli su altri argomenti.
ho quindi deciso di iscrivermi!
seguendo il discorso mi sono imbattuto in questo post di Cheguevilla, che non mi torna!
concentriamoci sulle parole in grassetto: ebbene, se con gruppi intendiamo tutti gli E[Y/X] allora è quando questi sono tutti uguali che le variabili sono indipendenti, viceversa quando sono diversi siamo in caso di dipendenza...
per far sì che l'indice sia 0 (indipendenza) allora la VAR[E[Y/X]] dev'essere 0 e quindi tutti gli E[Y/X] devono essere uguali...
:S sperando di non aver detto qualcosa di stupido già come primo messaggio e scusandomi per aver riesumato questo vecchio topic vi saluto e rimango in attesa di una risposta.
lorixillo
up

Epperforza non ti torna...
Si, ho invertito indipendenza e dipendenza.
Provvedo subito a correggere.
Si, ho invertito indipendenza e dipendenza.
Provvedo subito a correggere.
[mod="Fioravante Patrone"]
Ti faccio notare che al tuo secondo post hai violato il regolamento del forum, che dovresti conoscere.[/mod]
"lorixillo":
up
Ti faccio notare che al tuo secondo post hai violato il regolamento del forum, che dovresti conoscere.[/mod]
scusatemi, erano passati sono 2 giorni...
in altri forum bisogna aspettare un giorno quindi mi son confuso
comunque ho capito, era una distrazione!
grazie ancora e alla prossima
in altri forum bisogna aspettare un giorno quindi mi son confuso

comunque ho capito, era una distrazione!
grazie ancora e alla prossima