Dimostrare l'indipendenza di variabili aleatorie
Ciao!
Sto cercando in tutti i modi di capire come risolvere questa tipologia di esercizi.
Si tratta date due variabili aleatorie X, Y indipendenti, di verificare se X,Y+1 siano indipendenti.
Con le formule della covarianza ottengo che entrambe le coppie di variabili hanno la medesima espressione di covarianza.
Tuttavia resta il fatto che se la loro covarianza è nulla non è detto che siano indipendenti.
Da cosa potrei partire per portare a termine la verifica?
Grazie!
Sto cercando in tutti i modi di capire come risolvere questa tipologia di esercizi.
Si tratta date due variabili aleatorie X, Y indipendenti, di verificare se X,Y+1 siano indipendenti.
Con le formule della covarianza ottengo che entrambe le coppie di variabili hanno la medesima espressione di covarianza.
Tuttavia resta il fatto che se la loro covarianza è nulla non è detto che siano indipendenti.
Da cosa potrei partire per portare a termine la verifica?
Grazie!
Risposte
Ciao, questo è il mio suggerimento.
Se X e Z sono indipendenti, segue che E(XZ)=E(X)E(Z).
Poniamo Z=Y+1, E(XZ)=E(X)E(Y+1)
Ora, applicando le proprietà del valore atteso:
E(X)E(Y+1)=E(X)[E(Y)+1]=E(X)E(Y)+E(X). (1)
Consideriamo: E[X(Y+1)]=E(XY+X1)=E(XY)+E(X)=E(X)E(Y)+E(X) (2)
(1) e (2) danno stesso risultato. Nella (1) assumiamo che X e Z siano indipendenti.
Nella (2) applichiamo le proprietà additive del valore atteso e otteniamo lo stesso risultato nella (1).
Concludo dicendendo che X e Y+1 sono indipendenti.
Se X e Z sono indipendenti, segue che E(XZ)=E(X)E(Z).
Poniamo Z=Y+1, E(XZ)=E(X)E(Y+1)
Ora, applicando le proprietà del valore atteso:
E(X)E(Y+1)=E(X)[E(Y)+1]=E(X)E(Y)+E(X). (1)
Consideriamo: E[X(Y+1)]=E(XY+X1)=E(XY)+E(X)=E(X)E(Y)+E(X) (2)
(1) e (2) danno stesso risultato. Nella (1) assumiamo che X e Z siano indipendenti.
Nella (2) applichiamo le proprietà additive del valore atteso e otteniamo lo stesso risultato nella (1).
Concludo dicendendo che X e Y+1 sono indipendenti.
Grazie per il tuo suggerimento.
Io sono arrivato alla medesima conclusione sfruttando la covarianza
Cov(X,Y) = E[XY]-E[X]E[Y]
quindi:
Cov(X,Y+1) = E[X(Y+1)]-E[X]E[Y+1] =
= E[XY] + E[X] - E[X]E[Y] - E[X] = E[XY] - E[X]E[Y]
Arrivando a dire che hanno la stessa espressione di covarianza.
Nella tua versione hanno la stessa espressione di valore atteso.
Tuttavia mi chiedo: il ragionamento logico è corretto o è fallace?
Io sono arrivato alla medesima conclusione sfruttando la covarianza
Cov(X,Y) = E[XY]-E[X]E[Y]
quindi:
Cov(X,Y+1) = E[X(Y+1)]-E[X]E[Y+1] =
= E[XY] + E[X] - E[X]E[Y] - E[X] = E[XY] - E[X]E[Y]
Arrivando a dire che hanno la stessa espressione di covarianza.
Nella tua versione hanno la stessa espressione di valore atteso.
Tuttavia mi chiedo: il ragionamento logico è corretto o è fallace?
Corretto cio che scrivi.
Nota che pero io parto dalla denizione di indipendenza tra due variabili. Ovvero, Se X e Y sono ind allora E(XY)=E(X)E(Y).
Tu invece parti dal concetto (piu debole) di covarianza. Infatti, cm tu dici La covarianza nulla nn implica l'indipendenza. E' vero solo il contrario.
Questa è l'argomentazione per cui secondo me, è corretto partire dalla definizione stessa di indipendenza.
Nota che pero io parto dalla denizione di indipendenza tra due variabili. Ovvero, Se X e Y sono ind allora E(XY)=E(X)E(Y).
Tu invece parti dal concetto (piu debole) di covarianza. Infatti, cm tu dici La covarianza nulla nn implica l'indipendenza. E' vero solo il contrario.
Questa è l'argomentazione per cui secondo me, è corretto partire dalla definizione stessa di indipendenza.
Grazie elieli
Dunque se X e Y sono indipendenti allora E(XY)=E(X)(Y), ma in questo caso vale anche il contrario?
Perchè se non valesse le due dimostrazioni avrebbero la stessa debolezza
Dunque se X e Y sono indipendenti allora E(XY)=E(X)(Y), ma in questo caso vale anche il contrario?
Perchè se non valesse le due dimostrazioni avrebbero la stessa debolezza
Non capisco cosa intendi per contrario?
Il contrario sarebbe: se E(XY)=E(X)(Y) allora X e Y sono indipendenti
So che questo non vale, e mi ritorna lo stesso dubbio
So che questo non vale, e mi ritorna lo stesso dubbio

Solitamente si ha che:
If X and Y are independent, then the expectation operator E has the property
E[X Y] = E[X] E[Y].
Il contrario sarebbe da verificare. (sotto quali condizioni cio sarebbe vero? ...dovrei pensarci...)
Cmq io in generale quando voglio dimostrare qualkecs parto dalla definizione di cio che devo dimostrare.
If X and Y are independent, then the expectation operator E has the property
E[X Y] = E[X] E[Y].
Il contrario sarebbe da verificare. (sotto quali condizioni cio sarebbe vero? ...dovrei pensarci...)
Cmq io in generale quando voglio dimostrare qualkecs parto dalla definizione di cio che devo dimostrare.
Si puo' provare a dimostrare che se X e Y sono indipendenti lo sono anche Z = f(X) e W = g(Y).
Raga se ho invece X+Y,1 come dimostro l'indipendenza?
In generale si dimostra che se le v.a. X e Y sono indipendenti allora f(X) e g(Y) sono indipendenti, con f e g funzioni almeno misurabili.
Il modo di procedere, forse più intuitivo è quello di passare dalla funzione di ripartizione, per ipotesi abbiamo che
$P(X<=x,Y<=y)=P(X<=x)P(Y<=y)$ passando al caso da verificare abbiamo che $P(f(X)<=x,g(Y)<=y)=P(X<=f^{-1}(x),Y<=g^{-1}(y))$
essendo $f^{-1}$ e $g^{-1}$ le inverse generalizzate, ora chiamiamo $f^{-1}(x)=\bar{x}$ e $g^{-1}(y)=\bar{y}$, abbiamo che
$P(X<=f^{-1}(x),Y<=g^{-1}(y))=P(X<=\bar{x},Y<=\bar{y})=P(X<=\bar{x})P(Y<=\bar{y})$, l'ultima uguaglianza segue dall'ipotesi
che $X$ e $Y$ sono indipendenti.
Un consiglio sull'ultimo caso proposto quello tra una generica funzione aleatoria e una costante, ricordo che una costante può essere considerata
come una v.a. degenere in cui tutta la massa (probabilità) è concentrata sul valore della costante stessa (in termini tecnici una delta di Dirac)
inoltre una (funzione) costante è sicuramente misurabile, ma di più, è misurabile rispetto alla sigma algebra banale, cioè quella consistente di tutto lo spazio e dell'insieme vuoto.
Il modo di procedere, forse più intuitivo è quello di passare dalla funzione di ripartizione, per ipotesi abbiamo che
$P(X<=x,Y<=y)=P(X<=x)P(Y<=y)$ passando al caso da verificare abbiamo che $P(f(X)<=x,g(Y)<=y)=P(X<=f^{-1}(x),Y<=g^{-1}(y))$
essendo $f^{-1}$ e $g^{-1}$ le inverse generalizzate, ora chiamiamo $f^{-1}(x)=\bar{x}$ e $g^{-1}(y)=\bar{y}$, abbiamo che
$P(X<=f^{-1}(x),Y<=g^{-1}(y))=P(X<=\bar{x},Y<=\bar{y})=P(X<=\bar{x})P(Y<=\bar{y})$, l'ultima uguaglianza segue dall'ipotesi
che $X$ e $Y$ sono indipendenti.
Un consiglio sull'ultimo caso proposto quello tra una generica funzione aleatoria e una costante, ricordo che una costante può essere considerata
come una v.a. degenere in cui tutta la massa (probabilità) è concentrata sul valore della costante stessa (in termini tecnici una delta di Dirac)
inoltre una (funzione) costante è sicuramente misurabile, ma di più, è misurabile rispetto alla sigma algebra banale, cioè quella consistente di tutto lo spazio e dell'insieme vuoto.