Variabili aleatorie indipendenti rimangono tali dopo condizionate?

Thomas16
Ciao vi propongo questo credo semplice quesito che mi è venuto in mente:

EX: Siano $X$ e $Y$ due variabili aleatorie indipendenti su spazio di probabilità $(\Omega,\sigma,P)$. Sia ora $C \in \sigma$ e consideriamo la misura $P_C$ ottenuta condizionando rispetto a questo evento. $X$ e $Y$ sono anche variabili aleatorie sul nuovo spazio di misura $(\Omega,\sigma,P_C)$. La domanda è: "$X$ e $Y$ considerate come variabili aleatorie nel nuovo spazio di misura sono ancora indipendenti" ? Interpretare il risultato.

ciao ciao

Risposte
fu^2
Sia $C$ un evento in $\sigma$ di misura non zero, $P(C)>0$.

Osserva

(1)
$P_C$ è una misura di probabilità assolutamente continua rispetto a $P$. Questo implica che $P_C$ e $P$ sono legate da una derivata di Radon-Nikodym. In particolare puoi vedere che

$\frac{\text{d} P_C}{\text{d} P}(\omega)=\frac{1_{C}(\omega)}{P(C)}$.

(2) $X$ e $Y$ sono indipendenti se e soltanto se per ogni funzione misurabile $\phi$ e $\psi$ si ha che $E(\phi(X)\psi(Y))=E(\phi(X))E(\psi(Y))$.

Usando questi due fatti dovresti riuscire a provare che $X$ e $Y$ sono ancora indipendenti. Dimmi se trovi problemi o non sei d'accordo con quello che ho detto.

Thomas16
Azz a me veniva che le funzioni non venivano più indipendenti... Quindi o il tuo plan non si porta a termine in maniera tranquilla, oppure ho preso una cantonata io... :?

fu^2
Può benissimo essere che per fare tutti i passaggi bisogna fare ipotesi aggiuntive su $C$ e che mi sia sbagliato, non sarebbe la prima volta :-) prova a postare il tuo controesempio.

Thomas16
Mmm... mi sono accorto che il mio controesempio era toppato...

D'altro canto, seguendo il tuo approccio o altre vie mi pare che per ora riesco a verificare l'indipendenza delle nuove variabili solo se $C$ appartiene alla sigma algebra generata da $X$ o alla sigma algebra generata da $Y$...

Thomas16
Per essere piu' esplicito, il procedimento che proponi parte mi sembra dal calcolare:

$\int_\Omega \phi(X) \psi(Y) dP_C=\frac{1}{P(C)}\int_\Omega \phi(X) \psi(Y) 1_C dP$

L'idea ora se noi sappiamo per esempio che $C= {X \in A}$ per un qualche $A$ Boreliano, allora esiste una $\tilde \phi$ t.c. $\tilde \phi(X)=1_C$, essendo $\tilde \phi=1_A$. Questo permette di applicare le ipotesi sulla indipendenza delle due variabili nello spazio di misura iniziale. Analogamente si poteva procedere se $C= {Y \in B}$. Con un generico elemento $C$ però questi passaggi non mi risultano immediati... Forse il quesito che mi sono posto è piu' carino di quel che pensavo :lol:

fu^2
Per dimostrare devi far vedere che per ogni $\phi$ e $\psi$ (misurabili rispetto alla $\sigma$ algebra generata da $C$) si ha l'uguaglianza, non basta dire che esiste $\phi$ o $\psi$ per trovare le indicatrici. Comunque questo metodo effettivamente è usare i cannoni per uccidere le formiche (*), se la probabilità condizionata è solo rispetto a un evento allora hai, per definizione,

$P_C(X\in A, Y\in B) = (P({X\in A,C}\cap{ Y\in B,C})) /(P(C))$

Da qui ti lascio provare che ${X\in A,C}$ e ${ Y\in B,C}$ sono due eventi che sono ancora indipendenti usando l'ipotesi di indipendenza di $X$ e $Y$, da cui puoi concludere.



---------------------
(*)una visione astratta come quella che ti ho proposto può essere utile se al posto di un evento condizioni rispetto a una $\sigma$ algebra.

Thomas16
Ah si ma io infatti avevo agito in quel modo per quello il problema mi sembrava semplice... Stavo seguendo il tuo procedimento per venirti incontro ed intavolare una discussione con il metodo che suggerivi e senza saltare da un metodo all'altro se possibile, per evitare confusioni... alla fine il risultato non deve cambiare :)

Giusto per intenderci, chiarisco i conti che ho fatto, perché mi sembra di non essere stato molto chiaro. Supponiamo che le variabili siano reali. $\phi$ e $\psi$ nei miei conti sono generiche funzioni misurabili da $R$ in $R$. Cosa c'entra la $\sigma$ algebra generata da $C$ che vive su $\Omega$? (peraltro la sigma algebra generata da un insieme non è abbastanza banale?) :(

Le funzioni $\phi$ e $\psi$ sono quindi generiche. La $\tilde \phi$ è una funzione ausiliare (univocamente definita da $C$) che interviene dopo, in modo da scrivere $1_C$ in un modo che rende possibile applicare la ipotesi di indipendenza iniziale, altrimenti non riesci a sbarazzarti della indicatrice.

(Analogamente con l'altro procedimento non mi riesce di usare l'ipotesi di indipendenza di $X$ e $Y$ senza avere alcuna assunzione su $C$... inizialmente mi sembrava di poterlo fare, ma mi sono accorto che certi passaggi non erano (almeno no palesemente) leciti)

Thomas

Thomas16
Per ora limitiamoci a condizionare rispetto ad un evento :). Poi possiamo provare a generalizzare condizionando rispetto ad una generica $\sigma$-algebra, che non è una idea malvagia :)

DajeForte
Io direi che puoi perdere l'indipendenza.
Se lanci due monete e consideri X e Y come i risultati, hai che le variabili sono indipendenti. Se cambi misura come fai a sapere se le variabili rimangano indipendenti? Ad esempio C = i lanci sono uguali

Thomas16
Yes, secondo me funziona come contro-esempio! Magari DajeForte potresti formalizzarlo per completezza e sicurezza?

Faccio notare che il tuo $C$ non puo' appartenere alla sigma algebra generata da $X$ o a quella generata da $Y$.

In effetti se per esempio $C={X=Y}$ fosse uguale a ${X \in A}$ per un qualche $A$, allora si avrebbe:

$C={X=Y}={X \in A}={Y \in A}$

Ora avremmo quindi usando l'indipendenza:

$P(C)=P(C,C)=P({X \in A},{Y \in A})=P({X \in A})P( {Y \in A})=P(C)^2$

che e' una contraddizione a meno di casi banali....

Intuitivamente direi non puoi descrivere gli eventi che dicono quando due variabili sono uguali usando solo il valore di una, se queste variabili sono indipendenti...

DajeForte
Prova a formaluzarlo te, così ti alleni.
Io poi te lo riguardo.

fu^2
Per giustizia devo ammettere che ho riempito il post di cavolate, devo veramente scusarmene.

Se prendi quello che avevo scritto

"fu^2":

$ P_C(X\in A, Y\in B) = (P({X\in A,C}\cap{ Y\in B,C})) /(P(C)) $

Da qui ti lascio provare che $ {X\in A,C} $ e $ { Y\in B,C} $ sono due eventi che sono ancora indipendenti usando l'ipotesi di indipendenza di $ X $ e $ Y $, da cui puoi concludere.


ho fatto un errore imperdonabile, ovvero che, anche se fattorizzi $(P({X\in A,C}\cap{ Y\in B,C})) /(P(C)$, per ritrovare la probabilità condizionata ti serve un fattore $P(C)$ extra che non hai. Mi scuso per averti fatto perdere tempo. Morale: bisogna fare i calcoli in dettaglio prima di scrivere sul forum. :oops: :oops:

Thomas16
Non preoccuparti :!: Anzi ti ringrazio per la discussione :wink:

Thomas16
Per quanto riguarda la formalizzazione, volendo rimanere ad un livello basso, l'idea e' che dopo che si e' condizionato al nuovo evento a meno di insiemi di misura nulla (secondo la nuova misura) le due variabili sono equivalenti alla medesima variabile $Z$. Ora $Z$ non e' indipendente da $Z$ (a meno che $Z$ non sia una funzione costante direi cosa che supponiamo non essere).

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.