Spiegazione valore atteso condizionato
Buon giorno a tutti!
Avrei bisogno di un consiglio su come interpretare la definizione di valore atteso condizionato. Inizio scrivendola:
Ora, la definizione in sé non ha nulla di complicato, quello che però non riesco a vedere è il suo significato, la sua motivazione.
È chiaro che l'idea di valore atteso di una v.a. condizionato da una sigma algebra serve per estendere quello del caso discreto [\(P(A|B) \cdot P(B) = P(A \cap B)\)] però non vedo come questa definizione adempia allo scopo.
Per fare un esempio, mi è chiaro che la def. di v.a. ha lo scopo di "trasportare" una misura di probabilità da uno spazio probabilizzato \((E, \mathcal E, P)\) ad uno spazio probabilizzabile \((F, \mathcal F)\), e questo motiva la richiesta che la controimmagine di un misurabile sia ancora un misurabile.
Io sto cercando di trovare una spiegazione del genere anche per la def. di v.a. condizionato.
Un'altra cosa che mi lascia un attimo perplesso è la terza richiesta: \(\displaystyle \int_G Y \,\, dP = \int_G Z \,\, dP, \hspace{0.5cm} \forall G \in \mathcal{G}\).
Io so che \(\displaystyle \int_\Omega Y \,\, dP\) è il valore atteso di \(Y\), mentre \(\displaystyle \int_G \,\, dP\) è la probabilità di \(G\); ma che cosa è questa loro combinazione, cioè \(\displaystyle \int_G Y \,\, dP\)? Che significato ha?
Quello che ho pensato, finora, è che una possibile motivazione potrebbe essere la seguente: in uno spazio di probabilità \((\Omega, \mathcal{A}, P)\), noi possiamo misurare solo sul sottospazio \((\Omega, \mathcal{G}, P)\) [per qualche motivo] e ci si presenta il problema di dover studiare una \(Y\) che è misurabile rispetto ad \(\mathcal A\), ma non rispetto a \(\mathcal G\). Il nostro scopo è quindi quello di misurare \(Y\) rispetto a \(\mathcal G\), anche se non lo si potrebbe fare, e quindi introduciamo una nuova v.a. [\(Z = E(Y | \mathcal G)\), appunto] che faccia proprio questo.
Purtroppo, cercando su altri libri o risorse ho trovato sempre e solo la definizione, senza però una risposta a queste domande, e quindi mi rifaccio a voi
Grazie a tutti per l'aiuto!
Avrei bisogno di un consiglio su come interpretare la definizione di valore atteso condizionato. Inizio scrivendola:
"Appunti":
Definizione (valore atteso condizionato).
Sia \((\Omega, \mathcal{A}, P)\) uno spazio di probabilità e \(Y\) una variabile aleatoria; sia inoltre \(\mathcal{G}\) una sub \(\sigma\)-algebra di \(\mathcal{A}\).
Il valore atteso di \(Y\) condizionato dalla \(\sigma\)-algebra \(\mathcal{G}\) è l'unica variabile aleatoria \(Z\) che soddisfa
[*:16pciqnc] \(Z \in \mathcal{L}^1\)[/*:m:16pciqnc]
[*:16pciqnc] \(Z\) è \(\mathcal{G}\) misurabile[/*:m:16pciqnc]
[*:16pciqnc] \(\displaystyle \int_G Y \,\, dP = \int_G Z \,\, dP, \hspace{0.5cm} \forall G \in \mathcal{G}\).[/*:m:16pciqnc][/list:u:16pciqnc]
Ora, la definizione in sé non ha nulla di complicato, quello che però non riesco a vedere è il suo significato, la sua motivazione.
È chiaro che l'idea di valore atteso di una v.a. condizionato da una sigma algebra serve per estendere quello del caso discreto [\(P(A|B) \cdot P(B) = P(A \cap B)\)] però non vedo come questa definizione adempia allo scopo.
Per fare un esempio, mi è chiaro che la def. di v.a. ha lo scopo di "trasportare" una misura di probabilità da uno spazio probabilizzato \((E, \mathcal E, P)\) ad uno spazio probabilizzabile \((F, \mathcal F)\), e questo motiva la richiesta che la controimmagine di un misurabile sia ancora un misurabile.
Io sto cercando di trovare una spiegazione del genere anche per la def. di v.a. condizionato.
Un'altra cosa che mi lascia un attimo perplesso è la terza richiesta: \(\displaystyle \int_G Y \,\, dP = \int_G Z \,\, dP, \hspace{0.5cm} \forall G \in \mathcal{G}\).
Io so che \(\displaystyle \int_\Omega Y \,\, dP\) è il valore atteso di \(Y\), mentre \(\displaystyle \int_G \,\, dP\) è la probabilità di \(G\); ma che cosa è questa loro combinazione, cioè \(\displaystyle \int_G Y \,\, dP\)? Che significato ha?
Quello che ho pensato, finora, è che una possibile motivazione potrebbe essere la seguente: in uno spazio di probabilità \((\Omega, \mathcal{A}, P)\), noi possiamo misurare solo sul sottospazio \((\Omega, \mathcal{G}, P)\) [per qualche motivo] e ci si presenta il problema di dover studiare una \(Y\) che è misurabile rispetto ad \(\mathcal A\), ma non rispetto a \(\mathcal G\). Il nostro scopo è quindi quello di misurare \(Y\) rispetto a \(\mathcal G\), anche se non lo si potrebbe fare, e quindi introduciamo una nuova v.a. [\(Z = E(Y | \mathcal G)\), appunto] che faccia proprio questo.
Purtroppo, cercando su altri libri o risorse ho trovato sempre e solo la definizione, senza però una risposta a queste domande, e quindi mi rifaccio a voi

Grazie a tutti per l'aiuto!
Risposte
Puoi interpretare la sigma-algebra associata ad $\Omega$ come l'insieme di informazioni che si possiede sull'insieme $\Omega$. La media condizionata rispetto ad una sotto-sigma algebra serve a valutare il valore atteso di una v.a. quando non conosci tutta la sigma-algebra ma solo una sua sotto-sigma algebra... ovvero hai un insieme di informazioni sullo spazio di probabilità più piccolo dell'insieme delle informazioni che ti può dare tutta la sigma-algebra... Non abbiamo una conoscenza "completa" dello spazio degli eventi e il valore di aspettazione di una variabile risente di ciò.
( O almeno, in breve, la interpreto così
)
In realtà alla definizione di media condizionata ci puoi arrivare così:
1. definisci la proababilità condizionata rispetto ad un evento \[ P[ \cdot \vert A ] \],
2. definisci la media condizionata rispetto ad un evento (A è un elemento della sigma-algebra):
\[ E[ X \vert A ]=\int X(\omega) P [ d \omega \vert A ], \]
3. sia $B_i$ una successione di elementi della sigma-algebra, a due a due disgiunti, che ricopre tutto $\Omega$. Sia $\mathcal{F}$ la sigma-algebra generata dai $B_i$. Definisci la mappa $\mathcal{F}$-misurabile \[ E[ X \vert F ] \] data da:
\[ E[ X \vert \mathcal{F} ](w)=E[ X \vert B_i ] \mbox{ se e solo se }\omega\in B_i.\]
Allora, tale mappa verifica le proprietà che hai elencato tu valere per la media condizionata.. quindi euristicamente vuoi pensare la media condizionata come un'estensione di tale mappa. La definisci allora proprio come la mappa che verifica tali proprietà! (ora però non so quanto sono stata chiara
)
Inoltre,
\[
\int_G Y\ d P = \int_{\Omega} 1_G Y\ d P.
\]
Penso inoltre che puo pensare la misura $P$ ristetta su $G$ (è ancora una misura) e quindi intepretare l'integrale come il valore atteso di $Y$ rispetto alla misura $P$ ristetta su $G$ .
Cos'è che non capisci?
( O almeno, in breve, la interpreto così

In realtà alla definizione di media condizionata ci puoi arrivare così:
1. definisci la proababilità condizionata rispetto ad un evento \[ P[ \cdot \vert A ] \],
2. definisci la media condizionata rispetto ad un evento (A è un elemento della sigma-algebra):
\[ E[ X \vert A ]=\int X(\omega) P [ d \omega \vert A ], \]
3. sia $B_i$ una successione di elementi della sigma-algebra, a due a due disgiunti, che ricopre tutto $\Omega$. Sia $\mathcal{F}$ la sigma-algebra generata dai $B_i$. Definisci la mappa $\mathcal{F}$-misurabile \[ E[ X \vert F ] \] data da:
\[ E[ X \vert \mathcal{F} ](w)=E[ X \vert B_i ] \mbox{ se e solo se }\omega\in B_i.\]
Allora, tale mappa verifica le proprietà che hai elencato tu valere per la media condizionata.. quindi euristicamente vuoi pensare la media condizionata come un'estensione di tale mappa. La definisci allora proprio come la mappa che verifica tali proprietà! (ora però non so quanto sono stata chiara

Inoltre,
\[
\int_G Y\ d P = \int_{\Omega} 1_G Y\ d P.
\]
Penso inoltre che puo pensare la misura $P$ ristetta su $G$ (è ancora una misura) e quindi intepretare l'integrale come il valore atteso di $Y$ rispetto alla misura $P$ ristetta su $G$ .
Cos'è che non capisci?
Grazie, adesso è un po' più chiaro; soprattutto, riesco a collegare il concetto "banale" [probabilità che si verifichi \(A\) sapendo che si è verificato \(B\)] con questo più generale [dove il "sapendo" viene recuperato dal concetto di informazione che hai introdotto].

Riprendo questo vecchio post perché mi ritrovo con gli stessi identici dubbi sul Teorema fondamentale di Kolmogorov.
Data una v.a. semplice $ X:Omega ->RR $ definita su uno spazio di probabilità $ (Omega,F,P) $ , con $F$ la più grande $sigma$-algebra su $Omega$ e $G$ una sub $sigma$-algebra$ sub F $, il teorema stabilisce che per $X$ integrabile esiste una variabile $Y$ che gode delle seguenti proprietà:
1) $Y$ è integrabile (cioè $ rArrE[|Y|]<\infty $)
2) $Y$ è $G$-misurabile
3) $ int_(A)XdP=int_(A)YdP,\forallA\inG $
Ho cercato su libri miei, libri in biblioteca e su internet ma anche io...
Qualcuno mi aiuterebbe a dimostrare tali proprietà? In particolare...
Anche il mio libro, così come detto qui...
...afferma che se $ card(Omega)=n<\infty $ si può ricorrere alla funzione indicatrice ma non capisco i passaggi. Magari non ho ancora ben chiaro il concetto di funzione indicatrice ma la sua banalità mi porta ad escluderlo…
Qualcuno può darmi una mano? Grazie mille in anticipo!!!
Data una v.a. semplice $ X:Omega ->RR $ definita su uno spazio di probabilità $ (Omega,F,P) $ , con $F$ la più grande $sigma$-algebra su $Omega$ e $G$ una sub $sigma$-algebra$ sub F $, il teorema stabilisce che per $X$ integrabile esiste una variabile $Y$ che gode delle seguenti proprietà:
1) $Y$ è integrabile (cioè $ rArrE[|Y|]<\infty $)
2) $Y$ è $G$-misurabile
3) $ int_(A)XdP=int_(A)YdP,\forallA\inG $
Ho cercato su libri miei, libri in biblioteca e su internet ma anche io...
"Raptorista":
ho trovato sempre e solo la definizione
Qualcuno mi aiuterebbe a dimostrare tali proprietà? In particolare...
"Raptorista":
la terza richiesta: \(\displaystyle \int_G Y \,\, dP = \int_G Z \,\, dP, \hspace{0.5cm} \forall G \in \mathcal{G}\). Io so che \(\displaystyle \int_\Omega Y \,\, dP\) è il valore atteso di \(Y\), mentre \(\displaystyle \int_G \,\, dP\) è la probabilità di \(G\); ma che cosa è questa loro combinazione, cioè \(\displaystyle \int_G Y \,\, dP\)? Che significato ha?
Anche il mio libro, così come detto qui...
"lucillina":
$\int_G Y\ d P = \int_{\Omega} 1_G Y\ d P$
...afferma che se $ card(Omega)=n<\infty $ si può ricorrere alla funzione indicatrice ma non capisco i passaggi. Magari non ho ancora ben chiaro il concetto di funzione indicatrice ma la sua banalità mi porta ad escluderlo…
Qualcuno può darmi una mano? Grazie mille in anticipo!!!

"arnett":
Che libro usi? Ora non ce l'ho davanti ma io avevo usato il Karr e credo riporti bene questa cosa
In realtà io non sono un matematico, e questi argomenti mi sono funzionali in ambito finanziario. In ogni caso uso il Laurence.
Ti dico… Ci ho sbattuto la testa tutto ieri nel provare a dimostrare queste condizioni ma nulla di fatto.
Per di più, il testo afferma che da tale teorema discende tutta una serie di particolari proprietà che riguardano l'attesa condizionata di $X$ rispetto a $G$ (ovvero $ Y:=E[X|G] $). Viene detto che date $ X,YinL^1(\Omega,F,P) $ due generiche variabili aleatorie integrabili e $G$-misurabili, e data $H$ una seconda sub $sigma$-algebra di $F$ tale per cui $ G,Hsube F $, si ha che:
1) se $Y$ è indipendente da $sigma(X,G)$ allora $E[XY|G]=E[X|G]E[Y]$
2) se $Y$ è $G$-misurabile e limitata allora $YE[X|G]=E[XY|G]$
3) se $HsubeG$ allora $E[E[X|G]H]=E[X|H]$
Ovviamente, non riuscendo a dimostrare le proprietà del Teorema di Kolmogorov (e quindi non capendo il significato di tali proprietà), mi trovo ancor più in difficoltà nel capire come si arriva alle condizioni che ho scritto sopra.
So di chiederti troppo ma mi aiuteresti a dimostrarle tutte?


Grazie in ogni caso a tutti per l'attenzione!