L'idea dietro Kolmogorov-Chapman

dissonance
Mettiamoci subito in un caso concreto così spero di spiegarmi meglio. Purtroppo vedo che in questo campo le notazioni sono ben lungi dall'essere universali.

Sia [tex]\{X_t\}_{t \ge 0}[/tex] un processo di Markov reale. Allora esiste una funzione

[tex]$p = p(t, x; s, A),\quad 0\le t \le s, x \in \mathbb{R}, A\subset \mathbb{R}\ \text{Boreliano}[/tex] (funzione di transizione)

che ne descrive le probabilità congiunte:

[tex]$\mathbb{P}\big( X_{t_1} \in A_1 \ldots X_{t_n} \in A_n \big) = \int_{A_1}\mathbb{P}_{X_{t_1}}(dx_1) \int_{A_2}p(t_1, x_1; t_2, dx_2)\int_{A_3}p(t_2, x_2; t_3, dx_3)\ldots \int_{A_n} p(t_{n-1}, x_{n-1}; t_n, dx_n)[/tex].

Per intenderci, nel caso del moto Browniano è:

[tex]$p(t, x; s, A)=\begin{cases} \delta _x (A) & t=s \\ \frac{1}{ {\sqrt{ 2\pi (s-t) }}}\int_A {e^{ -\frac{(y-x)^2}{2(s-t)} }}\, dy\right. & t < s \\ \end{cases}.[/tex]

Tra le varie proprietà di questa funzione [tex]p[/tex] quella sicuramente più importante è l'identità di Kolmogorov-Chapman:

[tex]$\forall t \le u \le s\ :\ p(t, x; s, A)=\int_{\mathbb{R}}p(t, x; u, dy)p(u, y; s, A).[/tex]

Ora secondo Functional Analysis di Yosida, questa identità è strettamente collegata alla proprietà Markoviana di [tex]X[/tex]. Anzi addirittura il libro lascia intendere che "ovviamente", essendo [tex]X[/tex] un processo di Markov, in cui cioè passato e futuro sono condizionatamente indipendenti rispetto all'istante attuale, deve valere l'ìdentità di Kolmogorov-Chapman.

A me invece non sembra così ovvio. Ho capito cos'è e come funziona questa identità, ma non ho chiaro il ragionamento che si fa per arrivarci e soprattutto perché dovrebbe essere una conseguenza immediata della proprietà Markoviana. Qualcuno ha voglia di dire la sua opinione in merito?

Risposte
DajeForte
"dissonance":
Qualcuno ha voglia di dire la sua opinione in merito?

Ecco giusto un'idea perchè qua non ne so molto ma possiamo ragionarci insieme.

Anche qua partirei da una semplificazione:

Considera il processo ${X_t}$ che assume valori discreti in $x_1,...,x_n$.
Fisso i tempi $0
$P(X_t=x_j\ |\ X_z=x_i)\ =\ P(X_t=x_j\ nnn\ uu_{k=1}^n X_s=x_k\ |\ X_z=x_i)\ =\ sum_{k=1}^nP(X_t=x_j\ nnn\ X_s=x_k\ |\ X_z=x_i)\ =$

$=\ sum_{k=1}^n P(X_s=x_k\ |\ X_z=x_i)\ P(X_t=x_j\ |\ X_s=x_k\ nnn\ X_z=x_i)$

Questa dovrebbe valere in generale.
Se ilprocesso è markoviano $P(X_t=x_j\ |\ X_s=x_k\ nnn\ X_z=x_i)$ diventa $P(X_t=x_j\ |\ X_s=x_k)$

Quello che dice questa relazione è che la distribuzione marginale la puoi ottenere sommando (integrando) la funzione congiunta.

EDIT: Coretta indicizzazione sommatoria

dissonance
Dunque DajeForte io ti devo chiedere un piccolo chiarimento, purtroppo non ci arrivo da solo: come dimostri che

$P(X_t=x_j | X_s=x_k nnn X_z=x_i)=P(X_t=x_j | X_s=x_k)$? (1)

Intuitivamente è ovvio ma io per definizione di processo di Markov so solo che

$P(X_t=x_j | sigma(X_s, X_z))=P(X_t=x_j | sigma(X_s))$; (2)

come si passa dalla (2) alla (1)...? (dev'essere molto facile ma davvero non ci arrivo :oops: ).

_______________

Risolto questo direi che la tua osservazione è proprio ciò che serviva alla questione!!! In effetti senza la proprietà Markoviana una formula come la

[tex]$\forall t \le u \le s\ :\ p(t, x; s, A)=\int_{\mathbb{R}}p(t, x; u, dy)\underbrace{p(u, y; s, A)}_{\text{non contiene inform. sull'istante }t}[/tex]

non è possibile, perché mancherebbero informazioni su come si passa dall'istante $t$ all'istante $u$.
(Solo una piccolissima cosa, io cambierei la variabile muta nella sommatoria da $i$ a $k$ perché la $i$ l'hai già usata in $X_z=x_i$.)

DajeForte
In generale questa è la definizione di markovianità

$P(X_t\ in \ A\ |\ mathcal(F)_s)\ =\ P(X_t\ in \ A\ |\ sigma(X_s))$; $mathcal(F)_s$ filtrazione naturale, $A$ borelliano.

Quindi ottieni

$P(X_t\ in \ A_t\ |\ X_s\ in \ A_s\ ,\ X_z\ in\ A_z) =\ P(X_t\ in \ A\ |\ X_s\ in \ A_s)$;

da cui ottieni la 1 che è (con qualche piccola modificazione) la versione discreta della definizione di proprietà di Markov.

Tanto per specificare, ma penso ti sia chiaro, la proprietà di Markov dice che una volta che si conosce il comportamento del processo ad un determinato tempo (matematicamente è la parte fornita dal condizionamento) tutta la storia prima di quell'istante del processo diventa Probabilisticamente irrilevante.

Se vuoi un esempio il moto browniano è markoviano; ma $X_t=int_0^t B_s\ ds$ (moto browniano integrato) non lo è.

PS Mi interessava anche quell'altro post che hai scritto (quello con la citazione in inglese); gli ho dato un'occhiata ma ancora non ho raggiunto un'interpretazione definitiva (è come se cerca di compattare in un unica struttura l'insieme Omega e del parametro in maniera tale che scelta l'omega tilde questa di da la funzione in t...); se arrivi a qualcosa scrivi che può essere interessante.

dissonance
"DajeForte":
In generale questa è la definizione di markovianità

$P(X_t\ in \ A\ |\ mathcal(F)_s)\ =\ P(X_t\ in \ A\ |\ sigma(X_s))$; $mathcal(F)_s$ filtrazione naturale, $A$ borelliano.

Quindi ottieni

$P(X_t\ in \ A_t\ |\ X_s\ in \ A_s\ ,\ X_z\ in\ A_z) =\ P(X_t\ in \ A\ |\ X_s\ in \ A_s)$;

Ecco, il passaggio dalla prima alla seconda formula di questo riquadro è esattamente quello che ieri ho cercato di dimostrare, senza successo (:oops:). Se hai tempo, mi faresti vedere come si fa? Anche a grandi linee. Grazie!
PS Mi interessava anche quell'altro post che hai scritto (quello con la citazione in inglese); gli ho dato un'occhiata ma ancora non ho raggiunto un'interpretazione definitiva (è come se cerca di compattare in un unica struttura l'insieme Omega e del parametro in maniera tale che scelta l'omega tilde questa di da la funzione in t...); se arrivi a qualcosa scrivi che può essere interessante.
Si, credo anche io: lui considera lo spazio di tutte le traiettorie del processo e lo munisce di una struttura di spazio di probabilità in modo tale che il processo stesso si possa considerare una distribuzione di probabilità su questo spazio di traiettorie. Resta da comprendere bene i dettagli di questa costruzione, perché il libro è davvero troppo sintetico e impreciso.

DajeForte
Diciamo che io la seconda espressione la prendo come una definizione di markovianità.

Partiamo da questo: come definiamo $sigma(X_s,X_z)$?

Io direi così ${A\ subset\ Omega\ | \ X_s(A)\ in\ B_s \ ,\ X_z(A)\ in \ B_z}$ B borelliani.

Quindi condizionare ad un generico evento di quella sigma-algebra ti riconduce a'altra espressione.

Questo è uno schizzo che mi viene in mente, ci ragionerò meglio su e ti faccio sapere.
Te intanto prova a vedere cosa ne tiri fuori.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.