Calcolo densità di probabilità di un integrale
Ciao. Domanda di probabilità (niente tombola o lotterie, tranquilli...).
Si abbia per ipotesi una v.a. rho con densità di probabilità (nota) p_rho. Si costruisca ora la v.a. w = int( rho ) data dall'integrale (eventualmente definito tra 0 e T: possiamo pensare che la rho integranda sia una funzione di t, quindi: w = int( rho(t) dt )). Qual è la densità di probabilità di w? (come si calcola?)
Ringrazio per illuminazioni natalizie
Bye
[/chesspos]
Si abbia per ipotesi una v.a. rho con densità di probabilità (nota) p_rho. Si costruisca ora la v.a. w = int( rho ) data dall'integrale (eventualmente definito tra 0 e T: possiamo pensare che la rho integranda sia una funzione di t, quindi: w = int( rho(t) dt )). Qual è la densità di probabilità di w? (come si calcola?)
Ringrazio per illuminazioni natalizie

Bye
[/chesspos]
Risposte
Se $bbrho=bbrho(t)$ non hai più una variabile aleatoria ma un processo stocastico. La determinazione della distribuzione di
$bbs=int_a^b bbrho(t)"d"t$,
che stavolta, come dicevi sopra, è una variabile aleatoria, è generalmente complicata, infatti $bbs$ è il limite della somma delle v.a. $bbrho(t_i) Deltat_i$ (integrale di Riemann), e considera che trovare la d.d.p. della somma di due sole v.a. è già difficile! Però puoi agevolmente trovare valor medio e varianza di $bb s$: scrivendo l'integrale come limite di una somma e usando il fatto che
$E[sum_k a_k bbx_k]=sum_k a_k E[bbx_k]$
si può dimostrare che
$E[bb s]=int_a^b E[bb rho (t)]"d"t=int_a^b eta(t) "d"t$.
Quanto alla varianza, il quadrato di $bbs$ si può scrivere come integrale doppio:
$bbs^2=int_a^b bbrho(t_1)"d"t_1 int_a^b bbrho(t_2)"d"t_2=int_a^b int_a^b bbrho(t_1) bbrho(t_2)"d"t_1"d"t_2$.
Considerando i valori attesi di entrambi i membri (qui scambio liberamente valori attesi e integrali)
$E[bbs^2]=int_a^b int_a^b E[bbrho(t_1) bbrho(t_2)]"d"t_1"d"t_2=int_a^b int_a^b R_(bb rho bb rho)(t_1,t_2)"d"t_1"d"t_2$,
dove con $R_(bb rho bb rho)(t_1,t_2)$ indico la funzione di autocorrelazione di $bb rho$. Da qui la varianza di $bbs$ risulta
$sigma_(bb s )^2=int_a^b int_a^b [R_(bb rho bb rho)(t_1,t_2)-eta(t_1)eta(t_2)]"d"t_1"d"t_2=int_a^b int_a^b C_(bb rho bb rho)(t_1,t_2)"d"t_1"d"t_2$.
Applicando quanto detto all'interessante v.a.
$bar bbrho_T=1/(2T) int_(-T)^T bb rho(t)"d"t$
si ottiene (supponendo $ bb rho(t)$ stazionario $to$ a valor medio $eta$ costante)
$E[bar bbrho_T]=eta$,
$sigma_(bar bbrho_T)^2=1/(2T) int_(-2T)^(2T)(1-(|tau|)/(2T))C_(bb rho bb rho)(tau)"d"tau$.
$bar bbrho_T$ è d'interesse perchè la media temporale del processo $bbrho(t)$ è definita come
$lim_(T to oo) bar bbrho_T$,
e da qui parte la cosiddetta "teoria ergodica".
Spero di esserti stato d'aiuto. Ciao
$bbs=int_a^b bbrho(t)"d"t$,
che stavolta, come dicevi sopra, è una variabile aleatoria, è generalmente complicata, infatti $bbs$ è il limite della somma delle v.a. $bbrho(t_i) Deltat_i$ (integrale di Riemann), e considera che trovare la d.d.p. della somma di due sole v.a. è già difficile! Però puoi agevolmente trovare valor medio e varianza di $bb s$: scrivendo l'integrale come limite di una somma e usando il fatto che
$E[sum_k a_k bbx_k]=sum_k a_k E[bbx_k]$
si può dimostrare che
$E[bb s]=int_a^b E[bb rho (t)]"d"t=int_a^b eta(t) "d"t$.
Quanto alla varianza, il quadrato di $bbs$ si può scrivere come integrale doppio:
$bbs^2=int_a^b bbrho(t_1)"d"t_1 int_a^b bbrho(t_2)"d"t_2=int_a^b int_a^b bbrho(t_1) bbrho(t_2)"d"t_1"d"t_2$.
Considerando i valori attesi di entrambi i membri (qui scambio liberamente valori attesi e integrali)
$E[bbs^2]=int_a^b int_a^b E[bbrho(t_1) bbrho(t_2)]"d"t_1"d"t_2=int_a^b int_a^b R_(bb rho bb rho)(t_1,t_2)"d"t_1"d"t_2$,
dove con $R_(bb rho bb rho)(t_1,t_2)$ indico la funzione di autocorrelazione di $bb rho$. Da qui la varianza di $bbs$ risulta
$sigma_(bb s )^2=int_a^b int_a^b [R_(bb rho bb rho)(t_1,t_2)-eta(t_1)eta(t_2)]"d"t_1"d"t_2=int_a^b int_a^b C_(bb rho bb rho)(t_1,t_2)"d"t_1"d"t_2$.
Applicando quanto detto all'interessante v.a.
$bar bbrho_T=1/(2T) int_(-T)^T bb rho(t)"d"t$
si ottiene (supponendo $ bb rho(t)$ stazionario $to$ a valor medio $eta$ costante)
$E[bar bbrho_T]=eta$,
$sigma_(bar bbrho_T)^2=1/(2T) int_(-2T)^(2T)(1-(|tau|)/(2T))C_(bb rho bb rho)(tau)"d"tau$.
$bar bbrho_T$ è d'interesse perchè la media temporale del processo $bbrho(t)$ è definita come
$lim_(T to oo) bar bbrho_T$,
e da qui parte la cosiddetta "teoria ergodica".
Spero di esserti stato d'aiuto. Ciao

Si grazie per la risposta (ti sei espresso molto meglio di me
). Però cerchiamo di trovare la densità di probabilità dell'integrale, magari sotto ipotesi ragionevoli (ok, ho imparato a scrivere le formule
).
Supponiamo che abbia due v.a., diciamo $x$ ed $y$, statisticamente indipendenti; e di costruire $w = x+y$. Allora $p_w(w) = int_R p_x(x) p_y(w-x) d"x$ dove con $*$ ho indicato la convoluzione. Se ne ho tre (sotto le stesse ipotesi), la pdf della somma sarà la convoluzione delle tre. E così via. Una tecnica per trovare la p_w(w) senza fare la convoluzione è ovviamente trasformare secondo Fourier, ecc ecc.
Ipotizziamo ora (per semplificare ancora) che tutte le v.a. abbiano la STESSA pdf, quindi che io stia sommando "la stessa" v.a., cioè: $w = x + x$. A questo punto si semplifica un po' la cosa...
Quando mi dici che è il limite della somma delle v.a. $bbrho(t_i) Delta t_i$ (siamo sicuri che: la pdf del limite della somma è il limite della pdf della somma? una dimostrazione?), non capisco una cosa. Supponiamo che scelga una partizione uniforme. Ovviamente i $Delta t$ non sono v.a. quindi alla fin dei conti io sto semplicemente sommando le $bbrho(t_i)$. Quindi alla fine la strategia sarebbe:
1) calcolare la pdf della somma (che dipenderà da $Delta t_i$)
2) calcola il limite
In attesa, ringrazio


Supponiamo che abbia due v.a., diciamo $x$ ed $y$, statisticamente indipendenti; e di costruire $w = x+y$. Allora $p_w(w) = int_R p_x(x) p_y(w-x) d"x$ dove con $*$ ho indicato la convoluzione. Se ne ho tre (sotto le stesse ipotesi), la pdf della somma sarà la convoluzione delle tre. E così via. Una tecnica per trovare la p_w(w) senza fare la convoluzione è ovviamente trasformare secondo Fourier, ecc ecc.
Ipotizziamo ora (per semplificare ancora) che tutte le v.a. abbiano la STESSA pdf, quindi che io stia sommando "la stessa" v.a., cioè: $w = x + x$. A questo punto si semplifica un po' la cosa...
Quando mi dici che è il limite della somma delle v.a. $bbrho(t_i) Delta t_i$ (siamo sicuri che: la pdf del limite della somma è il limite della pdf della somma? una dimostrazione?), non capisco una cosa. Supponiamo che scelga una partizione uniforme. Ovviamente i $Delta t$ non sono v.a. quindi alla fin dei conti io sto semplicemente sommando le $bbrho(t_i)$. Quindi alla fine la strategia sarebbe:
1) calcolare la pdf della somma (che dipenderà da $Delta t_i$)
2) calcola il limite
In attesa, ringrazio

Ecco il link che spiega come scrivere le formule:
http://www.matematicamente.it/forum/come-si-scrivono-le-formule-t26179.html
Fidati, non è una cosa fattibile. Non lo dico io, lo dicono i libri. Considera che nella maggior parte dei casi l'integrale di $bb rho(t, zeta)$ non esiste per ogni evento $zeta$ dello spazio campionario. Infatti un processo stocastico è generalmente qualcosa di "matematicamente mostruoso": prendi l'andamento della borsa (lo vedi dal sito del Corriere); normalmente lo si modella tramite moti browniani, ovvero processi ovunque discontinui! Qui l'integrale di Riemann fallisce miseramente (teorema di Vitali - Lebesgue). Si può definire $bbs$ in modo diverso. Se per esempio
$lim_(Delta t_i to 0) E{[bbs - sum_(i=1)^n bb rho (t_i) Delta t_i]^2}=0$
allora $bbs$ è definito come limite di una somma in media quadratica.
L'unica eccezione è quella dei processi $bbx(t)$ gaussiani; infatti se le v.a. $bbx(t_i)$ sono gaussiane allora l'integrale del processo, visto come somma di Riemann:
$int_a^b bbx(t)"d"t=sum_i bbx(t_i)Delta t_i$
è una v.a. gaussiana, in quanto combinazione lineare di v.a. gaussiane. Si potrebbe poi invocare il teorema centrale limite per processi i cui campioni agli istanti $t_i$ siano indipendenti e distribuiti in qualsiasi maniera: se
$lim_(n to oo) sum_(i=1)^n sigma_(bbx(t_i))^2 =oo$
e per qualche $alpha > 2$
$int_(RR) x^(alpha) f_i(x)"d"x
con $C$ costante allora la distribuzione della somma delle v.a. è gaussiana.
Un esempio: il moto browniano (processo di Wiener-Lewy) $bbw(t)$ può essere definito come integrale del rumore bianco gaussiano $bbn(t)$, ovvero un processo normale, stazionario, con media nulla e spettro di potenza uniforme: $S_(bb n bb n)=alpha$. Si ha
$bb w(t)= int_0^t bb n (tau) "d"tau$.
La v.a. $bbw(t)$ è a media nulla e varianza
$sigma_(bbw(t))^2=R_(bbw bbw)(t)=alpha t$
e densità del prim'ordine
$f(w;t)=1/(sqrt(2 pi alpha t)) "exp"( -(w^2)/(2 alpha t))$.
E chi l'ha detto? Io ho scritto che il valor medio ($E[cdot]$) della somma è uguale alla somma dei valori medi!
http://www.matematicamente.it/forum/come-si-scrivono-le-formule-t26179.html
Però cerchiamo di trovare la densità di probabilità dell'integrale, magari sotto ipotesi ragionevoli.
Fidati, non è una cosa fattibile. Non lo dico io, lo dicono i libri. Considera che nella maggior parte dei casi l'integrale di $bb rho(t, zeta)$ non esiste per ogni evento $zeta$ dello spazio campionario. Infatti un processo stocastico è generalmente qualcosa di "matematicamente mostruoso": prendi l'andamento della borsa (lo vedi dal sito del Corriere); normalmente lo si modella tramite moti browniani, ovvero processi ovunque discontinui! Qui l'integrale di Riemann fallisce miseramente (teorema di Vitali - Lebesgue). Si può definire $bbs$ in modo diverso. Se per esempio
$lim_(Delta t_i to 0) E{[bbs - sum_(i=1)^n bb rho (t_i) Delta t_i]^2}=0$
allora $bbs$ è definito come limite di una somma in media quadratica.
L'unica eccezione è quella dei processi $bbx(t)$ gaussiani; infatti se le v.a. $bbx(t_i)$ sono gaussiane allora l'integrale del processo, visto come somma di Riemann:
$int_a^b bbx(t)"d"t=sum_i bbx(t_i)Delta t_i$
è una v.a. gaussiana, in quanto combinazione lineare di v.a. gaussiane. Si potrebbe poi invocare il teorema centrale limite per processi i cui campioni agli istanti $t_i$ siano indipendenti e distribuiti in qualsiasi maniera: se
$lim_(n to oo) sum_(i=1)^n sigma_(bbx(t_i))^2 =oo$
e per qualche $alpha > 2$
$int_(RR) x^(alpha) f_i(x)"d"x
con $C$ costante allora la distribuzione della somma delle v.a. è gaussiana.
Un esempio: il moto browniano (processo di Wiener-Lewy) $bbw(t)$ può essere definito come integrale del rumore bianco gaussiano $bbn(t)$, ovvero un processo normale, stazionario, con media nulla e spettro di potenza uniforme: $S_(bb n bb n)=alpha$. Si ha
$bb w(t)= int_0^t bb n (tau) "d"tau$.
La v.a. $bbw(t)$ è a media nulla e varianza
$sigma_(bbw(t))^2=R_(bbw bbw)(t)=alpha t$
e densità del prim'ordine
$f(w;t)=1/(sqrt(2 pi alpha t)) "exp"( -(w^2)/(2 alpha t))$.
siamo sicuri che: la pdf del limite della somma è il limite della pdf della somma? una dimostrazione?
E chi l'ha detto? Io ho scritto che il valor medio ($E[cdot]$) della somma è uguale alla somma dei valori medi!
Allora, forse non ho specificato che non vorrei avere la massima generalità... mi basterebbero dei casi particolari e senza troppo rigore
ESEMPIO. Supponiamo che tutte le $rho_i$ che definirò tra un attimo siano esponenziali (che è facile per i conti). Se io considero la somma
$w = sum_(i=1)^N rho_i$
posso calcolare facilmente $p_W(w)$.
A questo punto vorrei considerare $rho(t)$, processo stocastico, supponendo che qualsiasi v.a. estratta dal processo abbia pdf esponenziale. Se considero:
$z = int_A rho(t) dt$
vorrei conoscere $p_Z(z)$. Supponiamo che esista questo integrale secondo Riemann, ma mi va bene anche considerare una somma in media quadratica. Come me la posso cavare? Alla fin fine, come ho già scritto, i $Delta t$ non dovrebbero influenzare il calcolo, perché non sono aleatori...
In ultima analisi: c'è un legame tra $p_W(w)$ e $p_Z(z)$? In fondo dovrebbero essere l'una una forma approssimata dell'altra... almeno intuitivamente.
Poiché
$z = int_A rho(t) dt = lim_(N) sum_(i=1)^N rho(t_i) Delta t_i$
non è per caso che, indicando con:
$v = sum_(i=1)^N rho(t_i) Delta t_i$
e quindi con $p_V(v)$ la relativa pdf, si ha:
$p_Z(z) = lim_(N) p_V(v)$.
Si può fare una cosa del genere? Immagino ci siano molte ipotesi sulle convergenze di tutte le serie che ho scritto ecc ecc, ma supponendo che il tutto converga, $p_Z(z)$ si può ottenere con quel limite?
Grazie per le risposte finora

ESEMPIO. Supponiamo che tutte le $rho_i$ che definirò tra un attimo siano esponenziali (che è facile per i conti). Se io considero la somma
$w = sum_(i=1)^N rho_i$
posso calcolare facilmente $p_W(w)$.
A questo punto vorrei considerare $rho(t)$, processo stocastico, supponendo che qualsiasi v.a. estratta dal processo abbia pdf esponenziale. Se considero:
$z = int_A rho(t) dt$
vorrei conoscere $p_Z(z)$. Supponiamo che esista questo integrale secondo Riemann, ma mi va bene anche considerare una somma in media quadratica. Come me la posso cavare? Alla fin fine, come ho già scritto, i $Delta t$ non dovrebbero influenzare il calcolo, perché non sono aleatori...
In ultima analisi: c'è un legame tra $p_W(w)$ e $p_Z(z)$? In fondo dovrebbero essere l'una una forma approssimata dell'altra... almeno intuitivamente.
Poiché
$z = int_A rho(t) dt = lim_(N) sum_(i=1)^N rho(t_i) Delta t_i$
non è per caso che, indicando con:
$v = sum_(i=1)^N rho(t_i) Delta t_i$
e quindi con $p_V(v)$ la relativa pdf, si ha:
$p_Z(z) = lim_(N) p_V(v)$.
Si può fare una cosa del genere? Immagino ci siano molte ipotesi sulle convergenze di tutte le serie che ho scritto ecc ecc, ma supponendo che il tutto converga, $p_Z(z)$ si può ottenere con quel limite?
Grazie per le risposte finora

"RaffaelloilSapiente":
In ultima analisi: c'è un legame tra $p_W(w)$ e $p_Z(z)$? In fondo dovrebbero essere l'una una forma approssimata dell'altra... almeno intuitivamente.
Leggi sopra: sostanzialmente NO. Prova a controllare se la distribuzione esponenziale rispetta le ipotesi (che ho scritto poco fa) del teorema centrale limite; se così fosse, allora la distribuzione dell'integrale visto come somma di Riemann sarà gaussiana.
"RaffaelloilSapiente":
Poiché
$z = int_A rho(t) dt = lim_(N) sum_(i=1)^N rho(t_i) Delta t_i$
non è per caso che, indicando con:
$v = sum_(i=1)^N rho(t_i) Delta t_i$
e quindi con $p_V(v)$ la relativa pdf, si ha:
$p_Z(z) = lim_(N) p_V(v)$.
Si può fare una cosa del genere? Immagino ci siano molte ipotesi sulle convergenze di tutte le serie che ho scritto ecc ecc, ma supponendo che il tutto converga, $p_Z(z)$ si può ottenere con quel limite?
Mannaggia a te che mi cambi i messaggi mentre rispondo

Questo è proprio ciò che tenta di fare il teorema centrale limite! Altrimenti ti garantisco che andando a calcolare le convoluzioni non se ne viene fuori!
Grazie per le risposte finora
Prego

Si, in effetti hai ragione... se ne sommo infinite e sono rispettate le ipotesi del limite centrale, c'è poco da fare... gaussiana verrà!
Sai perché continuo a insistere? Oltre al perché sono un po' cretino (:-D), lo conosci il teorema del campionamento? Se si, supponiamo che la $rho(t)$ si possa scrivere come serie di uno sviluppo ortogonale in seni cardinali; oppure cmq si possa esprimere con uno sviluppo in serie ortogonale qualsiasi; a quel punto avrei dei "campioni" $rho(t_i)$. Ho capito che siccome sono infiniti, allora (se valgono le HP del TLC) la distribuzione sarà gaussiana. Però santo cielo: in tal caso, qualsiasi cosa io integri (sempre sotto le HP-TLC), l'integrale avrà distribuzione gaussiana!
Mi suona un po' strano e un po' normale (perché sommo v.a. infinite).
Continuo la riflessione
Sai perché continuo a insistere? Oltre al perché sono un po' cretino (:-D), lo conosci il teorema del campionamento? Se si, supponiamo che la $rho(t)$ si possa scrivere come serie di uno sviluppo ortogonale in seni cardinali; oppure cmq si possa esprimere con uno sviluppo in serie ortogonale qualsiasi; a quel punto avrei dei "campioni" $rho(t_i)$. Ho capito che siccome sono infiniti, allora (se valgono le HP del TLC) la distribuzione sarà gaussiana. Però santo cielo: in tal caso, qualsiasi cosa io integri (sempre sotto le HP-TLC), l'integrale avrà distribuzione gaussiana!
Mi suona un po' strano e un po' normale (perché sommo v.a. infinite).
Continuo la riflessione

"RaffaelloilSapiente":
Però santo cielo: in tal caso, qualsiasi cosa io integri (sempre sotto le HP-TLC), l'integrale avrà distribuzione gaussiana!
Riguardo a questo, ti faccio notare che l'ipotesi $bb rho (t_i)$ indipendente da $bb rho (t_j)$ con $i ne j$ è molto restrittiva. In genere infatti non si può applicare il t.c.l.
Comunque ora che ho più chiaro il tuo intento, ti scrivo qua sotto un link a un mio precedente post (spero che tu mastichi l'inglese):
http://www.matematicamente.it/forum/stochastic-integral-quadrature-formula-t33444.html
in cui trovo una stima lineare nel senso dei minimi quadrati della v.a. $int_0^T bbs(t)"d"t$ come funzione delle v.a. $bbs(0)$ e $bbs(T)$. Tramite questa stima puoi pensare di approssimare la pdf dell'integrale.
mmmm molto molto interessante... e si può generalizzare a una combinazione lineare $sum_(k=1)^N s(t_k)$ ?
Ci penso... (sicuramente ci hai già pensato tu
)
Ci penso... (sicuramente ci hai già pensato tu

"RaffaelloilSapiente":
mmmm molto molto interessante... e si può generalizzare a una combinazione lineare $sum_(k=1)^N s(t_k)$ ?
Non ho provato ma è certamente possibile, e il metodo è sempre lo stesso: il principio di ortogonalità. Le stime nel senso dei minimi quadrati sono potentissime: ad esempio si può arrivare a dare una previsione di un processo stocastico all'istante $t$ dati i suoi valori in istanti precedenti (problema della predizione) sfruttando l'equazione integrale di Wiener-Hopf.
ma è fichissimo! appena ho un secondo di distrazione ci provo di sicuro!
grazie di tutto
buon "ultimo dell'anno"
grazie di tutto

buon "ultimo dell'anno"