Somma di processi di Poisson

elgiovo
Ciao a tutti,

sono un pò arrugginito in termini di processi aleatori e ultimamente mi sto trovando di fronte a processi (abbastanza complessi direi) di questo tipo:

\(\displaystyle \mathbf{X}(t) = \sum_{i=1}^{\mathbf{N}} \mathbf{y}_i(t) \)

dove $N$ è una v.a. distribuita secondo Poisson con parametro $\lambda_N$, mentre gli $\mathbf{y}_i (t)$ sono processi di Poisson, dove però al verificarsi di un evento non se ne possono verificare altri. Detto in altri termini, si può scrivere

\(\displaystyle \mathbf{y}_i (t)=\min\left[1,\mathbf{z}_i (t)\right] \), dove stavolta gli $\mathbf{z}_i (t)$ sono processi di Poisson veri e propri. Sostanzialmente per gli $\mathbf{y}_i (t)$ mi pare si possa dire che il tempo necessario perché l'unico possibile evento si verifichi sia distribuito esponenzialmente con media $1/\tau_i$ dove $\tau_i$ è un tempo caratteristico.

Qui si complicano ulteriormente le cose: i tempi $\tau_i$ sono distribuiti uniformemente tra $\tau_{\text{min}}$ e $\tau_{\text{max}}$.

A vostro parere, è possibile studiare in qualche modo un processo siffatto? Ad esempio, ricavare media e varianza di $\mathbf{X}(t)$ al variare del tempo? Se non ho capito male leggendo qualche articoletto qua e là il transitorio iniziale del valor medio dovrebbe essere di tipo logaritmico per poi saturare vista la supply limitata data da $\mathbf{N}$.

Risposte
fu^2
così a prima vista mi ricorda un processo di poisson composito http://en.wikipedia.org/wiki/Compound_P ... stribution,
anche se in verità nel tuo caso le cose potrebbero essere diverse... domanda (che non ho captio) $N$ e $z_i(t)$ sono indipendenti? $z_i$ sono processi di poisson IID?...

elgiovo
"fu^2":
$N$ e $z_i(t)$ sono indipendenti?


Si.

"fu^2":
$z_i$ sono processi di poisson IID?...


Hai ragione mi sono spiegato male. Gli $\mathbf{z}_i$ direi che sono Poisson, però non IID, infatti ognuno ha una media $1/\tau_i$ con $\tau_i$ distribuita in modo uniforme. Per semplificare un pò le cose comunque potrei anche cominciare ad assumere che siano IID con media $1/\tau$. Non ne sono a conoscenza, però magari esiste qualche processo noto a singolo evento come gli $\mathbf{y}_i$.

Nella pagina wiki che mi hai linkato (grazie) direi che la cosa che più gli assomiglia sono i "Compund Poisson processes" dove però la dipendenza dal tempo è in $\mathbf{N}$.

Andrea2976
Metto giù due conti come spunto, spero ti possano tornare utili.

$$E(\sum_{i=1}^{N}y_i(t))=E(E(\sum_{i=1}^{N}y_i(t)|N))=\sum_{k=0}^{+\infty}E(\sum_{i=1}^{k}y_i(t))P(N=k)=
\sum_{k=0}^{+\infty}E(\sum_{i=1}^{k}y_i(t))P(N=k)$$

Ora $E(y_i(t))=E(\min[1,z_i(t)=N_t^{\tau_i}])=1\cdot P(N_t^{\tau_i}=1)$, dove $N_t^{\tau_i}$ è il processo di Poisson riferito alla v.a. $z_i(t)$, infatti abbiamo che la v.a. $\min[1,z_i(t)]$ assume solo i valori $0,1$.

Prendo per esempio la misura uniforme su $0,1$ per le $\tau_i$:

$$
E(y_i(t))=P(N_t^{\tau_i} = 1)=\int_{0}^{t}\int_{0}^{1}(\tau_i t) e^{-\tau_i t}d\tau_i dt=\int_{0}^{t}-e^{-t}dt=1-e^{-t}$$

elgiovo
Very useful!

Nell'ultimo passaggio della prima riga immagino intendessi spostare la sommatoria, così:
"Andrea2976":

$$\ldots=\sum_{k=0}^{+\infty}E(\sum_{i=1}^{k}y_i(t))P(N=k)=
\sum_{k=0}^{+\infty}\sum_{i=1}^{k}E(y_i(t))P(N=k)$$



"Andrea2976":

Ora \( E(y_i(t))=E(\min[1,z_i(t)=N_t^{\tau_i}])=1\cdot P(N_t^{\tau_i}=1) \), dove \( N_t^{\tau_i} \) è il processo di Poisson riferito alla v.a. \( z_i(t) \), infatti abbiamo che la v.a. \( \min[1,z_i(t)] \) assume solo i valori \( 0,1 \).


Questo mi torna però ho un dubbietto: non potrebbe essere \(\displaystyle P(N_t^{\tau_i}\geq1) \) invece di \(\displaystyle P(N_t^{\tau_i}=1) \)? Dopotutto $z_i(t)$ è di Poisson e assume tutti i valori interi.

Andrea2976
Direi che hai ragione infine la v.a. $\min[1,z_i(t)]$ continua a valere $1$ per tutti i valori del processo di Poisson maggiori $1$, allora devi mettere la sommatoria della Possion da $1$ a $+\infty$ dentro l'integrale...casomai procedessi con i conti sulla varianza fammi sapere.

Più semplicemente della sommatoria della Poisson, basta mettere $1$ meno il valore in $0$ della Poisson.

A presto,
Andrea

elgiovo
* EDIT: Cancellato, conteneva castronerie.

elgiovo


\(\displaystyle E(X)=\ldots = \sum_{k=0}^{\infty} \frac{\lambda_N^k e^{-\lambda_N}}{(k-1)!} \left(1-\int_0^t \int_{\tau_{min}}^{\tau_{max}}e^{-\tau_i t}\text{d}\tau_i \text{d}t\right)\)



Ho commesso un errore. La media degli $z_i(t)$ non è $\tau_i$ ma $\frac{1}{\tau_i}$ (nei tuoi conti hai usato $\tau_i$ come media, scusa, colpa mia, ho complicato troppo la notazione). Le $\tau_i$ però rimangono distribuite uniformemente, mentre le $\frac{1}{\tau_i}$ ovviamente no.

In questo caso l'integrale più interno diventa per caso

\(\displaystyle \int_{\tau_{min}}^{\tau_{max}} f_{\frac{1}{\tau_i}}\left(\frac{1}{\tau_i}\right) e^{-t/\tau_i}\text{d}\tau_i \) ?

DajeForte
Innanzitutto, non capisco bene perche' parli di tempi $tau_i$ uniformi se invece essendo i processi di Poisson i tempi di arrivo di eventi successivi sono esponenziali (come tra l'altro mi pare hai scritto nel primo messaggio).

Comunque, fissato $t>0$, la variabile $y(t)=min{1,z(t)}$ (ometto la i tanto se sono iid hanno tutte la stessa distribuzione) assume valore 0 o 1. Se consideri $tau$ il tempo di arrivo del primo evento hai che $P(y(t)=0)=P(tau>t)=e^{-lambda t}=1-p_t$, mentre $P(y(t)=1) = 1-e^-lambda t=p_t$.
Nota che puoi scrivere il processo $y(t) = 1_{t>=tau}$ se ti viene piu' comodo.

Dunque le variabili $y_i(t)$ sono bernoulliane iid.

Passando a $x$, dato $N=n in NN$ hai che $x(t)=sum_{i=1}^n y_i(t)$ e' na somma di bernoulliane iid: e' dunque una binomiale di parametri $n$ e $p_t$ ($B(n,p_t)$, qua dovresti anche specificare cosa succed quando n=0; mi pare venga naturale definire $x(t)=0$ in quel caso.). Puoi dunque continuare ossservando che:

$P(x(t)=k)=sum_n P(x(t)=k|N=n) P(N=n) = sum_n P(B(n,p_t)=k)P(N=n)$.


In questa maniera viene dunque semplice vedere che $E[x(t)]=E[E[x(t)|N]] = lambda_N p_t$.

Andrea2976
Ciao (ieri purtroppo non son più riuscito a rispondere ad Elgiovo),

niente da eccepire alla descrizione di Dajeforte, unica cosa che ancora mi sfugge, io avevo inteso che la distribuzione uniforme degli $\tau_i$ andasse intesa come la distribuzione del parametro $\tau_i$ (come se mettessimo una "prior" in stile bayesiano) e non ovviamente come distribuzione degli intertempi.

Faccio notare che se si condiziona al numero di eventi di un processo di Poisson, cioè il numero di salti fino ad un dato tempo $t$, allora la distribuzione degli intertempi in questo caso risulta unifrome; ma non penso comunque che questo fosse il caso desiderato.

elgiovo
"Andrea2976":
io avevo inteso che la distribuzione uniforme degli $\tau_i$ andasse intesa come la distribuzione del parametro $\tau_i$ (come se mettessimo una "prior" in stile bayesiano) e non ovviamente come distribuzione degli intertempi.


Si, infatti è così. Lo dicevo nel primo messaggio, però effettivamente potevo essere un pò più chiaro. Ogni $z_i$ ha un parametro $1/\tau_i$ casuale, con $\tau_i$ scelto secondo una distribuzione uniforme (quindi i parametri $1/\tau_i$ non sono distribuiti uniformemente). Nessun dubbio sul fatto che i tempi di interarrivo degli $z_i$ siano distribuiti in modo esponenziale però a quel punto non è vero che gli $y_i$ sono IID.

Ad ogni modo, dunque, si ha una somma di bernoulliane, che però non segue una binomiale vista la mancanza di un unico parametro $p_t$. Si può ancora dire qualcosa riguardo al valor medio?

qua dovresti anche specificare cosa succed quando n=0; mi pare venga naturale definire $x(t)=0$ in quel caso.)

Si è giusto $X(t)=0$ per $n=0$.

DajeForte
Ma vediamo se ho capito, perrche' ancora non e' del tutto chiaro.

Fissiamoci su un $z_i=z$. C'e' una variabile uniforme, $tau$, per cui $z(t)|tau$ e' un processo di Poisson di parametro $1/tau$.
E' questo il setting?

Se cosi fosse, il processo $z$ (non condizionato) non e' un processo di Poisson (o almeno non dovrebbe, magari potrebbe saltar fuori che lo sia lo stesso ma non credo).

Inoltre se ogni parametro dei $z_i$ segue la stessa distribuzione, allora anche gli $z_i$ hanno la stessa distribuzione, e dunque torni ad aveser bernoulliane iid. Dunque quello che ho scritto prima continua a valere (e dunque anche la media).

Si complica pero' la ricerca di $p_t$, infatti $1-p_t=P(z(t)=0)=P(T>t)=E[E[1_{T>t}|tau]]=E[e^{-t/tau}]=int_0^1 e^{-t/x}dx$ dove $T$ e' il tempo di arrivo del primo evento (sempre che sia chiaro il setting...)

elgiovo
Ciao ragazzi, scusate l'interruzione ma sono stato preso. Oggi stavo facendo un pò di conti sul problema, li condivido perché spero facciano un pò più chiarezza.

I tempi di arrivo degli eventi seguono una distribuzione esponenziale:

\(\displaystyle t_i \sim \lambda e^{-\lambda t} = \frac{1}{\tau} e^{-\frac{t}{\tau}}\)

dove però $\tau$ è a sua volta una v.a., generata nel seguente modo: si sceglie un numero, $L$, a partire da una distribuzione uniforme tra i valori numerici $\log_{10}(t_{min})$ e $\log_{10} (t_{max})$. Da qui, $\tau = 10^L$, per cui, facendo il conto, si trova che

\(\displaystyle \tau \sim \frac{1}{\tau\cdot\Delta l \cdot \ln(10)} \)

dove \(\displaystyle \Delta l = \log_{10}(t_{max}) - \log_{10}(t_{min}) \). Da qui risulta anche che

\(\displaystyle \lambda = \frac{1}{\tau} \sim \frac{1}{\lambda \cdot \Delta l \cdot \ln(10)} \)

(un mio inciso: simpatico che la funzione di v.a. e le distribuzioni di arrivo e di partenza siano tutte iperboliche...)

Da qui, ho ricavato la cdf di $\t_i$ nel seguente modo:

\(\displaystyle F_{t_i}(t) = \int_0^t \int_{\lambda_{min}}^{\lambda_{max}}\frac{\lambda e^{\lambda \tau}}{\lambda \Delta l \ln(10)} \text{d}\lambda \text{d}\tau = \frac{\Gamma\left(0,\frac{t}{t_{min}}\right)-\Gamma\left(0,\frac{t}{t_{max}}\right) + \ln\left(\frac{t}{t_{min}}\right)-\ln\left(\frac{t}{t_{max}}\right)}{\ln\left(\frac{t_{max}}{t_{min}}\right)}\)

Derivando, viene fuori una pdf piuttosto semplice, ma non esponenziale:

\(\displaystyle f_{t_i}(t) = \frac{e^{-t/t_{max}}-e^{-t/t_{min}}}{t \cdot \ln\left(\frac{t_{max}}{t_{min}}\right)} \)

Si può dire quindi che quelli che chiamavamo $z_i$ non sono processi di Poisson (e mi scuso per aver ingenerato confusione su questo, non avevo le idee ben chiare)
In base a quanto osservato da DajeForte, il processo al tempo $t$ si può vedere come una somma di prove di Bernoulli, quindi come una binomiale di parametri $N$ e $p = F_{t_i}(t)$. Il primo è una v.a. di Poisson di media $\lambda_N$, il secondo è la probabilità che $t_i < t$, quindi che vi sia stato un arrivo entro il tempo $t$. Interessano la media e la varianza del processo aleatorio al variare del tempo.

Per la media, pensavo di fare così ma vorrei una conferma:

\(\displaystyle E[Y(t)] = \sum_k \sum_N P(N| N\geq k) k \binom{N}{k} p^k (1-p)^{N-k}\)

Nel primo termine nella sommatoria ho inserito il condizionamento perché non ha senso che $N
Grazie se siete arrivati a leggere fin qui.

elgiovo
Scusa DajeForte, mi sono incartato dimenticandomi del tuo conto: la media è

\(\displaystyle E[Y(t)] = \sum_{N=0}^{\infty} P(N) N p = \lambda_N p\)

La varianza se non sbaglio è altrettanto semplice:

\(\displaystyle \text{VAR}[Y(t)] = \sum_{N=0}^{\infty} P(N) N p(1-p) = \lambda_N p(1-p) \)

E' giusto?

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.