Serie aletoria
Un esercizio carino alla portata di tutti!
Non estremamente difficile, che si risolve per vie abbastanza classiche, ma secondo me istruttivo dal punto di vista "morale". Se uno ci pensa a posteriori è abbastanza naturale l'affermazione complementare alla seguente:
"Sia $X_n, n\in\mathbb{N}$ una sequenza aleatoria i.i.d. tali che $\sum_{n\in\mathbb{N}} X_n$ converge $\mathbb{P}$-q.c.
Provare che $X_n=0$, $\mathbb{P}$-q.c. "
[ovviamente dispongo della soluzione
]
Non estremamente difficile, che si risolve per vie abbastanza classiche, ma secondo me istruttivo dal punto di vista "morale". Se uno ci pensa a posteriori è abbastanza naturale l'affermazione complementare alla seguente:
"Sia $X_n, n\in\mathbb{N}$ una sequenza aleatoria i.i.d. tali che $\sum_{n\in\mathbb{N}} X_n$ converge $\mathbb{P}$-q.c.
Provare che $X_n=0$, $\mathbb{P}$-q.c. "
[ovviamente dispongo della soluzione

Risposte
Ciao,
scusa mi potresti dire come lo leggi $\mathbb{P}$ trattino $\text{q.c.}$ . Separatamente ok, mi danno un'informazione, ma insieme mi sembra un po' un controsenso in terminologia, tipo si legge:
converge quasi ceramente perciò (implica) converge in probabilità?
scusa mi potresti dire come lo leggi $\mathbb{P}$ trattino $\text{q.c.}$ . Separatamente ok, mi danno un'informazione, ma insieme mi sembra un po' un controsenso in terminologia, tipo si legge:
converge quasi ceramente perciò (implica) converge in probabilità?
No, secondo me sono quelle tipiche cose da matematici: fu^2 specifica che la convergenza quasi certa è presa rispetto alla misura di probabilità \(\mathbb{P}\). Infatti se tu cambi la misura di probabilità cambia pure la nozione di convergenza.
Tu mi dirai: si, ma perché dovrei fare una cosa del genere?
E il matematico ti risponde: ah, boh, questi sono problemi tuoi, io intanto te lo dico, non si sa mai.
Tu mi dirai: si, ma perché dovrei fare una cosa del genere?


"dissonance":
No, secondo me sono quelle tipiche cose da matematici: fu^2 specifica che la convergenza quasi certa è presa rispetto alla misura di probabilità \(\mathbb{P}\). Infatti se tu cambi la misura di probabilità cambia pure la nozione di convergenza.
Tu mi dirai: si, ma perché dovrei fare una cosa del genere?E il matematico ti risponde: ah, boh, questi sono problemi tuoi, io intanto te lo dico, non si sa mai.
Meno male che ci sei te a rispondere, non avevo avuto tempo di entrare sul forum in questi giorni

Comunque la cosa non mi aveva mai turbato e fino a poco tempo fa non mi ponevo il problema di sottoscrivere per quale misura ho la convergenza q.c. ... ma se ti capita di lavorare (come mi succede spesso ora) con due misure hai tre tipi di convergenze (risp. alle due misure e quella prodotto) e quindi sei contento quando qualcuno ti specifica le cose

@ DajeForte: devo essere sincero, non ho capito molto del tuo (criptico) messaggio. Io sono passato per vie traverse quanto piuttosto standard, però...
Siccome la sommatoria è convergente, $X_n$ conerge a X=0 q.c. E dunque anche in distribuzione. Siccome sono identicamente distribuite $F_{X_n}=F$ che ovviamente converge in distribuzione. Dunque $F_X=F_{X_n}$.
Giusto, non ci avevo pensato.
Io avevo risolto via Borel-Cantelli. MA! mi sono accorto (ora, infatti ho trovato un errore nei miei conti, inconsciamente ho fatto il tuo stesso errore nel pensare... ) di un piccolo errore nell'enunciato (strano è preso dal test di ammissione al dottorato in Bicocca... ), che lo rende falso e anche nel tuo ragionamento c'è un piccolo errore (hai usato un'ipotesi che non è scritta senza pensarci). Non lo correggo, lo rilancio come esercizio... (sempre che ho ragione
).
Risolto questa parte, posto per bene i miei calcoli, per completezza
Io avevo risolto via Borel-Cantelli. MA! mi sono accorto (ora, infatti ho trovato un errore nei miei conti, inconsciamente ho fatto il tuo stesso errore nel pensare... ) di un piccolo errore nell'enunciato (strano è preso dal test di ammissione al dottorato in Bicocca... ), che lo rende falso e anche nel tuo ragionamento c'è un piccolo errore (hai usato un'ipotesi che non è scritta senza pensarci). Non lo correggo, lo rilancio come esercizio... (sempre che ho ragione

Risolto questa parte, posto per bene i miei calcoli, per completezza

un piccolo Hint:
Ma io non vedo errori ne nell'enunciato ne nella mia dimostrazione. Poi mipare che il kolmogorov's three series theorem conduca al risultato. Per quanto riguarda la serie armonica hai che $(X_n)/n$ non sono identicamente distribuite. Ci penserò un po su in vacanza visto che domani mattina parto...
mmmh riguardando i calcoli effettivamente devo ritornare sui miei passi (lo so che la serie armonica non è i.i.d., ma era l'idea che cercavo per dire le cose...)... mi sa che ho fatto solo una gran confusione e per giunta l'ho scritta prima giusta e poi sbagliata...! Uff... Pardon!
Vi ringrazio della spiegazione.
sono le classiche definizioni di convergenza quasi certa, convergenza in probabilità, in media,... le definizioni le puoi trovare su wiki
http://it.wikipedia.org/wiki/Convergenz ... li_casuali
A questo punto puoi notare che tutte le definizioni dipendono fortemente dalla scelta della misura di probabilità che tu utilizzi...
http://it.wikipedia.org/wiki/Convergenz ... li_casuali
A questo punto puoi notare che tutte le definizioni dipendono fortemente dalla scelta della misura di probabilità che tu utilizzi...
Per completezza posto la soluzione via Borel-Cantelli:
$\epsilon\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}\leq \sum_{n\in \mathbb{N}}X_n1_{X_n>\epsilon}\leq \sum_{n\in \mathbb{N}}X_n<\infty $ P-qc
Dunque per ogni $\epsilon >0$ fissato la serie $\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ converge $P$-qc. Dunque la serie $\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$ converge in maniera ovvia e per Borel-Cantelli si ha che per un opportuno $M^$ vale che $P(X_n<\epsilon \forall n>M)=1$, in particolare, essendo la serie iid $P(X_0<\epsilon)=1$ per ogni $\epsilon >0$ fissato.
Concludiamo che $P(X_0\leq 0)=1$. Risuando lo stesso ragionamento per $-X_n$ si ha la tesi.
$\epsilon\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}\leq \sum_{n\in \mathbb{N}}X_n1_{X_n>\epsilon}\leq \sum_{n\in \mathbb{N}}X_n<\infty $ P-qc
Dunque per ogni $\epsilon >0$ fissato la serie $\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ converge $P$-qc. Dunque la serie $\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$ converge in maniera ovvia e per Borel-Cantelli si ha che per un opportuno $M^$ vale che $P(X_n<\epsilon \forall n>M)=1$, in particolare, essendo la serie iid $P(X_0<\epsilon)=1$ per ogni $\epsilon >0$ fissato.
Concludiamo che $P(X_0\leq 0)=1$. Risuando lo stesso ragionamento per $-X_n$ si ha la tesi.
Rilancio con un altro problema, che mi sta dando da pensare. Anche perché mi hanno proposto questo problema, un lato é abbastanza semplice, per il viceversa secondo me manca qualcosa... Inizio comunque a proporlo.
"Una successione aleatoria iid converge $P$-qc ad una costance $c$ se e solo se $\mu=E(X_0)<\infty$" in tal caso $c=\mu$."
"Una successione aleatoria iid converge $P$-qc ad una costance $c$ se e solo se $\mu=E(X_0)<\infty$" in tal caso $c=\mu$."
Incominciamo da questo...
questo mi lascia qualche dubbio. Come lo giustifichi?
Dunque per ogni $\epsilon >0$ fissato la serie $\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ converge $P$-qc. Questo vuol dire che definitivamente $1_{X_n>\epsilon}=0$, $P$-qc.
Dunque la serie $\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$ converge in maniera ovvia[/quote]
L'ultima serie ha gli addendi costanti (perchè le v.a. sono id), se converge $P(X> epsilon)=0)$.
Ed anche qua non mi viene bene come giustifichi la convergenza (che è vera).
"fu^2":
$ \sum_{n\in \mathbb{N}}X_n1_{X_n>\epsilon}\leq \sum_{n\in \mathbb{N}}X_n$
questo mi lascia qualche dubbio. Come lo giustifichi?
Dunque per ogni $\epsilon >0$ fissato la serie $\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ converge $P$-qc. Questo vuol dire che definitivamente $1_{X_n>\epsilon}=0$, $P$-qc.
Dunque la serie $\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$ converge in maniera ovvia[/quote]
L'ultima serie ha gli addendi costanti (perchè le v.a. sono id), se converge $P(X> epsilon)=0)$.
Ed anche qua non mi viene bene come giustifichi la convergenza (che è vera).
"DajeForte":
Incominciamo da questo...
[quote="fu^2"]
$ \sum_{n\in \mathbb{N}}X_n1_{X_n>\epsilon}\leq \sum_{n\in \mathbb{N}}X_n$
questo mi lascia qualche dubbio. Come lo giustifichi?
[/quote]
Su questo hai ragione, ho assunto senza dirlo che $X_n\geq 0$ (me ne sono dimenticato

Dunque per ogni $\epsilon >0$ fissato la serie $\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ converge $P$-qc.
Dunque la serie $\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$ converge in maniera ovvia
[/quote]
Basta questo per concludere. Infatti
$\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ é una serie a termini positivi e converge (per la serie di disuguaglianze che ho corretto prima

$c=Ec=E\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}=\sum_{n\in \mathbb{N}}E1_{X_n>\epsilon}=\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$.
(*) ma se $X_n$ é iid, allora lo é anche $|X_n|$, no? quindi non é restrittivo assumere che sia non negativa.
Infatti per l'indipendenza non ci sono problemi, per la stessa legge si ha che
$P(|X_0|\leq xx)=P(-x\leq X_0\leq x)=P(-x\leq X_n\leq x)=P(|X_n|\leq x)$ ovvero le leggi sono le stesse. No?
Ciao fu
Come fai a dire che converge ad una costante? Poi se $c>0$ hai che:
$c=sum_n P(X_n>varepsilon)=P(X_0>varepsilon) sum_n 1$.
Se $X_n$ sono iid, $|X_n|$ lo sono.

"fu^2":
Basta questo per concludere. Infatti
$\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}$ é una serie a termini positivi e converge (per la serie di disuguaglianze che ho corretto prima),
dunque $\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}=c>0$. Passando alla speranza otteniamo
$c=Ec=E\sum_{n\in \mathbb{N}}1_{X_n>\epsilon}=\sum_{n\in \mathbb{N}}E1_{X_n>\epsilon}=\sum_{n\in \mathbb{N}}P(X_n>\epsilon)$.
Come fai a dire che converge ad una costante? Poi se $c>0$ hai che:
$c=sum_n P(X_n>varepsilon)=P(X_0>varepsilon) sum_n 1$.
(*) ma se $X_n$ é iid, allora lo é anche $|X_n|$, no? quindi non é restrittivo assumere che sia non negativa.
Infatti per l'indipendenza non ci sono problemi, per la stessa legge si ha che
$P(|X_0|\leq xx)=P(-x\leq X_0\leq x)=P(-x\leq X_n\leq x)=P(|X_n|\leq x)$ ovvero le leggi sono le stesse. No?
Se $X_n$ sono iid, $|X_n|$ lo sono.
Giusto. Mi sono accorto di aver fatto casino e basta, questo approccio non porta da nessuna parte. Ripropongo la soluzione
Supponiamo, senza perdita di generalità che $X_0\geq 0$ (in caso contrario applichiamo il ragionamento alla successione $|X_n|$).
Vogliamo dimostrare che per ogni $\delta >0$ fissato si ha che $\sum_n P(X_n>\delta)<\infty$.
Dunque se per assurdo $\sum_n P(X_n>\delta)=\infty$ per un certo $\delta >0$ fissato allora, via Borel-Cantelli (dal momento che gli eventi $\{X_n>\delta\}$ sono indipendenti per ipotesi), si ha che $P(\text{limsup}\{X_n>\delta\})=1$ e dunque $P(text{liminf}\{X_n\leq \delta\})=0$, ma $X_n\to 0$ in quanto la serie é convergente e quindi $P(X_n\leq\delta \text{ Definitivamente})=P(text{liminf}\{X_n\leq \delta\})=1$, contraddizione. (*)
Usando l'ipotesi i.i.d. otteniamo che $\sum_n P(X_n>\delta)=\sum_n P(X_0>\delta)$ e questo forza che $P(X_0>\delta)=0$ per ogni $\delta>0$ fissato, da cui la tesi.(**)
(*)Con questo argomento abbiamo mostrato che se $X_i$ é una successione di v.a. in cui $\sum_n X_n <\infty$ qc, allora la serie $\sum_n 1_{X_n>\delta}$ converge qc verso una v.a. limite (come mostrato nel anche nel post precedente) ed essa é integrabile.
(**)Con questo ragionamento (e anche con il tuo) si vede che la tesi vale anche nell'ipotesi più rilassata in cui si ipotizza solamente la convergenza a zero della serie. Dunque se una sequenza i.i.d. converge qc verso una costante, allora lei é qc uguale a quella costante, ovvero é una successione qc costante. Proprio per questo motivo possiamo ipotizzare senza perdita di generalità che la sequenza sia non negativa.
Supponiamo, senza perdita di generalità che $X_0\geq 0$ (in caso contrario applichiamo il ragionamento alla successione $|X_n|$).
Vogliamo dimostrare che per ogni $\delta >0$ fissato si ha che $\sum_n P(X_n>\delta)<\infty$.
Dunque se per assurdo $\sum_n P(X_n>\delta)=\infty$ per un certo $\delta >0$ fissato allora, via Borel-Cantelli (dal momento che gli eventi $\{X_n>\delta\}$ sono indipendenti per ipotesi), si ha che $P(\text{limsup}\{X_n>\delta\})=1$ e dunque $P(text{liminf}\{X_n\leq \delta\})=0$, ma $X_n\to 0$ in quanto la serie é convergente e quindi $P(X_n\leq\delta \text{ Definitivamente})=P(text{liminf}\{X_n\leq \delta\})=1$, contraddizione. (*)
Usando l'ipotesi i.i.d. otteniamo che $\sum_n P(X_n>\delta)=\sum_n P(X_0>\delta)$ e questo forza che $P(X_0>\delta)=0$ per ogni $\delta>0$ fissato, da cui la tesi.(**)
(*)Con questo argomento abbiamo mostrato che se $X_i$ é una successione di v.a. in cui $\sum_n X_n <\infty$ qc, allora la serie $\sum_n 1_{X_n>\delta}$ converge qc verso una v.a. limite (come mostrato nel anche nel post precedente) ed essa é integrabile.
(**)Con questo ragionamento (e anche con il tuo) si vede che la tesi vale anche nell'ipotesi più rilassata in cui si ipotizza solamente la convergenza a zero della serie. Dunque se una sequenza i.i.d. converge qc verso una costante, allora lei é qc uguale a quella costante, ovvero é una successione qc costante. Proprio per questo motivo possiamo ipotizzare senza perdita di generalità che la sequenza sia non negativa.
"fu^2":
Supponiamo, senza perdita di generalità che $X_0\geq 0$ (in caso contrario applichiamo il ragionamento alla successione $|X_n|$).
Vogliamo dimostrare che per ogni $\delta >0$ fissato si ha che $\sum_n P(X_n>\delta)<\infty$.
Dunque se per assurdo $\sum_n P(X_n>\delta)=\infty$ per un certo $\delta >0$ fissato allora, via Borel-Cantelli (dal momento che gli eventi $\{X_n>\delta\}$ sono indipendenti per ipotesi), si ha che $P(\text{limsup}\{X_n>\delta\})=1$ e dunque $P(text{liminf}\{X_n\leq \delta\})=0$, ma $X_n\to 0$ in quanto la serie é convergente e quindi $P(X_n\leq\delta \text{ Definitivamente})=P(text{liminf}\{X_n\leq \delta\})=1$, contraddizione. (*)
Usando l'ipotesi i.i.d. otteniamo che $\sum_n P(X_n>\delta)=\sum_n P(X_0>\delta)$ e questo forza che $P(X_0>\delta)=0$ per ogni $\delta>0$ fissato, da cui la tesi.(**)
Be si, anche se non c'è bisogno di ragionare per assurdo visto che, per indipendenza, $P(lim s up X_n>delta)$ è caratterizzato dal comportamento della serie $sum_n P(X_n> delta)$.
Dunque
$ sum_n X_n< + infty \quad q.c. Rightarrow |X_n| to 0 quad q.c. Leftrightarrow P(lim s up |X_n|>delta)=0 Leftrightarrow sum_nP(|X_n|>delta)
(*)Con questo argomento abbiamo mostrato che se $X_i$ é una successione di v.a. in cui $\sum_n X_n <\infty$ qc, allora la serie $\sum_n 1_{X_n>\delta}$ converge qc verso una v.a. limite (come mostrato nel anche nel post precedente) ed essa é integrabile.
Mi chiedo se questo fatto richieda l'indipendenza della v.a.
"DajeForte":
[
(*)Con questo argomento abbiamo mostrato che se $X_i$ é una successione di v.a. in cui $\sum_n X_n <\infty$ qc, allora la serie $\sum_n 1_{X_n>\delta}$ converge qc verso una v.a. limite (come mostrato nel anche nel post precedente) ed essa é integrabile.
Mi chiedo se questo fatto richieda l'indipendenza della v.a.
Idealmente direi di no, in quanto (considerando il caso di v.a. positive), se la serie converge, rimane vero il fatto che $X_n\to 0$ e quindi per ogni $\delta>0$ fissato si ha che $P(X_n>\delta)=0$ per ogni $n>n_0(\delta)$.
Dunque la serie é q.c. una somma finita di termini (e il numero di termini non dipende da $\omega$(*)!). Da cui si ha sia la convergenza sia l'integrabilità.
(*)Con questo intendo che qc $\sum_{n\in \mathbb{N}}1_{X_n>\delta}=\sum_{n=1}^{n_0} 1_{X_n>\delta}$, per un opportuno $n_0$ (magari scelto come sopra.).
"fu^2":
rimane vero il fatto che $X_n\to 0$ e quindi per ogni $\delta>0$ fissato si ha che $P(X_n>\delta)=0$ per ogni $n>n_0(\delta)$.
Questo non è vero. Prendi ad esempio una successione che vale 1 con probabilità $1/n^2$ e 0 altrimenti. Questa converge per BC ma quella probabilità non è mai zero.
Comunque si, se $X_n to 0$ la successione degli indicatori è 0 definitivamente e dunque la serie è convergente. Mi rimane invece il dubbio sulla integrabilità perchè l'n di cui tu parli dipende da omega.