Serie di varianze convergente e convergenza q.c. di V.A.
Ciao a tutti!
Nei paragrafi che precedono l'enunciato e la dimostrazione del teorema di Radon-Nikodym il testo (Klenke) propone il seguente esercizio (che mi sta creando un po' di difficoltà):
"Sia $(X_i)_{i\in\NN}$ una successione di variabili aleatorie indipendenti tali che $X_i\in\mathcal{L}^2$ e $E[X_i]=0\quad\forall i\in\NN$.
a) Si dimostri che se $\sum_{i\in\NN}Var(X_i)<\infty$, allora esiste una variabile aleatoria reale $X$ tale che $\sum_{i=1}^{n}X_i\rightarrow_{n\rightarrow\infty}X$ quasi certamente.
b) Vale anche il viceversa?"
Ci sono due suggerimenti: considerare la disuguaglianza di Kolmogorov ed un criterio per la convergenza quasi certa coinvolgente il limsup. In entrambi i casi le ipotesi sono tutte soddisfatte: si richiede infatti
1) l'indipendenza delle V.A.
2) $E(X_i)=0\quad\forall i\in\NN$
3) $Var(X_i)<\infty$ per la disuguaglianza di Kolmogov, mentre su$p_{i\in\NN}(Var(X_i))<\infty$ nel criterio per la convergenza q.c. .
Detto questo come sfruttare le due tesi, che affermano rispettivamente:
Date $(X_i)_{i=1}^n$ con le proprietà sopra elencate, vale \[ \forall t>0\qquad \mathbb{P}(max_{k=1,...,n}|\sum_{i=1}^k X_i| \geqslant t) \leqslant \frac{Var(\sum_{i=1}^n X_i)}{t^2} \]
e
Data una successione $(X_i)_{i\in\NN}$ di V.A. con le proprietà sopra elencate, allora vale
\[ \forall \epsilon >0 \qquad \limsup_{n\rightarrow\infty} \frac{|\sum_{i=1}^n X_i |}{n^{\frac{1}{2}} (\log n)^{\frac{1}{2}+\epsilon}} = 0 \qquad q.c. \]
?
Sono perfettamente consapevole che per ottenere una risposta bisognerebbe dimostrare di avere tentato qualche strada, ma le mie prove sono state tutte vane, non ho scritto niente che abbia concretamente senso. Se qualcuno avesse un po' di tempo e qualche idea per l'incipit, sarei ben contenta di proseguire autonomamente. Ora come ora sono proprio ferma.
Grazie anticipatamente.
Buona serata e buon'epifania!
Nei paragrafi che precedono l'enunciato e la dimostrazione del teorema di Radon-Nikodym il testo (Klenke) propone il seguente esercizio (che mi sta creando un po' di difficoltà):
"Sia $(X_i)_{i\in\NN}$ una successione di variabili aleatorie indipendenti tali che $X_i\in\mathcal{L}^2$ e $E[X_i]=0\quad\forall i\in\NN$.
a) Si dimostri che se $\sum_{i\in\NN}Var(X_i)<\infty$, allora esiste una variabile aleatoria reale $X$ tale che $\sum_{i=1}^{n}X_i\rightarrow_{n\rightarrow\infty}X$ quasi certamente.
b) Vale anche il viceversa?"
Ci sono due suggerimenti: considerare la disuguaglianza di Kolmogorov ed un criterio per la convergenza quasi certa coinvolgente il limsup. In entrambi i casi le ipotesi sono tutte soddisfatte: si richiede infatti
1) l'indipendenza delle V.A.
2) $E(X_i)=0\quad\forall i\in\NN$
3) $Var(X_i)<\infty$ per la disuguaglianza di Kolmogov, mentre su$p_{i\in\NN}(Var(X_i))<\infty$ nel criterio per la convergenza q.c. .
Detto questo come sfruttare le due tesi, che affermano rispettivamente:
Date $(X_i)_{i=1}^n$ con le proprietà sopra elencate, vale \[ \forall t>0\qquad \mathbb{P}(max_{k=1,...,n}|\sum_{i=1}^k X_i| \geqslant t) \leqslant \frac{Var(\sum_{i=1}^n X_i)}{t^2} \]
e
Data una successione $(X_i)_{i\in\NN}$ di V.A. con le proprietà sopra elencate, allora vale
\[ \forall \epsilon >0 \qquad \limsup_{n\rightarrow\infty} \frac{|\sum_{i=1}^n X_i |}{n^{\frac{1}{2}} (\log n)^{\frac{1}{2}+\epsilon}} = 0 \qquad q.c. \]
?
Sono perfettamente consapevole che per ottenere una risposta bisognerebbe dimostrare di avere tentato qualche strada, ma le mie prove sono state tutte vane, non ho scritto niente che abbia concretamente senso. Se qualcuno avesse un po' di tempo e qualche idea per l'incipit, sarei ben contenta di proseguire autonomamente. Ora come ora sono proprio ferma.
Grazie anticipatamente.
Buona serata e buon'epifania!
Risposte
non è che il criterio coinvolgente il limsup sia Borel Cantelli al posto di quello che tu hai citato?

Con un po' di ritardo chiudo questo argomento con un ultimo appunto. Effettivamente il criterio del limsup che ho citato non è affatto utile (o forse sarebbe meglio dire utilizzabile) nella dimostrazione. In realtà non ho usato neanche Borel-Cantelli.
Ho trovato la dimostrazione sul testo di Billingley e, dopo averla sviscerata e compresa, mi ha convinto. Quindi mi reputo soddisfatta così.
Grazie comunque per avermi messo subito sull'attenti riguardo l'inutilità di quel criterio per la dimostrazione.
Buona serata!
Ho trovato la dimostrazione sul testo di Billingley e, dopo averla sviscerata e compresa, mi ha convinto. Quindi mi reputo soddisfatta così.
Grazie comunque per avermi messo subito sull'attenti riguardo l'inutilità di quel criterio per la dimostrazione.
Buona serata!
Bene! Allora chiedo a fu se ha qualche idea sulla dimostrazione del primo punto. Io lo dimostrerei agilmente con le martingale ma mi quale sarebbe la strada se non fossimo abilitati ad utilizzare tali strumenti.
Ed aggiungo a Bochum di continuare a dare una occhiata così magari se non ci arriviamo ci propone la sua soluzione.
Ed aggiungo a Bochum di continuare a dare una occhiata così magari se non ci arriviamo ci propone la sua soluzione.
"DajeForte":
Bene! Allora chiedo a fu se ha qualche idea sulla dimostrazione del primo punto.
Io avevo qualche idea sparsa (ammetto di non averci pensato su molto).
Prima di tutto osserviamo che se $X$ esiste, $\text{Var}(X)=\sum_{n\in\mathbb{N}}\text{Var}(X_n)$ quindi la prima ipotesi ci dice che $X$ ha media e varianza ben definite.
Usando le martingale, dal momento (per l'ipotesi fatta sulla varianza) che $Y_n=\sum_{i=1}^n X_i$ è limitata in $L^2$, quindi $Y_n$ è UI e dunque converge verso una v.a. $X$ q.c. (in particolare $X$ è integrabile).
Senza usare le martingale, senza bleffare (cioè senza ricalcare la dimostrazione del th di convergenza di Doob), l'esercizio assume tratti interessanti. Nei prossimi giorni ci penserò su e vediamo se viene l'illuminazione (o se viene prima a te che a me

Eh ma lo avevo detto che Doob non era ammesso.
Diciamo che io ancora brancolo un po' nel buio perché non riesco bene a capire cosa devo dimostrare.
mah???
Comunque aggiungo che nel secondo punto, il converso non vale, ovvero puo' accadere che la serie delle variante sia infinita.

Diciamo che io ancora brancolo un po' nel buio perché non riesco bene a capire cosa devo dimostrare.

Comunque aggiungo che nel secondo punto, il converso non vale, ovvero puo' accadere che la serie delle variante sia infinita.
"DajeForte":
Eh ma lo avevo detto che Doob non era ammesso.![]()
Infatti è inutile usare i cannoni per ammazzare le mosche.
Da buon Analista (?) quando non si sa che fare o si integra per parti, o si deriva, o si dimostra che qualcosa è di Cauchy.
Ricordiamo che una successione $S_n\to S$ q.c. se $\lim_{n\to+\infty}\mathbb{P}(\text{sup}_{k\ge n}|S_{k}-S|>\epsilon)=0$ (*).
Dunque deduciamo immediatamente che una successione $S_n$ è di Cauchy q.c. se $\lim_{n\to+\infty}\mathbb{P}(\text{sup}_{l,k\ge n}|S_{k}-S_{l}|>\epsilon)=0$ o equivalentemente se $\lim_{n\to+\infty}\mathbb{P}(\text{sup}_{k\ge 0}|S_{n+k}-S_{n}|>\epsilon)=0$.
Poniamo $S_n=\sum_{i=1}^n X_i$. Allora
$\mathbb{P}(\text{sup}_{k\ge 0}|S_{n+k}-S_{n}|>\epsilon)= \mathbb{P}(\text{sup}_{k\ge 0}|\sum_{i=n+1}^{n+k}X_i|>\epsilon)=$
$ \lim_{N\to+\infty} \mathbb{P}(\text{sup}_{k=0,...,N}|\sum_{i=n+1}^{n+k}X_i|>\epsilon)\leq$
$\lim_{N\to+\infty}\frac{\sum_{i=n+1}^{n+N} \text{Var}(X_i)}{\epsilon^2}=\frac{\sum_{i=n+1}^{+\infty} \text{Var}(X_i)}{\epsilon^2}$
Da cui la tesi, in quanto abbiamo mostrato che $S_n$ è di Cauchy q.c. e dunque converge verso una v.a. $S$ q.c. In particolare, essendo la serie delle varianze finite, $S$ è una v.a. quadrato integrabile.
Oss: nella prima e ultima disuguaglianza si è usato il fatto che le v.a. sono disgiunte per scambiare somme e varianza e la disuguaglianza di Kolmogorov.
Mi sembra che funzioni. La merenda che ha portato nuovi zuccheri sembrerebbe aver funzionato.
Per il viceversa penso che bisogna pensare a una serie che converga q.c. ma non in $L^2$, in quel caso le cose potrebbero andare male, penso.
________________________________________________________
(*) questo è un risultato abbastanza noto penso, ma dal momento che non ricordo la sua dimostrazione (bello, dopo qualche tempo, come sempre, iniziare a usare i risultati senza ricordarsi da dove vengano... cerco sempre di minimizzare questo trend


Poniamo $A_n^{\epsilon}=\{\text{sup}_{k\ge n}|S_{k}-S|>\epsilon\}$ e $A^{\epsilon}=\text{limsup}A_n^{\epsilon}$.
Allora $\{S_n \text{non converge a } S\}=\cup_{\epsilon\ge 0}A^{\epsilon}$. Inoltre sappiamo che, essendo gli eventi inscatolati, $\mathbb{P}A^{\epsilon}}=\lim_{n\to+\infty}\mathbb{P}(\cup_{k\ge n}A_k^{\frac{1}{m}})$
Dunque $0=\mathbb{P}(S_n \text{non converge a } S\)=\mathbb{P}(\cup_{\epsilon\ge 0}A^{\epsilon})\Leftrightarrow \mathbb{P}(\cup_{m\ge 0}A^{\frac{1}{m}})=0\Leftrightarrow\mathbb{P}(A^{\frac{1}{m}})=0$
$\Leftrightarrow \lim_{n\to+\infty}\mathbb{P}(\cup_{k\ge n}A_k^{\frac{1}{m}})=0$
$\Leftrightarrow\lim_{n\to+\infty}\mathbb{P}(\text{sup}_{k\ge n}|S_{k}-S|>\epsilon)=0$.
Infatti avevo pensato a qualcosa con Cauchy e poi continuare in maniera simile alla tua; mi chiedevo comunque come trasferire il concetto di Cauchy alle v.a.
Per il converso mi pare sia sufficiente considerare le v.a. $X_n$ tali che
$P(X_n=n)=P(X_n=-n)=1/(2n^2)$ e $P(X_n=0)=1-1/(n^2)$.
Per il converso mi pare sia sufficiente considerare le v.a. $X_n$ tali che
$P(X_n=n)=P(X_n=-n)=1/(2n^2)$ e $P(X_n=0)=1-1/(n^2)$.