Legge grandi numeri: dimostrazione "analitica"

lewis1
Buongiorno.
Avrei bisogno dek vostro preziosissimo aiuto per la Legge Dei Grandi Numeri, in particolare in una sua formulazione più "analitica". Purtroppo per me non sono un mostro in analisi, e si vede!
La Legge è espressa come corollario del seguente Teorema (che abbiamo dimostrato a lezione)

Teorema:
Sia ${X_n}_1 ^oo$ una sequenza di v.a. a due a due indipendenti, t.c.
1) $E(X_n) = 0$
2) sup $E(X_n ^2) < + oo$

Allora $lim (1/n sum_(k=1) ^n (X_k) = 0)$

Corollario: Legge Grandi Numeri
Sia ${X_n}_1 ^oo$ una sequenza di v.a. IID e sia $mu$ la corrispondente distribuzione comune. Allora
1) se $X_n in L^2 (Omega, B, P) => lim 1/n sum_(k=1) ^n (X_k) = \int_(RR) x d mu(x)$
2) se $X_n !in L^1 (Omega, B, P)$ allora la serie diverge q.c.

Dimostrazione.
Per poter applicare il teorema, abbiamo bisogno di una variabile aleatoria che abbia media uguale a 0 e che sia superiormente limitata.
Quindi definiamo
$Y_n := X_n - EX_n$
In questo modo effettivamente $EY = 0$.
Poi vediamo che $E((Y_n - E(Y_n))^2)= EY_n ^2 $ e fin qui tutto ok.
Poi però nella dimostrazione abbiamo eguagliato
$EY_n ^2 = \int_RR (|x|^2 dmu(x))$ e qui non ho più capito.
Perchè vale questa uguaglianza? Innanzitutto, è corretto dire che il passaggio intermedio sarebbe
$EY_n ^2 = int_Omega (Y_n (omega) dP(omega))$ ?
Però, se anche questo è corretto non capisco l'uguaglianza che viene dopo. $mu$ è la distribuzione comune alle $X_n$, non anche a $Y_n$. O magari lo è, ma io non lo vedo...

Poi la dimostrazione si conclude applicando appunto il teorema (però non è spiegato in che modo vada applicata la tesi...)
Dal teorema precedente segue che
$lim (1/n sum_(k=1) ^n (X_k) = 0)$ cioè quella quantità è uguale a 0, non all'integrale di x!!

Mi potete dare una spintarella a proseguire?
Grazie mille e buon appetito :wink:

Risposte
DajeForte
Ciao lewis; come va?
Alla fine come si è sviscerata la questione dell'altra volta tra intersezioni ed unioni?

Per quanto riguarda quello che chiedi ora ti dico subito che questi non sono argomenti freschissimi per me.
Per quanto riguarda la media le due definizioni sono equivalenti è solo un ragionamento su che spazio di probabilità utilizzare per definire quell'integrale (di Lebesgue), se lo spazio che viene utilizzato come dominio della variabile aleatoria o se lo spazio di codominio.

Per la seconda questione, bisognerebbe anche qua vedere cosa intendi con $mu$, magari potrebbe essere solo un piccolo abuso di notazione, diciamo comprensibile, nel quale si fa riferimento alla misura della $Y$.
Potrebbe anche essere che è inteso un inizio della dimostrazione del tipo:
"non è riduttivo considerare considerare le X a media nulla perchè standardizzando e ragionando sulle Y si riottiene quello che si vuole"

Cerca di andare un po' avanti e vedere si ci sono delle forme di sottointendimento di questo tipo: come ad esempio nell'ultimo limite che è uguale a 0; è ovvio che se le variabili non hanno media 0 quello non è vero però...

quindi vedi un po' avanti se ti si rischiarisce un po' la situazione.

lewis1
Ehilà! Tutto bene, grazie, tranne che ci sto mettendo secoli a preparare quest'esame...del resto la materia mi piace parecchio (benchè l'analisi non sia il mio forte: lo so, sono una contraddizione ambulante :lol: :lol: ), ci terrei a prepararlo bene e in modo da fissare bene i concetti, aldilà della prova d'esame.

Per quanto riguarda l'altra questione (un'altra dimostrazione della Legge dei grandi numeri: è proprio un'ossessione!!! :-D ), alla fine avevamo ragione noi; purtroppo ho avuto qualche problema a contattare il prof causa server di posta dell'università ( :evil: ) quindi ci ho messo un po' ad averne la conferma. Anzi, ora che me lo ricordi, andrò ad aggiornare il vecchio post, così non lasciamo nessun eventuale lettore nel dubbio! :wink:

Tornando al problema ahimè attuale, dunque...il danno è che la dimostrazione si conclude così (effettivamente ci sono spesso molti passaggi impliciti, ed è anche un bene, così ci penso un po' su).
Qui però...boh.
Il punto è che è proprio specificato che $mu$ è la distribuzione comune alle $X_n$, mentre nulla è detto su $Y_n$. Magari si può dedurre che la distribuzione è la medesima dalla definizione di $Y_n$, però io non la vedo...

Per la conclusione, usando appunti e ragionandoci su, ci saremmo (forse): applicando il teorema, avremmo che
$lim 1/n sum_(k=1) ^n Y_n = 0$
Poi uso la definizione di $Y_n$:

$lim 1/n sum_(k=1) ^n Y_n = lim1/n sum_(k=1) ^n (X_n - EX_n) = 1/n sum_(k=1) ^n X_n - 1/n sum_(k=1) ^n EX_n$

poi applico la definizione di $EX_n= \int _ RR x dmu(x)$ (quindi n volte quella quantità, che si semplifica con $1/n$):

$=1/n sum_(k=1) ^n X_n \int_RR x dmu(x) rarr 0$ e quindi ci saremmo.
(Non escludo di avere scritto boiate nel cammino però :roll: In fondo sono ancora un'apprendista matematica :lol: )

Io avevo fatto un ragionamento (molto contorto e probabilmente molto sbagliato) per mostrare che $EY_n ^2$ è superiormente limitato. Lo riporto, ma è sicuramente assurdo (non c'è niente di lontanamente simile nelle dispense nè negli appunti)

$E((Y_n - EY_n)^2) = EY_n ^2$ ma anche
$E((Y_n - EY_n)^2) = E((X_n - EX_n)^2) = EX_n ^2 - (EX_n)^2$
Ma
$EX_n ^2$ è superiormente limitato perchè $X_n in L^2 (Omega, B, P)$ quindi anche $EY_n ^2$ lo è, in quanto è uguale a una quantità minore di infinito meno qualcosa di positivo. E questo mi permetterebbe di applicare il teorema a $Y_n$, perchè avrei mostrato che
1) $EY_n=0$
2) sup $EY_n ^2 < + oo$

Però, ok, è sbagliato vero?? :-D :-D

Grazie della risposta comunque, e grazie per l'immensa pazienza che la mia testaccia dura richiede!!

DajeForte
Allora se chiami $m=E[X]$ (non ci metto la n perchè tanto hanno tutte la stessa distribuzione quindi hanno media uguale)

allora $lim_n 1/nsum_{i=1}^nX_i=m$ se e solo se

$lim_n 1/nsum_{i=1}^n(X_i-m)=0$; quindi sono equivalenti.

La parte sul superiormente limitata non è corretta invece.
$Y_n=X_n-m$

Ovviamente hai che $E[Y_n^2]=Var[X_n]=E[X_n^2]-E^2[X_n]$
Quindi quello che scrivevi qua era giusto.

Poi dici $E[X_n^2]$ è superiormente limitato perchè $X_n^2 in L^2$. Questo non è vero.
Superiormente limitato significa che $\su p_n E[X_n^2] Prendi ad esempio $X_n=n$; quindi $E[X_n^2]=n^2$ però il sup è $+infty$.

Quello che devi sfruttare è che sono identicamente distribuite quindi quel valore atteso è costante, ovvero:
$E[X_n^2]=k$ per ogni n ed ovviamente il suo sup è uguale a k che è finito.

Alla stessa maniera $E[Y_n^2]=Var[X_n^2]=sigma^2$ per ogni n e quindi è superiormente limitato.

lewis1
Non so se ho capito.
Dunque, $X in L^2 => \int_RR |x|^2 dmu(x) < + oo$
Ma non è esattamente $\int_RR |x|^2 dmu(x) = EX^2$?

Il mio errore è che dico che, essendo $EY^2<+oo$ allora anche il suo sup lo è?

(scusa la testaccia dura :oops: )

"DajeForte":
Allora se chiami $m=E[X]$ (non ci metto la n perchè tanto hanno tutte la stessa distribuzione quindi hanno media uguale)

allora $lim_n 1/nsum_{i=1}^nX_i=m$ se e solo se

$lim_n 1/nsum_{i=1}^n(X_i-m)=0$; quindi sono equivalenti.



:shock: Ok, probabilmente sto dando i numeri...ma non c'è una parentesi di troppo??
non dovrebbe essere equivalente a
$lim_n 1/nsum_{i=1}^n(X_i) -m=0$ ???

DajeForte
"lewis":
Non so se ho capito.
Dunque, $X in L^2 => \int_RR |x|^2 dmu(x) < + oo$
Ma non è esattamente $\int_RR |x|^2 dmu(x) = EX^2$?

Si sono esattamente la stessa cosa. Si quindi $X in L^2$ significa che $E[X^2]=int_{Omega}X^2(omega) dP(omega)=int_{RR}|x|^2 dmu(x) < infty$

Ora se tu hai una successione ${X_n}_n$ di v.a. dove ciascuna è in $L^2$ non è detto che $s up_n E[X^2] Non so se conosci le successioni, ma $E[X_n^2]= a_n$ è un valore reale ed al variare di n hai una successione reale.
La condizione che sono in $L^2$ ti dice che $a_n$ è finito (non diverge ma converge) però non ti dice che la successione è limitata.

Hai qualche dubbio riguardo alle relazioni tra le Y e le X; se si lo vediamo insieme.

"lewis":
[quote="DajeForte"]Allora se chiami $m=E[X]$ (non ci metto la n perchè tanto hanno tutte la stessa distribuzione quindi hanno media uguale)

allora $lim_n 1/nsum_{i=1}^nX_i=m$ se e solo se

$lim_n 1/nsum_{i=1}^n(X_i-m)=0$; quindi sono equivalenti.



:shock: Ok, probabilmente sto dando i numeri...ma non c'è una parentesi di troppo??
non dovrebbe essere equivalente a
$lim_n 1/nsum_{i=1}^n(X_i) -m=0$ ???[/quote]
$1/nsum_{i=1}^n(X_i-m) \quad = \quad 1/n{sum_{i=1}^nX-sum_{i=1}^nm} \quad = \quad 1/nsum_{i=1}^nX-1/nsum_{i=1}^nm \quad = \quad {1/nsum_{i=1}^nX}-m$

lewis1
Mmmmh...mi sa che la mia testa è più dura di quanto temessi allora :-D
Ma quindi come mostro che il sup$E(X_n ^2) < +oo$?
Senza questo non posso applicare il teorema...

Magari me l'hai già spiegato, ma non l'ho capito ( :oops: )

(Ieri ne ho discusso con dei compagni di corso, nemmeno loro hanno capito...sono in buona compagnia a quanto pare :roll: )

DajeForte
Te lo ho già detto, perchè sono ugualmente distribuite; quindi $E[X_n^2]$ è costante al variare di n e quindi il sup è uguale a quella costante.

lewis1
Lo so, probabilmente a questo punto mi odi. :-D
Però....
Se le $X_n$ sono tutte ugualmente distribuite, allora anche le $Y_n$ lo sono, per definizione. Quindi anche per le $Y_n$ non devo considerare il sup.
ma allora perchè non va bene il ragionamento di maggiorazione che avevo fatto io?

Ri scusa e grazie.

DajeForte
Aspetta non ci siamo capiti forse.

$X_n$ iid.
Se definisci $E[X_n]=mu$ e $Var[X_n]=sigma^2$ ed $Y_n=X_n-mu$
il fatto che siano iid implica che $E[X_n^2]=sigma^2+mu^2$ è costante quindi $s up E[X_n^2]=sigma^2+mu^2$
Allo stesso modo $E[Y_n^2]=Var[X_n]=sigma^2$ quindi $s up E[Y_n^2]=sigma^2$.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.