LLN^{-1}: Inverso dei grandi numeri
Un esercizio per l'estate da cui viene fuori come l'ipotesi di essere integrabile risulti in qualche senso "fondamentale" per la legge dei grandi numeri...
"Sia $(\Omega,\mathcal{F},P)$ uno spazio di probabilità e sia $X_n$ una successione IID definita su tale spazio con $E(|X_n|)=\infty$ per ogni $n$. Provare che
$\sum_n P(|X_n|>kn)=\infty$ per $k\in\mathbb{N}$ e $\text{limsup}\frac{|X_n|}{n}=\infty$, qc . Dedurne che, posto $S_n=X_1+...+X_n$ allora $\text{limsup}\frac{|S_n|}{n}=\infty$, qc"
"Sia $(\Omega,\mathcal{F},P)$ uno spazio di probabilità e sia $X_n$ una successione IID definita su tale spazio con $E(|X_n|)=\infty$ per ogni $n$. Provare che
$\sum_n P(|X_n|>kn)=\infty$ per $k\in\mathbb{N}$ e $\text{limsup}\frac{|X_n|}{n}=\infty$, qc . Dedurne che, posto $S_n=X_1+...+X_n$ allora $\text{limsup}\frac{|S_n|}{n}=\infty$, qc"
Risposte
Provo velocemente, queste cose mi divertono sempre...
Non mi è chiaro un punto
Mi pare di capire (ma probabilmente sono io che non ho capito ) che se \( \sum a_n\) diverge anche \( \sum a_{kn}\) diverge, questa affermazione è manifestamente falsa, basta considerare la serie di termine generale
\(
a_{n=}\begin{cases}
\frac{1}{n} & n \mbox{ }dispari\\
\frac{1}{n^{2}} & n \mbox{ }pari
\end{cases}
\)
la serie \( \sum a_n\) diverge ma \( \sum a_{2n}\) converge.
"Andrea2976":
Ora dato che\( E(|Xn|)=E(|X1|)=∫|x_1|dμ(x_1)≤∑_{n≥0}μ(|x_1|>n) \)con la serie che diverge (serie positiva minorata da +∞) allora anche le serie del tipo \(∑_{n≥0}μ(|x_1|>kn)\) divergeranno (serie estratte da una serie divergente), con k∈N.
Mi pare di capire (ma probabilmente sono io che non ho capito ) che se \( \sum a_n\) diverge anche \( \sum a_{kn}\) diverge, questa affermazione è manifestamente falsa, basta considerare la serie di termine generale
\(
a_{n=}\begin{cases}
\frac{1}{n} & n \mbox{ }dispari\\
\frac{1}{n^{2}} & n \mbox{ }pari
\end{cases}
\)
la serie \( \sum a_n\) diverge ma \( \sum a_{2n}\) converge.
parzialmente OT: forse è scontato visto che hai usato la notazione probabilistica con la P, ma aggiungerei nel testo che P è una probabilità o cmq una misura finita.
Si, l'avevo dato per scontato che $P$ fosse una misura di probabilità, come si dice in questi casi: notazioni self explaining
hai comunque fatto bene a sottolineare la cosa.

Ciao Tot,
ovviamente la tua osservazione è giusta, mi hai letto nella mente perché ieri spegnendo il pc mi son detto "ma che ... hai scritto?" (mi era venuto subito in mente il controesempio con $\frac{1}{n}$ e $\frac{1}{n^2}$).
Provo a riformulare la cosa e a ripostarla in giornata se riesco.
Mi sa che tot mi ha fatto ritornare il loop mentale cui mi ero incartato ieri prima di scrivere...
$P(|X|\ge k n)=P(\frac{|X|}{k}\ge n)$ ora sommando su $n$ ho che $\sum_n P(\frac{|X|}{k}\ge n)\ge E(\frac{|X|}{k})$, ma dato che $E(|X|)$ diverge allora anche $E(\frac{|X|}{k})$ divergerà da cui $\sum_n P(|X|\ge kn)=+\infty$...oppure sto svalvolando?
ovviamente la tua osservazione è giusta, mi hai letto nella mente perché ieri spegnendo il pc mi son detto "ma che ... hai scritto?" (mi era venuto subito in mente il controesempio con $\frac{1}{n}$ e $\frac{1}{n^2}$).
Provo a riformulare la cosa e a ripostarla in giornata se riesco.
Mi sa che tot mi ha fatto ritornare il loop mentale cui mi ero incartato ieri prima di scrivere...
$P(|X|\ge k n)=P(\frac{|X|}{k}\ge n)$ ora sommando su $n$ ho che $\sum_n P(\frac{|X|}{k}\ge n)\ge E(\frac{|X|}{k})$, ma dato che $E(|X|)$ diverge allora anche $E(\frac{|X|}{k})$ divergerà da cui $\sum_n P(|X|\ge kn)=+\infty$...oppure sto svalvolando?
"Andrea2976":
$\sum_n P(\frac{|X|}{k}\ge n)\ge E(\frac{|X|}{k})$
Se n contiene lo 0, credo che questa disuguaglianza sia giusta.
Però dovresti perdere un po' di tempo a scriverne una dimostrazione, così sinceramente non si capisce da dove salta fuori(almeno io non lo capisco).
La dimostrazione che mi chiedi thomas è abbastanza standard, la trovi in quasi tutti i libri di probabilità, ad esempio:
Achim Klenke, Probability Theory: A Comprehensive Course (teorema 4.26)
Una molto semplice ma molto carina è questa, dato una v.a. $X$ positiva, per semplicità la penso a valori in $N$ ma vale anche più in generale hai che:
$E(X)=\sum_{n\ge 0} n p(n)=\sum_{n\ge 0} \sum_{m=0}^n p(n)=\sum_{m \ge 0} \sum_{n=m}^{+\infty} p(n)=\sum_{m \ge 0}P(X \ge m)$
Achim Klenke, Probability Theory: A Comprehensive Course (teorema 4.26)
Una molto semplice ma molto carina è questa, dato una v.a. $X$ positiva, per semplicità la penso a valori in $N$ ma vale anche più in generale hai che:
$E(X)=\sum_{n\ge 0} n p(n)=\sum_{n\ge 0} \sum_{m=0}^n p(n)=\sum_{m \ge 0} \sum_{n=m}^{+\infty} p(n)=\sum_{m \ge 0}P(X \ge m)$
eheh... ok... non avevo capito dessi per scontata quell'identità... pensavo che dimostrare quella o qualcosa di simile fosse parte dell'esercizio!... anche io la ricordavo è molto carina
...

"Andrea2976":
.oppure sto svalvolando?
ma così a prima lettura non direi proprio



Dato che è passato un po' di tempo, metto la soluzione (sperando che sia corretta
)
rilancio (per queste variabili aleatorie esiste comunque una sorta di legge dei grandi numeri...): Supponiamo di avere una successione $X_n$ iid di v.a. positive tali che $P(X_1>t)\sim c/t^{\alpha}$, con $\alpha \in (0,1)$.
Allora $w-\lim S_n/n^{1/\alpha}=Y$ dove $S_n=X_1+...+X_n$ e $w-\lim$ indica il limite in distribuzione (scusate la notazione poco probabilistica
) e $Y$ è una v.a. non banale.

rilancio (per queste variabili aleatorie esiste comunque una sorta di legge dei grandi numeri...): Supponiamo di avere una successione $X_n$ iid di v.a. positive tali che $P(X_1>t)\sim c/t^{\alpha}$, con $\alpha \in (0,1)$.
Allora $w-\lim S_n/n^{1/\alpha}=Y$ dove $S_n=X_1+...+X_n$ e $w-\lim$ indica il limite in distribuzione (scusate la notazione poco probabilistica

Ciao $fu^2$
domanda di notazione:
domanda di notazione:
Scusa se non l'ho chiarita come notazione, credevo fosse usata
Normalmente se $X,Y$ sono due v.a. (o "quello che vuoi"), allora $X\wedge Y:=\text{min}(X,Y)$

Normalmente se $X,Y$ sono due v.a. (o "quello che vuoi"), allora $X\wedge Y:=\text{min}(X,Y)$
"fu^2":
Scusa se non l'ho chiarita come notazione, credevo fosse usata![]()
Normalmente se $X,Y$ sono due v.a. (o "quello che vuoi"), allora $X\wedge Y:=\text{min}(X,Y)$
ah ok, grazie. Simpatica notazione, è colpa mia che non la conosco, ma è piuttosto esplicita ora sapendone il significato

e se la ribalti ti viene il massimo

hint:
Ciao! Sono il tuo Tutor AI, il compagno ideale per uno studio interattivo. Utilizzo il metodo maieutico per affinare il tuo ragionamento e la comprensione. Insieme possiamo:
- Risolvere un problema di matematica
- Riassumere un testo
- Tradurre una frase
- E molto altro ancora...
Il Tutor AI di Skuola.net usa un modello AI di Chat GPT.
Per termini, condizioni e privacy, visita la relativa pagina.
Per termini, condizioni e privacy, visita la relativa pagina.