Condizione sufficiente di "tightness"
Sto cercando di tradurre in qualcosa di sensato una condizione sufficiente perché una successione di misure di probabilità sia tight (tesa), che ho trovato nei miei appunti maLoscritti
Quindi vi chiedo prima di tutto se l'enunciato è sensato e magari anche vero, poi se la dimostrazione è giusta.
Proposizione. Sia $(X_n)$ una successione di variabili aleatorie reali. Se esiste una funzione reale $h(x)$ strettamente crescente, divergente e tale che esiste $C$ per cui $E[h(|X_n|)]\leq C$ per ogni $n$, allora la successione $P_n$ delle leggi delle $X_n$ è tesa.
Vecchia Dimostrazione. La successione delle $P_n$ è tesa (per definizione) se e solo se per ogni $\epsilon>0$ esiste $M>0$ tale che $P_n([-M,M])\geq 1-\epsilon$ per ogni $n$, cioè $P\{|X_n|>M\}\leq\epsilon$ per ogni $n$.
Per la disuguaglianza di Markov si ha $P\{|X_n|>M\}\leq {E[|X_n|]}/{M}$ $\Leftrightarrow$ $P\{h(|X_n|)>h(M)\}\leq {E[h(|X_n|)]}/{h(M)}\leq {C}/{h(M)}\leq\epsilon$ per $M$ sufficientemente grande. CVD
Nuova Dimostrazione. La successione delle $P_n$ è tesa (per definizione) se e solo se per ogni $\epsilon>0$ esiste $M>0$ tale che $P_n([-M,M])\geq 1-\epsilon$ per ogni $n$, cioè $P\{|X_n|>M\}\leq\epsilon$ per ogni $n$.
Essendo $h$ strettamente crescente, $P\{|X_n|>M\}=P\{h(|X_n|)>h(M)\}$, e per la disuguaglianza di Markov si ha $P\{h(|X_n|)>h(M)\}\leq {E[h(|X_n|)]}/{h(M)}\leq {C}/{h(M)}\leq\epsilon$ per $M$ sufficientemente grande. CVD
Il mio dubbio principale riguarda le proprietà richieste per funzione $h$, ma mi pare che essere crescente serva per poter riscrivere la disuguaglianza di Markov con $h$, mentre la divergenza (a $+\infty$ per $x\to +\infty$) mi serve per "mandare a zero" ${C}/{h(M)}$, che ne dite?

Quindi vi chiedo prima di tutto se l'enunciato è sensato e magari anche vero, poi se la dimostrazione è giusta.
Proposizione. Sia $(X_n)$ una successione di variabili aleatorie reali. Se esiste una funzione reale $h(x)$ strettamente crescente, divergente e tale che esiste $C$ per cui $E[h(|X_n|)]\leq C$ per ogni $n$, allora la successione $P_n$ delle leggi delle $X_n$ è tesa.
Vecchia Dimostrazione. La successione delle $P_n$ è tesa (per definizione) se e solo se per ogni $\epsilon>0$ esiste $M>0$ tale che $P_n([-M,M])\geq 1-\epsilon$ per ogni $n$, cioè $P\{|X_n|>M\}\leq\epsilon$ per ogni $n$.
Per la disuguaglianza di Markov si ha $P\{|X_n|>M\}\leq {E[|X_n|]}/{M}$ $\Leftrightarrow$ $P\{h(|X_n|)>h(M)\}\leq {E[h(|X_n|)]}/{h(M)}\leq {C}/{h(M)}\leq\epsilon$ per $M$ sufficientemente grande. CVD
Nuova Dimostrazione. La successione delle $P_n$ è tesa (per definizione) se e solo se per ogni $\epsilon>0$ esiste $M>0$ tale che $P_n([-M,M])\geq 1-\epsilon$ per ogni $n$, cioè $P\{|X_n|>M\}\leq\epsilon$ per ogni $n$.
Essendo $h$ strettamente crescente, $P\{|X_n|>M\}=P\{h(|X_n|)>h(M)\}$, e per la disuguaglianza di Markov si ha $P\{h(|X_n|)>h(M)\}\leq {E[h(|X_n|)]}/{h(M)}\leq {C}/{h(M)}\leq\epsilon$ per $M$ sufficientemente grande. CVD
Il mio dubbio principale riguarda le proprietà richieste per funzione $h$, ma mi pare che essere crescente serva per poter riscrivere la disuguaglianza di Markov con $h$, mentre la divergenza (a $+\infty$ per $x\to +\infty$) mi serve per "mandare a zero" ${C}/{h(M)}$, che ne dite?
Risposte
Dimostri dunque che esiste $M$ tale che $P(|X_n|> M) <= varepsilon$; sulla funzione $h$ va bene se e' strettamente crescente, se non lo e' non vale che $P(|X_n|>M)=P(h(|X_n|)>h(M))$
Grazie DajeForte! Ho modificato qualcosa nel testo iniziale: ho aggiunto "strettamente" e ho riscritto parte della dimostrazione ispirandomi al tuo intervento, che tra l'altro mi ha fatto venire il sospetto che la $h$ debba anche essere positiva, altrimenti Markov non vale, giusto?
Prego.
Giusto, me lo ero perso, pero' non escludo tu possa rilassare leggermente le ipotesi.
Ad esempio se la funzione e' crescente (eventualmente non strettamente) allora $x>y rightarrow h(x) >= h(y)$.
Dunque ${ omega | \ |X_n(omega)|>M} sube { omega | \ h(|X_n(omega)|)>= h(M)}$ ma Markov vale comunque
Giusto, me lo ero perso, pero' non escludo tu possa rilassare leggermente le ipotesi.
Ad esempio se la funzione e' crescente (eventualmente non strettamente) allora $x>y rightarrow h(x) >= h(y)$.
Dunque ${ omega | \ |X_n(omega)|>M} sube { omega | \ h(|X_n(omega)|)>= h(M)}$ ma Markov vale comunque
Ah sì, tolgo lo "strettamente" dall'ipotesi e metto $P\{|X_n|>M\}\leq P\{h(|X_n|)>h(M)\}$ nella dimostrazione...
Per essere preciso, devi mettere il maggiore uguale anche nella disuguaglianza dell'evento piu grande (se non era un typo).
Grazie DajeForte, non ho corretto tutto dopo il copia&incolla
La disuguaglianza esatta, nel caso di funzione $h$ non strettamente crescente, è $P\{|X_n|>M\}\leq P\{h(|X_n|)\geq h(M)\}$.
