Disuguaglianza di Markov

Balengs
Ho trovato due o tre dimostrazioni sia su internet che che sui miei libri e ognuna diversa ( una utilizzava delle partizioni della popolazione, un'altra una scomposizione della somma, un'altra ancora introduceva una variale "I" ... ) - con diversa simbologia intendo e anche diversi modi di arrivarci.
Nonostante credo sia banale non ho trovato una dimostrazione che mi è stata chiara... e non riesco a ricostruirla col ragionamento perchè non l'ho ben compresa.

C'è qualcuno che può chiarirmi un pò le idee?
Devo comprenderla assolutamente anche perchè devo poi dimostrare anche la disuguaglianza di Chebysev... Aiuto! :smt009

Risposte
dissonance
Qual è la disuguaglianza di Markov? Forse intendi questa:

$P( | X | \ge lambda) \le 1/(lambda^p) int_{Omega} |X|^p dP$

Se è così, per visualizzarla intuitivamente disegna il grafico di una funzione $X:Omega=[0, 1] \to RR$ positiva. Segna sull'asse delle $x$, che d'ora in poi converrà chiamare asse delle $omega$, l'insieme ${omega: X(omega) ge lambda}$. Se la funzione non è troppo complicata questo insieme è un segmento. Allora $lambda*P(X ge lambda)$ è l'area di un rettangolo tutto contenuto nella regione posta al di sotto del grafico di $X$. Quindi $lambda*P(X ge lambda) le int_{Omega} X dP$. Questo è il caso $p=1$, ma almeno a livello intuitivo è sufficiente a vedere pure il caso generale.

Balengs
Credo sia una "variante" della stessa formula. Nel libro ho:

$P(X >= cE(X)) <= 1/c $

Dove $X >= 0$ , $c >= 0$

In questo primo caso la dimostrazione viene fatta utilizzando una partizione di $U$ (la popolazione)

Mentre su un altro libro di Cicchitelli, e anche su wikipedia trovo:

$P(X >= \alpha) <= (E[X])/\alpha$

e la dimostrazione, tra l'altro molto breve, viene fatta definendo una variabile casuale $I$ (credo sia l'indicatore di un evento concetto che ho visto solamente sui video dell'università uninettuno ma noi all'università non l'abbiamo neanche visto di striscio...).
Comunque tale variabile $I$ è definita così

$I$ = $\{(1 \Leftrightarrow X >= \alpha),(0 \Leftrightarrow X <= \alpha ):}$

Poi aggiunge che "chiaramente" :

$0 <= I <= X/\alpha$ ----> perchè chiaramente , cos'è che non capisco :(

e inoltre :

$P(X >= \alpha) = P( I=1 ) = E <= E[X]/\alpha = E[X]/\alpha$ ----> come fa a trarre la conclusione che $ P( I=1 ) = E $ e da lì poi che $ E <= E[X]/\alpha = E[X]/\alpha$ ....?


Grazie in anticipo per qualsiasi aiuto

dissonance
Sono cose base sugli indicatori. L'indicatore di un evento $A$ è una v.a. $I_A$ che vale $1$ se l'evento si verifica e $0$ altrimenti. Così, il valore atteso di $I_A$ è uguale a $P(A)$.

Quell'indicatore $I$ che hai visto è l'indicatore dell'evento ${X ge a}$: se questo evento si verifica, $X$ è più grande di $a$ e quindi $X$ è più grande di $aI$, visto che $I$ in questo caso è $1$. Altrimenti $I$ vale zero: ma siccome $X$ è sempre positiva, pure in questo caso essa è più grande di $aI$. Perciò, "chiaramente", hai che $0 le aI le X$.

Rifletti su questo e dovresti capire anche il resto.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.