Limite e applicazione
Salve ragazzi, non posterei qui se non sapessi proprio come risolvere questi quesiti:
1) Sia $X$ una variabile aleatoria che assume soltanto valori positivi e $E[X]< infty$. Dimostrare che
$lim_{N \to \infty} N* P[X > N] = 0$
2) Dimostrare che
$E[X] = \int_0^{infty} P[X > x] dx$
se X possiede una densità di probabilità.
1) Le ho provate tutte, da Chebyshev, alla funzione di Ripartizione. Non riesco a cavarci nulla. Sono quasi disperato...
2) Integrando parzialmente con la definizione dovrebbe uscirmi, ma poi dovrei anche applicare 1) in questo calcolo per dimostralo...Non riesco a cavarci nulla..
Chi mi sa aiutare?
1) Sia $X$ una variabile aleatoria che assume soltanto valori positivi e $E[X]< infty$. Dimostrare che
$lim_{N \to \infty} N* P[X > N] = 0$
2) Dimostrare che
$E[X] = \int_0^{infty} P[X > x] dx$
se X possiede una densità di probabilità.
1) Le ho provate tutte, da Chebyshev, alla funzione di Ripartizione. Non riesco a cavarci nulla. Sono quasi disperato...

2) Integrando parzialmente con la definizione dovrebbe uscirmi, ma poi dovrei anche applicare 1) in questo calcolo per dimostralo...Non riesco a cavarci nulla..
Chi mi sa aiutare?
Risposte
Ok per il 2) credo di esserci...integrando parzialmente esce
$\int_0^{infty} P[X > x] dx = (x * P[X > x])_0^{infty} - \int_0^{infty} x*(1- F_X(x))' dx = lim_{x \to infty} x P[X > x] - 0 - \int_0^{infty} x*(-f_X(x)) dx$
Il limite per il punto 1) tende a 0, e quindi abbiamo:
$\int_0^{infty} P[X > x] dx = \int_0^{infty}x*f_X(x) dx = E[X]$
Ora però serve dimostrare il primo punto...
$\int_0^{infty} P[X > x] dx = (x * P[X > x])_0^{infty} - \int_0^{infty} x*(1- F_X(x))' dx = lim_{x \to infty} x P[X > x] - 0 - \int_0^{infty} x*(-f_X(x)) dx$
Il limite per il punto 1) tende a 0, e quindi abbiamo:
$\int_0^{infty} P[X > x] dx = \int_0^{infty}x*f_X(x) dx = E[X]$
Ora però serve dimostrare il primo punto...
Non sapendo nulla sulla varianza non si può applicare la disuguaglianza di Chebyshev. Se però $sigma_X^2$ esistesse finito, allora un modo di procedere può essere il seguente: per via grafica si vede che, se $X>0$, allora da un certo $N$ in poi $P[X>N]=P[|X-E[X]|>N]$ (si tratta di spostare a sinistra di $E[X]$ la distribuzione di probabilità e sommare alla parte a destra dell'asse delle ascisse la parte a sinistra, resa speculare rispetto allo stesso asse). Ora, per Chebyshev, $ N*P[X>N]= N*P[|X-E[X]|>N]<=(sigma_X^2)/(N)$, dunque il limite è $0$ per il teorema dei carabinieri.