Disguaglianza probabilistica

Sk_Anonymous
Premessa n°1: trattasi questo di un esercizio di Probabilità, ma il mio problema è di tipo analitico. Se i moderatori ritengono di dover spostare la discussione in una stanza più adatta, facciano pure. Io ero indeciso.
Premessa n°2: cercherò di limitare al minimo i conti, che sono risultati essere un fottio (ma forse nemmeno tutti necessari). Sarò il più possibile ordinato.

L'esercizio è il seguente:

Sia \(\displaystyle (X_{i})_{i \ge 1} \) una successione di variabili aleatorie indipendenti e identicamente distribuite con distribuzione di Bernoulli di parametro \(\displaystyle p \in (0,1) \). Sia poi \(\displaystyle q \in (p,1) \).
Provare che \(\displaystyle \forall \ N \in \mathbb{N} \) e \(\displaystyle \forall \ t \ge 0 \) vale la seguente disuguaglianza: \[\displaystyle P \left(\frac{1}{N} \sum_{i=1}^{N} X_{i} \ge q \right) \le e^{-tNq}(E[e^{tX_{i}}])^{N} \quad [1] \]

Svolgimento - parte destra:
Riscrivo: \[\displaystyle P \left(\frac{1}{N} \sum_{i=1}^{N} X_{i} \ge q \right)=P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \]
vale poi la seguente disuguaglianza di Čebyšëv
\[\displaystyle P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \le \frac{E \left[ \sum_{i=1}^{N} X_{i} \right]}{Nq} \]
che diventa, per linearità del valor medio
\[\displaystyle P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \le \frac{ \sum_{i=1}^{N} E(X_{i})}{Nq}=\frac{Np}{Nq}=\frac{p}{q}<1 \]

Parte sinistra:
Quella schifezza (secondo fattore del prodotto) è la funzione generatrice dei momenti di una Bernoulli, e pertanto si ha \[\displaystyle e^{-tNq}(E[e^{tX_{i}}])^{N}=e^{-tNq}(e^{t}p+(1-p))^{N}=\psi_{N}(t) \]
del resto, un po' impropriamente si ha \[\displaystyle (e^{t}p+(1-p))^{N} \sim_{+\infty} e^{tN} \] quindi \[\displaystyle \lim_{t \to +\infty} \psi_{N}(t)=+\infty \]
il che significa che \[\displaystyle \exists \ T > 0 \ \text{t. c.} \ \forall t \ge T \ \ \ \psi_{N}(t) \ge 1 \]
risultato che implica direttamente la \(\displaystyle [1] \).

Il mio problema è che non riesco a migliorare la stima: da uno studio della derivata prima noto che in \(\displaystyle 0 \) essa è negativa, il che dovrebbe significare, visto che non ci sono fattori che fanno oscillare la baracca, che in un intorno di \(\displaystyle 0 \) la funzione decresce.

Come provo che non scende sotto \(\displaystyle \frac{p}{q} \)?

Saluti e ringraziamenti.

Risposte
Seneca1
Per omogeneità di argomenti sposto comunque in Statistica e probabilità.

hamming_burst
Ciao Delirium,
premetto che in questo genere di problemi di CP non sono una cima. Ma ho un'osservazione.

"Delirium":

Parte sinistra:
Quella schifezza (secondo fattore del prodotto) è la funzione generatrice dei momenti di una Bernoulli, e pertanto si ha \[\displaystyle e^{-tNq}(E[e^{tX_{i}}])^{N}=e^{-tNq}(e^{t}p+(1-p))^{N}=\psi_{N}(t) \]

su questo passaggio non sarei d'accordo o almeno vedo un'incogruenza.
questa è la f.g.m. di una Binomiale (o di $N$ Bernoulli): \((e^{t}p+(1-p))^{N}=\psi_{N}(t)\) ed è ok.
Ma \(e^{-tNq}\) dove lo hai nascosto?

Sk_Anonymous
Non l'ho nascosto, hamming, ho soltanto dato un nome a tutta quella funzione. Nella fattispecie non ho chiamato \(\displaystyle \psi_{N}(t) \) solo la funzione generatrice dei momenti.

hamming_burst
"Delirium":
Non l'ho nascosto, hamming, ho soltanto dato un nome a tutta quella funzione. Nella fattispecie non ho chiamato \(\displaystyle \psi_{N}(t) \) solo la funzione generatrice dei momenti.

ah ok, in effetti lo hai pure scritto...sorry, è stata questione di notazione.

Sk_Anonymous
No problem :wink:

totissimus
Il testo del problema è giusto ?

Sk_Anonymous
"totissimus":
Il testo del problema è giusto ?

Sì, ho ricontrollato. Ho la soluzione del professore, ma per ora non la voglio vedere perché oramai la strada è tracciata, e devo solo capire come sistemare.

hamming_burst
Qualche pensiero volante, senza alcuno scopo, ignora se vuoi.

totissimus
Se ho capito bene le \( X_i, i=1..N\) sono v.a. indipendenti bernoulliane e dunque assumono valori 1 e 0 con probabilità p e q.

Per \( j\geq Nq\) e \( t \geq 0 \) abbiamo ovviamante: \( e^{t(j-Nq)} \geq 1\).

\(P\left(\frac{1}{N}\sum_{i=1}^{N}X_{i}\geq q\right)=P\left(\sum_{i=1}^{N}X_{i}\geq Nq\right)=\sum_{j\geq Nq}P\left(\sum_{i=1}^{N}X_{i}=j\right)=\sum_{j\geq Nq}\binom{N}{j}p^{j}q^{N-j} \)

\( \leq\sum_{j\geq Nq}\binom{N}{j}p^{j}q^{N-j}e^{t(j-Nq)} \leq \sum_{j=0}^N\binom{N}{j}p^{j}q^{N-j}e^{t(j-Nq)}\)

\( \leq\sum_{j=0}^{N}\binom{N}{j}p^{j}q^{N-j}e^{t(pj+qj-Nq)}=\sum_{j=0}^{N}\binom{N}{j}(pe^{tp})^{j}(qe^{-tq})^{N-j}\)

\( =(pe^{tp}+qe^{-tq})^{N} = e^{-tNq}(pe^p+q)^N = e^{-tNq}(E[e^{tX_i}])^N\).

Nel mio raginamento non interviene la condizione \( q > p \) quindi è probabile che io abbia sbagliato qualcosa.

DajeForte
Usa la disuguaglianza di markov alla v.a. che ottieni trasformando opportunamente il membro di sinistra della disugualianza da ottenere...mi pare che una cosa simile è fatta da totissimus anche se non sono andato nei dettagli del suo lavoro...

Sk_Anonymous
Grazie a tutti per le risposte, credo di essere riuscito a trovare una soluzione differente. In effetti la stima che volevo effettuare era troppo precisa e minuziosa, mentre l'esercizio non la richiedeva.

Si ha \[\displaystyle P \left( \frac{1}{N} \sum_{i=1}^{N} X_{i} \ge p \right ) = P \left( t \sum_{i=1}^{N} X_{i} \ge tNp \right)=P \left ( e^{t \sum_{i}^{N} X_{i}} \ge e^{tNp} \right) \]
che è maggiorato (disuguaglianza di Čebyšëv) da \[\displaystyle e^{-tNp} E \left[ \prod_{i}^{N} e^{tX_{i}} \right]= e^{-tNp} (E[e^{tX_{i}}])^{N}\]

Rimando il labor limae a tempi più cheti, ché sono convinto di poter portare a termine quell'altra stima ben più precisa.

Grazie a tutti!

DajeForte
Questo era quello che intendevo io...e la disuguaglianza che usi io la chiamo di Markov...

hamming_burst
"Delirium":
\[P \left( t \sum_{i=1}^{N} X_{i} \ge tNp \right)=P \left ( e^{t \sum_{i}^{N} X_{i}} \ge e^{tNp} \right) \]

che trollata di passaggio.
Così devo dire che è molto più lineare la dimostrazione, bella intuizione :-)

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.