Disguaglianza probabilistica
Premessa n°1: trattasi questo di un esercizio di Probabilità, ma il mio problema è di tipo analitico. Se i moderatori ritengono di dover spostare la discussione in una stanza più adatta, facciano pure. Io ero indeciso.
Premessa n°2: cercherò di limitare al minimo i conti, che sono risultati essere un fottio (ma forse nemmeno tutti necessari). Sarò il più possibile ordinato.
L'esercizio è il seguente:
Sia \(\displaystyle (X_{i})_{i \ge 1} \) una successione di variabili aleatorie indipendenti e identicamente distribuite con distribuzione di Bernoulli di parametro \(\displaystyle p \in (0,1) \). Sia poi \(\displaystyle q \in (p,1) \).
Provare che \(\displaystyle \forall \ N \in \mathbb{N} \) e \(\displaystyle \forall \ t \ge 0 \) vale la seguente disuguaglianza: \[\displaystyle P \left(\frac{1}{N} \sum_{i=1}^{N} X_{i} \ge q \right) \le e^{-tNq}(E[e^{tX_{i}}])^{N} \quad [1] \]
Svolgimento - parte destra:
Riscrivo: \[\displaystyle P \left(\frac{1}{N} \sum_{i=1}^{N} X_{i} \ge q \right)=P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \]
vale poi la seguente disuguaglianza di Čebyšëv
\[\displaystyle P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \le \frac{E \left[ \sum_{i=1}^{N} X_{i} \right]}{Nq} \]
che diventa, per linearità del valor medio
\[\displaystyle P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \le \frac{ \sum_{i=1}^{N} E(X_{i})}{Nq}=\frac{Np}{Nq}=\frac{p}{q}<1 \]
Parte sinistra:
Quella schifezza (secondo fattore del prodotto) è la funzione generatrice dei momenti di una Bernoulli, e pertanto si ha \[\displaystyle e^{-tNq}(E[e^{tX_{i}}])^{N}=e^{-tNq}(e^{t}p+(1-p))^{N}=\psi_{N}(t) \]
del resto, un po' impropriamente si ha \[\displaystyle (e^{t}p+(1-p))^{N} \sim_{+\infty} e^{tN} \] quindi \[\displaystyle \lim_{t \to +\infty} \psi_{N}(t)=+\infty \]
il che significa che \[\displaystyle \exists \ T > 0 \ \text{t. c.} \ \forall t \ge T \ \ \ \psi_{N}(t) \ge 1 \]
risultato che implica direttamente la \(\displaystyle [1] \).
Il mio problema è che non riesco a migliorare la stima: da uno studio della derivata prima noto che in \(\displaystyle 0 \) essa è negativa, il che dovrebbe significare, visto che non ci sono fattori che fanno oscillare la baracca, che in un intorno di \(\displaystyle 0 \) la funzione decresce.
Come provo che non scende sotto \(\displaystyle \frac{p}{q} \)?
Saluti e ringraziamenti.
Premessa n°2: cercherò di limitare al minimo i conti, che sono risultati essere un fottio (ma forse nemmeno tutti necessari). Sarò il più possibile ordinato.
L'esercizio è il seguente:
Sia \(\displaystyle (X_{i})_{i \ge 1} \) una successione di variabili aleatorie indipendenti e identicamente distribuite con distribuzione di Bernoulli di parametro \(\displaystyle p \in (0,1) \). Sia poi \(\displaystyle q \in (p,1) \).
Provare che \(\displaystyle \forall \ N \in \mathbb{N} \) e \(\displaystyle \forall \ t \ge 0 \) vale la seguente disuguaglianza: \[\displaystyle P \left(\frac{1}{N} \sum_{i=1}^{N} X_{i} \ge q \right) \le e^{-tNq}(E[e^{tX_{i}}])^{N} \quad [1] \]
Svolgimento - parte destra:
Riscrivo: \[\displaystyle P \left(\frac{1}{N} \sum_{i=1}^{N} X_{i} \ge q \right)=P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \]
vale poi la seguente disuguaglianza di Čebyšëv
\[\displaystyle P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \le \frac{E \left[ \sum_{i=1}^{N} X_{i} \right]}{Nq} \]
che diventa, per linearità del valor medio
\[\displaystyle P \left( \sum_{i=1}^{N} X_{i} \ge Nq \right) \le \frac{ \sum_{i=1}^{N} E(X_{i})}{Nq}=\frac{Np}{Nq}=\frac{p}{q}<1 \]
Parte sinistra:
Quella schifezza (secondo fattore del prodotto) è la funzione generatrice dei momenti di una Bernoulli, e pertanto si ha \[\displaystyle e^{-tNq}(E[e^{tX_{i}}])^{N}=e^{-tNq}(e^{t}p+(1-p))^{N}=\psi_{N}(t) \]
del resto, un po' impropriamente si ha \[\displaystyle (e^{t}p+(1-p))^{N} \sim_{+\infty} e^{tN} \] quindi \[\displaystyle \lim_{t \to +\infty} \psi_{N}(t)=+\infty \]
il che significa che \[\displaystyle \exists \ T > 0 \ \text{t. c.} \ \forall t \ge T \ \ \ \psi_{N}(t) \ge 1 \]
risultato che implica direttamente la \(\displaystyle [1] \).
Il mio problema è che non riesco a migliorare la stima: da uno studio della derivata prima noto che in \(\displaystyle 0 \) essa è negativa, il che dovrebbe significare, visto che non ci sono fattori che fanno oscillare la baracca, che in un intorno di \(\displaystyle 0 \) la funzione decresce.
Come provo che non scende sotto \(\displaystyle \frac{p}{q} \)?
Saluti e ringraziamenti.
Risposte
Per omogeneità di argomenti sposto comunque in Statistica e probabilità.
Ciao Delirium,
premetto che in questo genere di problemi di CP non sono una cima. Ma ho un'osservazione.
su questo passaggio non sarei d'accordo o almeno vedo un'incogruenza.
questa è la f.g.m. di una Binomiale (o di $N$ Bernoulli): \((e^{t}p+(1-p))^{N}=\psi_{N}(t)\) ed è ok.
Ma \(e^{-tNq}\) dove lo hai nascosto?
premetto che in questo genere di problemi di CP non sono una cima. Ma ho un'osservazione.
"Delirium":
Parte sinistra:
Quella schifezza (secondo fattore del prodotto) è la funzione generatrice dei momenti di una Bernoulli, e pertanto si ha \[\displaystyle e^{-tNq}(E[e^{tX_{i}}])^{N}=e^{-tNq}(e^{t}p+(1-p))^{N}=\psi_{N}(t) \]
su questo passaggio non sarei d'accordo o almeno vedo un'incogruenza.
questa è la f.g.m. di una Binomiale (o di $N$ Bernoulli): \((e^{t}p+(1-p))^{N}=\psi_{N}(t)\) ed è ok.
Ma \(e^{-tNq}\) dove lo hai nascosto?
Non l'ho nascosto, hamming, ho soltanto dato un nome a tutta quella funzione. Nella fattispecie non ho chiamato \(\displaystyle \psi_{N}(t) \) solo la funzione generatrice dei momenti.
"Delirium":
Non l'ho nascosto, hamming, ho soltanto dato un nome a tutta quella funzione. Nella fattispecie non ho chiamato \(\displaystyle \psi_{N}(t) \) solo la funzione generatrice dei momenti.
ah ok, in effetti lo hai pure scritto...sorry, è stata questione di notazione.
No problem

Il testo del problema è giusto ?
"totissimus":
Il testo del problema è giusto ?
Sì, ho ricontrollato. Ho la soluzione del professore, ma per ora non la voglio vedere perché oramai la strada è tracciata, e devo solo capire come sistemare.
Qualche pensiero volante, senza alcuno scopo, ignora se vuoi.
Se ho capito bene le \( X_i, i=1..N\) sono v.a. indipendenti bernoulliane e dunque assumono valori 1 e 0 con probabilità p e q.
Per \( j\geq Nq\) e \( t \geq 0 \) abbiamo ovviamante: \( e^{t(j-Nq)} \geq 1\).
\(P\left(\frac{1}{N}\sum_{i=1}^{N}X_{i}\geq q\right)=P\left(\sum_{i=1}^{N}X_{i}\geq Nq\right)=\sum_{j\geq Nq}P\left(\sum_{i=1}^{N}X_{i}=j\right)=\sum_{j\geq Nq}\binom{N}{j}p^{j}q^{N-j} \)
\( \leq\sum_{j\geq Nq}\binom{N}{j}p^{j}q^{N-j}e^{t(j-Nq)} \leq \sum_{j=0}^N\binom{N}{j}p^{j}q^{N-j}e^{t(j-Nq)}\)
\( \leq\sum_{j=0}^{N}\binom{N}{j}p^{j}q^{N-j}e^{t(pj+qj-Nq)}=\sum_{j=0}^{N}\binom{N}{j}(pe^{tp})^{j}(qe^{-tq})^{N-j}\)
\( =(pe^{tp}+qe^{-tq})^{N} = e^{-tNq}(pe^p+q)^N = e^{-tNq}(E[e^{tX_i}])^N\).
Nel mio raginamento non interviene la condizione \( q > p \) quindi è probabile che io abbia sbagliato qualcosa.
Per \( j\geq Nq\) e \( t \geq 0 \) abbiamo ovviamante: \( e^{t(j-Nq)} \geq 1\).
\(P\left(\frac{1}{N}\sum_{i=1}^{N}X_{i}\geq q\right)=P\left(\sum_{i=1}^{N}X_{i}\geq Nq\right)=\sum_{j\geq Nq}P\left(\sum_{i=1}^{N}X_{i}=j\right)=\sum_{j\geq Nq}\binom{N}{j}p^{j}q^{N-j} \)
\( \leq\sum_{j\geq Nq}\binom{N}{j}p^{j}q^{N-j}e^{t(j-Nq)} \leq \sum_{j=0}^N\binom{N}{j}p^{j}q^{N-j}e^{t(j-Nq)}\)
\( \leq\sum_{j=0}^{N}\binom{N}{j}p^{j}q^{N-j}e^{t(pj+qj-Nq)}=\sum_{j=0}^{N}\binom{N}{j}(pe^{tp})^{j}(qe^{-tq})^{N-j}\)
\( =(pe^{tp}+qe^{-tq})^{N} = e^{-tNq}(pe^p+q)^N = e^{-tNq}(E[e^{tX_i}])^N\).
Nel mio raginamento non interviene la condizione \( q > p \) quindi è probabile che io abbia sbagliato qualcosa.
Usa la disuguaglianza di markov alla v.a. che ottieni trasformando opportunamente il membro di sinistra della disugualianza da ottenere...mi pare che una cosa simile è fatta da totissimus anche se non sono andato nei dettagli del suo lavoro...
Grazie a tutti per le risposte, credo di essere riuscito a trovare una soluzione differente. In effetti la stima che volevo effettuare era troppo precisa e minuziosa, mentre l'esercizio non la richiedeva.
Si ha \[\displaystyle P \left( \frac{1}{N} \sum_{i=1}^{N} X_{i} \ge p \right ) = P \left( t \sum_{i=1}^{N} X_{i} \ge tNp \right)=P \left ( e^{t \sum_{i}^{N} X_{i}} \ge e^{tNp} \right) \]
che è maggiorato (disuguaglianza di Čebyšëv) da \[\displaystyle e^{-tNp} E \left[ \prod_{i}^{N} e^{tX_{i}} \right]= e^{-tNp} (E[e^{tX_{i}}])^{N}\]
Rimando il labor limae a tempi più cheti, ché sono convinto di poter portare a termine quell'altra stima ben più precisa.
Grazie a tutti!
Si ha \[\displaystyle P \left( \frac{1}{N} \sum_{i=1}^{N} X_{i} \ge p \right ) = P \left( t \sum_{i=1}^{N} X_{i} \ge tNp \right)=P \left ( e^{t \sum_{i}^{N} X_{i}} \ge e^{tNp} \right) \]
che è maggiorato (disuguaglianza di Čebyšëv) da \[\displaystyle e^{-tNp} E \left[ \prod_{i}^{N} e^{tX_{i}} \right]= e^{-tNp} (E[e^{tX_{i}}])^{N}\]
Rimando il labor limae a tempi più cheti, ché sono convinto di poter portare a termine quell'altra stima ben più precisa.
Grazie a tutti!
Questo era quello che intendevo io...e la disuguaglianza che usi io la chiamo di Markov...
"Delirium":
\[P \left( t \sum_{i=1}^{N} X_{i} \ge tNp \right)=P \left ( e^{t \sum_{i}^{N} X_{i}} \ge e^{tNp} \right) \]
che trollata di passaggio.
Così devo dire che è molto più lineare la dimostrazione, bella intuizione
