Esercizi su variabili aleatorie discrete
Sto facendo vari esercizi di probabilità di cui non ho le soluzioni. Mi farebbe molto comodo se qualcuno di voi potesse cortesemente correggerli e spiegami i punti che non riesco a svolgere.
N.B. I numeri mi servono come riferimento al libro adottato.
1)Una compagnia aerea dispone di due tipi d'aerei, uno da 20 e un altro da 10 posti. Chi ha prenotato non si presenta nel 10% dei casi. Per l'aereo da 20 si accettano 22 prenotazioni, per l'altro 11. Se si accetta il massimo delle prenotazioni, quale aereo rischia maggiormente di lasciare almeno un passeggero a terra?
SVOLG:
Per il primo aereo si devono avere 21 presenti (il 22-esimo è irrilevante). La probabilità è $(9/10)^21$. Analogamente per il secondo è $p=(9/10)^11$, quindi il primo è più sicuro.
5)Calcolare la probabilità di ottenere esattamente 2 volte "6" lanciando n volte e trovare n per cui la probabilità è massima.
SVOLG:
Si ha $p=1/(6^2)*(1-1/6)^(n-2)$. La funzione probabilità e decrescente, dunque l'n cercato è 2 (essendo il numero minimo di lanci richiesti).
N.B. I numeri mi servono come riferimento al libro adottato.

1)Una compagnia aerea dispone di due tipi d'aerei, uno da 20 e un altro da 10 posti. Chi ha prenotato non si presenta nel 10% dei casi. Per l'aereo da 20 si accettano 22 prenotazioni, per l'altro 11. Se si accetta il massimo delle prenotazioni, quale aereo rischia maggiormente di lasciare almeno un passeggero a terra?
SVOLG:
Per il primo aereo si devono avere 21 presenti (il 22-esimo è irrilevante). La probabilità è $(9/10)^21$. Analogamente per il secondo è $p=(9/10)^11$, quindi il primo è più sicuro.
5)Calcolare la probabilità di ottenere esattamente 2 volte "6" lanciando n volte e trovare n per cui la probabilità è massima.
SVOLG:
Si ha $p=1/(6^2)*(1-1/6)^(n-2)$. La funzione probabilità e decrescente, dunque l'n cercato è 2 (essendo il numero minimo di lanci richiesti).
Risposte
Risolverei entrambe considerandole prove Bernoulliane - e quindi applicando la distribuzione binomiale.
1) Evento "Passeggero si presenta all'imbarco", con p=9/10 - calcolare la probabilità che in 22 (risp. 11) prove si verifichino esattamente 21 e 22 (risp. 11) esiti positivi.
5) Evento "Esce il numero 6" (credo di lancio di "un dado", anche se hai dimenticato di scriverlo), con p=1/6 - calcolare la probabilità che in n prove si verifichino esattamente 2 esiti positivi.
1) Evento "Passeggero si presenta all'imbarco", con p=9/10 - calcolare la probabilità che in 22 (risp. 11) prove si verifichino esattamente 21 e 22 (risp. 11) esiti positivi.
5) Evento "Esce il numero 6" (credo di lancio di "un dado", anche se hai dimenticato di scriverlo), con p=1/6 - calcolare la probabilità che in n prove si verifichino esattamente 2 esiti positivi.
Per l'aereo con 22 prenotazioni puoi calcolare:
Si presentano tutti i 22:
$(9/10)^22$
Se ne presentano 21:
$(9/10)^21*(1/10)*22$
...fai la somma...
S.E.& O.
Si presentano tutti i 22:
$(9/10)^22$
Se ne presentano 21:
$(9/10)^21*(1/10)*22$
...fai la somma...
S.E.& O.
Ok, non avevo considerato l'estensione della probabilità di rinuncia a tutti i passeggeri prenotanti.
Ma Rggb, come riconosci al volo che si tratta di una distribuzione di Bernoulli?
Ma Rggb, come riconosci al volo che si tratta di una distribuzione di Bernoulli?
"Benny":
Ma Rggb, come riconosci al volo che si tratta di una distribuzione di Bernoulli?
"Al volo"...? Vediamo se ho capito la domanda. Se ci sono $n$ prove, sono indipendenti e la probabilità di un dato evento non cambia fra una prova e l'altra, allora sono prove bernoulliane. Per calcolare la probabilità che un dato evento si verifichi esattamente $x$ volte in $n$ prove si usa la distribuzione binomiale aka di Bernoulli.
Il ragionamento che ho fatto per esercizio (1): ci sono 22 passeggeri prenotati (rispettivamente 11), infatti si accetta il massimo delle prenotazioni; pertanto possiamo considerare l'evento che ho chiamato "passeggero si presenta all'imbarco", che ha probabilità $p=9/10$, come un singolo evento di 22 prove (rispettivamente 11) indipendenti;
Per esercizio (5) è nella domanda stessa ("lanciando n volte un dado...") l'assunto che si tratta di prove bernoulliane.
"Benny":
Ok, non avevo considerato l'estensione della probabilità di rinuncia a tutti i passeggeri prenotanti.
infatti....
e se ho fatto bene i conti, la tua affermazione "quindi il primo è più sicuro", dovrebbe essere errata.
Qui invece ho un problema su cui non saprei proprio metter mano..o almeno così pare. 
17)Una moneta dà testa con probabilità $p$ e viene lanciata $N$ volte, dove $N$ è una variabile aleatoria di Poisson di parametro $h$. Indichiamo con $X$ e $Y$ il numero di teste e di croci rispettivamente.
a) Calcolare le leggi di $X$ e $Y$
b)Dimostrare che $X$ e $Y$ sono indipendenti
Sapreste darmi qualche indicazione su come ragionare e procedere?

17)Una moneta dà testa con probabilità $p$ e viene lanciata $N$ volte, dove $N$ è una variabile aleatoria di Poisson di parametro $h$. Indichiamo con $X$ e $Y$ il numero di teste e di croci rispettivamente.
a) Calcolare le leggi di $X$ e $Y$
b)Dimostrare che $X$ e $Y$ sono indipendenti
Sapreste darmi qualche indicazione su come ragionare e procedere?
Ti do lo spunto per partire...prendiamo in considerazione X, tu sai che X, condizionatamente a N=n, si distribuisce secondo una binomiale di parametri p e n. Quindi hai la distribuzione di X condizionatamente a N e la marginale di N, fecendone il prodotto hai la pmf congiunta (X,N); a questo punto sommando rispetto a N ottengo la distribuzione di X. Spero ti possa essere di aiuto! Altrimenti domani provo a svolgertelo ora sono troppo stanco! CIAO
Dunque, per il primo punto si può ragionare come ha detto fralor21 ottenendo:
$P[X=alpha]=sum_(beta=1)^(+oo)P[X=alpha|N=beta]*P[N=beta]=sum_(beta=1)^(+oo) ((beta),(alpha))p^alpha (1-p)^(beta-alpha) * e^(-h) h^beta/(beta!)=e^(-h)(1-p)^(-alpha)*p^(alpha)*sum_(beta=alpha)^(+oo)((beta),(alpha))*((1-p)*h)^(beta)/(beta!) $
Per il secondo caso, l'indipendenza è assicurata? perchè, cosi in prima approssimazione, mi sembra strano che siano indipendenti...magari sto dicendo una stupidata.
Grazie.
$P[X=alpha]=sum_(beta=1)^(+oo)P[X=alpha|N=beta]*P[N=beta]=sum_(beta=1)^(+oo) ((beta),(alpha))p^alpha (1-p)^(beta-alpha) * e^(-h) h^beta/(beta!)=e^(-h)(1-p)^(-alpha)*p^(alpha)*sum_(beta=alpha)^(+oo)((beta),(alpha))*((1-p)*h)^(beta)/(beta!) $
Per il secondo caso, l'indipendenza è assicurata? perchè, cosi in prima approssimazione, mi sembra strano che siano indipendenti...magari sto dicendo una stupidata.
Grazie.
Ho riportato la consegna testualmente, sto cercando di verificarla.
Dunque, se ho capito bene,
$P[Y=gamma]=sum_(beta=1)^(+oo)P[Y=gamma|N=beta]*P[N=beta]=$
$=sum_(beta=1)^(+oo) ((beta),(gamma))p^(beta-gamma) (1-p)^(gamma) * e^(-h) h^beta/(beta!)=$
$=e^(-h)(1-p)^(gamma)*p^(-gamma)*sum_(beta=gamma)^(+oo)((beta),(gamma))*(p*h)^(beta)/(beta!)$
In particolare
$P[Y=beta-alpha]=sum_(beta=1)^(+oo)P[Y=beta-alpha|N=beta]*P[N=beta]=$
$=sum_(beta=1)^(+oo) ((beta),(beta-alpha))p^(alpha) (1-p)^(beta-alpha) * e^(-h) h^beta/(beta!)=$
$=e^(-h)(1-p)^(-alpha)*p^(alpha)*sum_(beta=alpha)^(+oo)((beta),(alpha))*((1-p)*h)^(beta)/(beta!) = P[X=alpha]$
Affinchè $X$ e $Y$ siano indipendenti dovrebbe essere $P[X,Y]=P[X]*P[Y]$, giusto?
Dunque, se ho capito bene,
$P[Y=gamma]=sum_(beta=1)^(+oo)P[Y=gamma|N=beta]*P[N=beta]=$
$=sum_(beta=1)^(+oo) ((beta),(gamma))p^(beta-gamma) (1-p)^(gamma) * e^(-h) h^beta/(beta!)=$
$=e^(-h)(1-p)^(gamma)*p^(-gamma)*sum_(beta=gamma)^(+oo)((beta),(gamma))*(p*h)^(beta)/(beta!)$
In particolare
$P[Y=beta-alpha]=sum_(beta=1)^(+oo)P[Y=beta-alpha|N=beta]*P[N=beta]=$
$=sum_(beta=1)^(+oo) ((beta),(beta-alpha))p^(alpha) (1-p)^(beta-alpha) * e^(-h) h^beta/(beta!)=$
$=e^(-h)(1-p)^(-alpha)*p^(alpha)*sum_(beta=alpha)^(+oo)((beta),(alpha))*((1-p)*h)^(beta)/(beta!) = P[X=alpha]$
Affinchè $X$ e $Y$ siano indipendenti dovrebbe essere $P[X,Y]=P[X]*P[Y]$, giusto?
"Benny":
In particolare
$P[Y=beta-alpha]=sum_(beta=1)^(+oo)P[Y=beta-alpha|N=beta]*P[N=beta]=sum_(beta=1)^(+oo) ((beta),(beta-alpha))p^(alpha) (1-p)^(beta-alpha) * e^(-h) h^beta/(beta!)=e^(-h)(1-p)^(-alpha)*p^(alpha)*sum_(beta=alpha)^(+oo)((beta),(alpha))*((1-p)*h)^(beta)/(beta!) = P[X=alpha]$
Non so se mi sbaglio, ma c'è il fattore $(1-p)$ che fa in modo che l'ultima espresione sia diversa da $P[X=alpha]$
"Benny":
Affinchè $X$ e $Y$ siano indipendenti dovrebbe essere $P[X,Y]=P[X]*P[Y]$, giusto?
Si

Un altro esercizio:
"Date tre monete $A, B, C$ con probabilità di successo $p, q, r$ rispettivamente, scelta una coppia a caso le lancio fino ad ottenere almeno un successo. Calcolare il numero medio di lanci."
Siamo in presenza di una legge congiunta di distribuzioni geometriche indipendenti. Le varie coppie sono equiprobabili.
Sto cercando $E[min(A,B)+min(A,C)+min(B,C)]=E[min(A,B)]+E[min(A,C)]+Emin(B,C)]$. Giusto fin qui?
"Date tre monete $A, B, C$ con probabilità di successo $p, q, r$ rispettivamente, scelta una coppia a caso le lancio fino ad ottenere almeno un successo. Calcolare il numero medio di lanci."
Siamo in presenza di una legge congiunta di distribuzioni geometriche indipendenti. Le varie coppie sono equiprobabili.
Sto cercando $E[min(A,B)+min(A,C)+min(B,C)]=E[min(A,B)]+E[min(A,C)]+Emin(B,C)]$. Giusto fin qui?