Probabilità non conosciuta...
Sia $Y$ una distribuzione binomiale $(n,X)$ dove $X$ sia a sua volta aleatorio, in sostanza la
classica $p$ è aleatoria distribuita come una $U(0,1)$
non ho mai fatto esercizi simili, come si procede?
classica $p$ è aleatoria distribuita come una $U(0,1)$
non ho mai fatto esercizi simili, come si procede?
Risposte
Intendi dire che vale quanto segue:
se conoscessimo $p$ varrebbe la solita
$P(Y<=k)=sum_(i = 1)^(k)( ( n ),( i ) )p^n*(1-p)^(n-i)$
se la distribuzione di $X$ fosse discreta sarei abbastanza convinto nel dire
$P(Y<=k)=sum_(j=1)^(m) sum_(i = 1)^(k)( ( n ),( i ) )p_j^n*(1-p_j)^(n-i)*P(X=p_j)$
nel continuo, con $U(0,1)$ posso scrivere
$P(Y<=k)=int_(0)^(1) sum_(i = 1)^(k)( ( n ),( i ) )x^n*(1-x)^(n-i)dx$
giusto?
se conoscessimo $p$ varrebbe la solita
$P(Y<=k)=sum_(i = 1)^(k)( ( n ),( i ) )p^n*(1-p)^(n-i)$
se la distribuzione di $X$ fosse discreta sarei abbastanza convinto nel dire
$P(Y<=k)=sum_(j=1)^(m) sum_(i = 1)^(k)( ( n ),( i ) )p_j^n*(1-p_j)^(n-i)*P(X=p_j)$
nel continuo, con $U(0,1)$ posso scrivere
$P(Y<=k)=int_(0)^(1) sum_(i = 1)^(k)( ( n ),( i ) )x^n*(1-x)^(n-i)dx$
giusto?
corretto
Grazie , se non ti secca troppo vorrei farti ancora una domanda.
In realtà l'esercizio imponeva che $X$ si distribuisse non come $U(0,1)$ ma
come una beta di paramenti a,b il che appesantirebbe l'integrale
con la densità suddetta.
Fortunatamente poi il testo dice di imporre $a=b=1$ ed allora mi risulta che con tali parametri
la distribuzione beta
diventa $U(0,1)$ e si torna ai conti da me esposti.
Domanda
la legge conclusiva è (giusto per confondersi un po esce fuori la funzione beta)
$P(Y<=k)=sum_(i=1)^(k) ( ( n ),( i ) ) B(n+1;n-i+1)$
come trovare
$E[Y]$e$VAR[Y]$ ???
Nel senso lo so che dovrei mettere $i$ e poi $i^2$ dentro la sommatoria
ma c'è un modo veloce di fare i conti? Si arriva a qualcosa di già noto
quindi c'è solo da saperlo prima?
In realtà l'esercizio imponeva che $X$ si distribuisse non come $U(0,1)$ ma
come una beta di paramenti a,b il che appesantirebbe l'integrale
con la densità suddetta.
Fortunatamente poi il testo dice di imporre $a=b=1$ ed allora mi risulta che con tali parametri
la distribuzione beta
diventa $U(0,1)$ e si torna ai conti da me esposti.
Domanda
la legge conclusiva è (giusto per confondersi un po esce fuori la funzione beta)
$P(Y<=k)=sum_(i=1)^(k) ( ( n ),( i ) ) B(n+1;n-i+1)$
come trovare
$E[Y]$e$VAR[Y]$ ???
Nel senso lo so che dovrei mettere $i$ e poi $i^2$ dentro la sommatoria
ma c'è un modo veloce di fare i conti? Si arriva a qualcosa di già noto
quindi c'è solo da saperlo prima?
Io ti consiglierei di usare le medie condizionate (che poi se non te ne sei accorto hai già usato per trovere la distribuzione di $Y$).
$E[Y^k]=E[E[Y^k|X]]$.
$E[Y^k]=E[E[Y^k|X]]$.
Intuitivamente pensavo che il valore atteso restasse lo stesso, il che sarebbe confermato
usando la legge delle aspettative iterate
ma pensavo di avere una varianza maggiore dovuta all'incertezza su $p$
ma usando la stessa legge non rimane ferma anche la varianza?
Quindi conoscere il parametro o solo la sua distribuzione
non modifica la nostra conoscenza sulla v.a. binomiale in esame?
usando la legge delle aspettative iterate
ma pensavo di avere una varianza maggiore dovuta all'incertezza su $p$
ma usando la stessa legge non rimane ferma anche la varianza?
Quindi conoscere il parametro o solo la sua distribuzione
non modifica la nostra conoscenza sulla v.a. binomiale in esame?
"markowitz":
Intuitivamente pensavo che il valore atteso restasse lo stesso, il che sarebbe confermato
usando la legge delle aspettative iterate
ma pensavo di avere una varianza maggiore dovuta all'incertezza su $p$
ma usando la stessa legge non rimane ferma anche la varianza?
Quindi conoscere il parametro o solo la sua distribuzione
non modifica la nostra conoscenza sulla v.a. binomiale in esame?
E ma cosa vuol dire che la media rimane la stessa? Ovvero se hai una $B(n,p)$ la sua media è $np$ ma nel nostro caso hai che la media è $nX$ chè e a sua volta una variabile aleatoria.
La varianza aumenta proprio perchè c'è laleatorietà ulteriore sul parametro.
Comunque è ovvio che se conosci il parametro hai una binomiale ma se invece hai una distribuzione del parametro, hai una distribuzione diversa
Mi ritrovo pienamente col tuo ultimo post ma allora:
$E(Y)=E(E(Y|X))=E(nX)=nE(X)=n/2$ ok?
$VAR(Y)=E(VAR(Y|X))=E(nX(1-X))=n(E(X)-E(X^2))=n(0,5-0,25)=n/4$
In sostanza ci riduciamo a dire che, in modo poi non sorprendente, la cosa probabilisticamente più sensata
risulta essere una $B(n,1/2)$
quindi $VAR(Y)>=VAR(Y|X=p)$ coerente!
forse con le formule ci si capisce meglio che con le parole
$E(Y)=E(E(Y|X))=E(nX)=nE(X)=n/2$ ok?
$VAR(Y)=E(VAR(Y|X))=E(nX(1-X))=n(E(X)-E(X^2))=n(0,5-0,25)=n/4$
In sostanza ci riduciamo a dire che, in modo poi non sorprendente, la cosa probabilisticamente più sensata
risulta essere una $B(n,1/2)$
quindi $VAR(Y)>=VAR(Y|X=p)$ coerente!
forse con le formule ci si capisce meglio che con le parole

Ti rispondo di fretta che devo uscire.
La varianza non è corretta.
Parti da qua $Var(Y)=E[Y^2]-E^2[Y]$
$E[Y^2]=E[E[Y^2|X]]$
La varianza non è corretta.
Parti da qua $Var(Y)=E[Y^2]-E^2[Y]$
$E[Y^2]=E[E[Y^2|X]]$
@ DajeForte
Mi dispiace questa volta penso proprio che tu abbia sbagliato.
Anche ripetendo i conti partendo dal momento secondo si torna ad avere
$VAR[Y]=n/4$
Inoltre:
In generale è così ma in questo caso particolare no,
abbiamo una binomiale si prima che dopo.
Prima abbiamo che $Y$ si distribuisce $B(n,X=p)$
e se $X$ è incognita ma ha distri. Beta$(1,1)$
allora $Y$ si distribuisce $B(n,1/2)$ credo che anche nel caso i
parametri della beta siano in generale "a" e "b" la distribuzione
a posteriori resti sempre una binomiale.
In ogni caso questi sono solo conti il mio problema
era come impostarli e la tua idea della legge delle aspettative
era l'uno modo per risolvere il problema velocemente.
Come al solito il tuo contributo è stato utile
Mi dispiace questa volta penso proprio che tu abbia sbagliato.
Anche ripetendo i conti partendo dal momento secondo si torna ad avere
$VAR[Y]=n/4$
Inoltre:
"DajeForte":
Comunque è ovvio che se conosci il parametro hai una binomiale ma se invece hai
una distribuzione del parametro, hai una distribuzione diversa
In generale è così ma in questo caso particolare no,
abbiamo una binomiale si prima che dopo.
Prima abbiamo che $Y$ si distribuisce $B(n,X=p)$
e se $X$ è incognita ma ha distri. Beta$(1,1)$
allora $Y$ si distribuisce $B(n,1/2)$ credo che anche nel caso i
parametri della beta siano in generale "a" e "b" la distribuzione
a posteriori resti sempre una binomiale.
In ogni caso questi sono solo conti il mio problema
era come impostarli e la tua idea della legge delle aspettative
era l'uno modo per risolvere il problema velocemente.
Come al solito il tuo contributo è stato utile

Qualcosa non mi torna,
posta i passaggi che hai fatto cosi' troviamo l'errore (il tuo od il mio).
posta i passaggi che hai fatto cosi' troviamo l'errore (il tuo od il mio).
Per prima cosa: se $Z$ si distribuisce $B(n,p)$ allora $E(Z^2)=np-np^2+n^2p^2$ secondo me parte da qui
l'incomprensione forse ricordi male tale valore.
Comunque $E(Y^2)=E(E(T^2|X=p))=E(E(np-np^2+n^2p^2))=nE(p)-nE(p^2)+n^2E(p^2)=$
attenzione al fatto che $p$ si ditr. come $U(0,1)$
da cui $=n/2-n/4+n^2/4=(2n-n+n^2)/4=(n(n+1))/4$
quindi
$VAR(Y)=(n(n+1))/4-n^2/4=(n^2+n-n^2)/4=n/4$
d'altra parte anche dal punto di vista intuitivo è il valore più ragionevole.
l'incomprensione forse ricordi male tale valore.
Comunque $E(Y^2)=E(E(T^2|X=p))=E(E(np-np^2+n^2p^2))=nE(p)-nE(p^2)+n^2E(p^2)=$
attenzione al fatto che $p$ si ditr. come $U(0,1)$
da cui $=n/2-n/4+n^2/4=(2n-n+n^2)/4=(n(n+1))/4$
quindi
$VAR(Y)=(n(n+1))/4-n^2/4=(n^2+n-n^2)/4=n/4$
d'altra parte anche dal punto di vista intuitivo è il valore più ragionevole.
$U sim text(Unif)(0,1)$
$E[U^2]=1/3$
Poi c'e' qualche problema di natura concettuale su un passaggio che hai scritto (precisamente la seconda uguaglianza delle medie condizionate dove una media non c'e').
Adesso posta i passaggi che ti portano a dire che quella variabile sia una binomiale
$E[U^2]=1/3$
Poi c'e' qualche problema di natura concettuale su un passaggio che hai scritto (precisamente la seconda uguaglianza delle medie condizionate dove una media non c'e').
Adesso posta i passaggi che ti portano a dire che quella variabile sia una binomiale
Ti chiedo scusa, sono io che sono stato ingannato dalla memoria
ero convinto che $E(U^2)=1/4$ grave errore.
Inoltre qualche post fa o scritto una formula falsa sulla varianza.
O provato a rifare i conti e viene
$VAR(Y)=(n(2+n))/12$
giusto?
Alla luce di ciò è sicuro che $Y$ non segue una binomiale.
E la varianza, se $n>1$ è strettamente maggiore di quella che avremmo con $p$ noto.
Solo non capisco quale errore concettuale ho fatto nei passaggi (a parte scrivere un enigmatico
$T$
al posto di $Y$ )
Ai consigli per gli altri post che ho messo?
ero convinto che $E(U^2)=1/4$ grave errore.
Inoltre qualche post fa o scritto una formula falsa sulla varianza.
O provato a rifare i conti e viene
$VAR(Y)=(n(2+n))/12$
giusto?
Alla luce di ciò è sicuro che $Y$ non segue una binomiale.
E la varianza, se $n>1$ è strettamente maggiore di quella che avremmo con $p$ noto.
Solo non capisco quale errore concettuale ho fatto nei passaggi (a parte scrivere un enigmatico
$T$

Ai consigli per gli altri post che ho messo?
Tranquillo tutti sbagliano.
$E[Y^2|X]=nX-nX^2+n^2X^2$ quindi la media dentro non ci deve stare.
Ad essere rigorosi potresti anche dire che e' corretto perche' poi fai la media di una cosa non random che e' se stessa,
pero' te lo volevo segnalare affinche' capisca dove e come ha lavorato l'aspettativa condizionata.
Si puo' andare avanti:
$P(Y=k)=E[P(Y=k|X)]=int_0^1 ((n),(k))\ x^k\ (1-x)^(n-k)\ dx\ =\ ((n),(k))\ B(k+1,n-k+1)$
fai attenzione che sono diversi da quelli che avevi messo tu (ricontrolla e dimmi magari mi sbaglio che sto scrivendo senza aver prima fatto tutto in carta).
Adesso usa le proprieta' della Beta (la relazione con la gamma in particolare la trovi su wiki), e fammi sapere.
A comunque il risultato della varianza ora mi torna.
Per gli altrim tuoi problemi (con un po' di calma magari domani) gli daro' un'occhiata.
"markowitz":
$E(E(T^2|X=p))=E(E(np-np^2+n^2p^2))$
$E[Y^2|X]=nX-nX^2+n^2X^2$ quindi la media dentro non ci deve stare.
Ad essere rigorosi potresti anche dire che e' corretto perche' poi fai la media di una cosa non random che e' se stessa,
pero' te lo volevo segnalare affinche' capisca dove e come ha lavorato l'aspettativa condizionata.
Si puo' andare avanti:
$P(Y=k)=E[P(Y=k|X)]=int_0^1 ((n),(k))\ x^k\ (1-x)^(n-k)\ dx\ =\ ((n),(k))\ B(k+1,n-k+1)$
fai attenzione che sono diversi da quelli che avevi messo tu (ricontrolla e dimmi magari mi sbaglio che sto scrivendo senza aver prima fatto tutto in carta).
Adesso usa le proprieta' della Beta (la relazione con la gamma in particolare la trovi su wiki), e fammi sapere.
A comunque il risultato della varianza ora mi torna.
Per gli altrim tuoi problemi (con un po' di calma magari domani) gli daro' un'occhiata.
Come al solito hai ragione è dall'inizio che mi porto dietro una $n$ al posto di una $i$
per l'aspettativa condizionata per fortuna c'ero arrivato da solo.
per l'aspettativa condizionata per fortuna c'ero arrivato da solo.
Chiarimento, o scoperto(?) e forse anche capito che la distibuzione di di $Y$ è
uniforme discreta su $0,..,n$
ma alla luce di ciò il valore atteso mi torna
ma non la varianza! Almeno usando quella che da wiki
ed anche una delle slide di un mio prof. che tra l'altro è diversa da quella di wiki.
Quale diavolo è la formula per la varianza di una $U(a,b)$ discreta!
sto impazzendo!
uniforme discreta su $0,..,n$
ma alla luce di ciò il valore atteso mi torna
ma non la varianza! Almeno usando quella che da wiki
ed anche una delle slide di un mio prof. che tra l'altro è diversa da quella di wiki.
Quale diavolo è la formula per la varianza di una $U(a,b)$ discreta!
sto impazzendo!
$(n^2-1)/12$ dove $n$ è il numero degli $(b-a)+1$, quindi in questo caso devi mettere n+1 perchè c'è anche lo 0.
Dimmi se ti torno
Dimmi se ti torno
Allora:
$VAR(Y)=(((b-a)+1)^2-1)/n=((n+1)^2-1)/n=(n(n+2))/12$
il risultato torna ok
e torna anche la formula delle slide del mio prof.
ma allora su Wikipidia che diavolo volevano dire?
Se vuoi dare un occhiata
http://it.wikipedia.org/wiki/Variabile_ ... e_discreta
$VAR(Y)=(((b-a)+1)^2-1)/n=((n+1)^2-1)/n=(n(n+2))/12$
il risultato torna ok
e torna anche la formula delle slide del mio prof.
ma allora su Wikipidia che diavolo volevano dire?
Se vuoi dare un occhiata
http://it.wikipedia.org/wiki/Variabile_ ... e_discreta
è la stessa cosa perchè $(a-b)^2=(n-1)^2$ e quindi se vai a sostituire la varianza $(n^2-1)/(12)$.
Ora se vai sostituire nel tuo problema (facendo attenzione che dvi mettere al posto di n n+1) ottieni il risultato.
Ora se vai sostituire nel tuo problema (facendo attenzione che dvi mettere al posto di n n+1) ottieni il risultato.