Successione di Laplace
Ciao!
Motivato da questo post, ho pensato che si potesse generalizzare il concetto e a tal proposito ho trovato questo esercizio che prende il nome dal titolo.
Supponiamo di avere uno spazio $(Omega,F,P)$ e di avere $E_1,...,E_k$ eventi indipendenti aventi probabilità $p_1,...,p_k$. Si sceglie a caso(con probabilità di scelta $1/k$) uno tra quegli eventi e si ripete $n+1$ volte.
Qual è la probabilità che scegliendone uno a caso e verificatosi $n$ volte si verifichi anche la n+1esima?
La mia soluzione è stata la seguente:
prendo gli eventi $H=$"al n+1esimo si ha un successo", $F_n=$"le prime $n$ prove sono stati successi" e $C_i=$"si sceglie l'evento $E_i$".
si ha subito $P(H|F_n)=sum_(i=1)^(k)P(H|C_iF_n)P(C_i|F_n)$
domanda: è lecito questo passaggio? in genere capita che finisca per chiedermi se due eventi appartengano allo stesso spazio campionario
Continuerei comunque notando che $P(H|C_iF_n)=p_i$ e che
quindi alla fine il risultato è $P(H|F_n)=(sum_(i=1)^(k)p_i^(n+1))/(sum_(j=1)^(k)p_j^n)$
nonostante il risultato sia corretto mi rimane il dubbio sulla liceità di quel passaggio. Forse andrebbe giustificato meglio utilizzando le variabili aleatorie?
nota: sostituendo gli eventi $E_1=$"moneta testa/testa" e $E_2=$"moneta testa/croce" con probabilità $p_1=1$ e $p_2=1/2$ per i valori $n=1$ e $k=2$ si ottiene proprio $5/6$ ossia il risultato riportato nel post citato.
Motivato da questo post, ho pensato che si potesse generalizzare il concetto e a tal proposito ho trovato questo esercizio che prende il nome dal titolo.
Supponiamo di avere uno spazio $(Omega,F,P)$ e di avere $E_1,...,E_k$ eventi indipendenti aventi probabilità $p_1,...,p_k$. Si sceglie a caso(con probabilità di scelta $1/k$) uno tra quegli eventi e si ripete $n+1$ volte.
Qual è la probabilità che scegliendone uno a caso e verificatosi $n$ volte si verifichi anche la n+1esima?
La mia soluzione è stata la seguente:
prendo gli eventi $H=$"al n+1esimo si ha un successo", $F_n=$"le prime $n$ prove sono stati successi" e $C_i=$"si sceglie l'evento $E_i$".
si ha subito $P(H|F_n)=sum_(i=1)^(k)P(H|C_iF_n)P(C_i|F_n)$
domanda: è lecito questo passaggio? in genere capita che finisca per chiedermi se due eventi appartengano allo stesso spazio campionario
Continuerei comunque notando che $P(H|C_iF_n)=p_i$ e che
$P(C_i|F_n)=(P(F_n|C_i)P(C_i))/(sum_(j=1)^(k)P(F_n|C_j)P(C_j))=(p_i^n*1/k)/(sum_(j=1)^(k)(p_j^n*1/k))$
quindi alla fine il risultato è $P(H|F_n)=(sum_(i=1)^(k)p_i^(n+1))/(sum_(j=1)^(k)p_j^n)$
nonostante il risultato sia corretto mi rimane il dubbio sulla liceità di quel passaggio. Forse andrebbe giustificato meglio utilizzando le variabili aleatorie?
nota: sostituendo gli eventi $E_1=$"moneta testa/testa" e $E_2=$"moneta testa/croce" con probabilità $p_1=1$ e $p_2=1/2$ per i valori $n=1$ e $k=2$ si ottiene proprio $5/6$ ossia il risultato riportato nel post citato.
Risposte
Forse l'ho tradotto un po' male, è questo(Sheldon Ross pag110 esempio5e)
la sua soluzione è $P(H|F_n)=(sum_(i=0)^(k)(i/k)^(n+1))/(sum_(j=0)^(k)(j/k)^(n))$
"Sheldon Ross":
La regola della successione di Laplace.
Una scatola contiene $k + 1$ monete. La moneta $i$-esima, se lanciata, dà testa con probabilità $i/k$ ,$i = 0,1,...,k.$ Si sceglie a caso una moneta dalla scatola e la si lancia ripetutamente. Se i primi $n$ lanci danno testa, qual è la probabilità condizionata che lo stesso avvenga al lancio $(n + 1)$-esimo?
la sua soluzione è $P(H|F_n)=(sum_(i=0)^(k)(i/k)^(n+1))/(sum_(j=0)^(k)(j/k)^(n))$
@Anto Avevo scritto la risposta a seguente thread viewtopic.php?f=34&t=198800 per te (più che per l'OP) perchè ho visto come ragioni e francamente (se posso permettermelo) ti complichi la vita...e anche per darti il benvenuto al lato oscuro!
Il problema che poni è identico al problema del thread.
La sequenza logica è esattamente quella ho dato nella soluzione.
Prima ci si chiede qual è la prob di aver pescato la moneta $M_i$ dato l'evento E "sono uscite n teste".
In sostanza si applica Bayes...ma se vuoi visualizzare la cosa, allora immagina un ramo di un albero che di dirama in k+1 direzioni e con probabilità uniforme $1/(k+1)$. Ad ognuno dei rami più piccoli associamo la probabilità che avvenga l'evento E, dove quella generica è $P(E|M_i)=(i/k)^n$, da cui la probabilità che si sia verificato l'evento E per quel ramo/moneta generico/a è $1/(k+1)(i/k)^n$. E ora andiamo a "normalizzarla" dividendola per la somma totale:
$P(M_i|E)=(1/(k+1)(i/k)^n)/(sum_(i=0)^k 1/(k+1)(i/k)^n)=((i/k)^n)/(sum_(i=0)^k (i/k)^n)$
Solo ora ci chiediamo qual è la probabilità che esca nuovamente testa...ovvero la media ponderata/valore atteso:
$P(T|E)=sum_(j=0)^k (i/k)*P(M_i|E)$
Quindi quando chiedi:
La risposta è "certo che si, è un semplice valore atteso"
Ma l'intero processo diventa chiaro con questa progressione logica
Infatti, uno dei problemi nel comprendere la statistica è che spesso le formule sono algebricamente identiche ma non hanno lo stessa valenza logica. E' come in fisica: si possono scrivere le equazioni anche in ordine sparso e arrivare alla soluzione ma il significato "fisico" del lato algebrico si coglie solo se nel giusto ordine.
P.S. Ma quella notazione è tua o del libro...perchè la trovo orribil
Il problema che poni è identico al problema del thread.
La sequenza logica è esattamente quella ho dato nella soluzione.
Prima ci si chiede qual è la prob di aver pescato la moneta $M_i$ dato l'evento E "sono uscite n teste".
In sostanza si applica Bayes...ma se vuoi visualizzare la cosa, allora immagina un ramo di un albero che di dirama in k+1 direzioni e con probabilità uniforme $1/(k+1)$. Ad ognuno dei rami più piccoli associamo la probabilità che avvenga l'evento E, dove quella generica è $P(E|M_i)=(i/k)^n$, da cui la probabilità che si sia verificato l'evento E per quel ramo/moneta generico/a è $1/(k+1)(i/k)^n$. E ora andiamo a "normalizzarla" dividendola per la somma totale:
$P(M_i|E)=(1/(k+1)(i/k)^n)/(sum_(i=0)^k 1/(k+1)(i/k)^n)=((i/k)^n)/(sum_(i=0)^k (i/k)^n)$
Solo ora ci chiediamo qual è la probabilità che esca nuovamente testa...ovvero la media ponderata/valore atteso:
$P(T|E)=sum_(j=0)^k (i/k)*P(M_i|E)$
Quindi quando chiedi:
"anto_zoolander":
domanda: è lecito questo passaggio? in genere capita che finisca per chiedermi se due eventi appartengano allo stesso spazio campionario
La risposta è "certo che si, è un semplice valore atteso"
Ma l'intero processo diventa chiaro con questa progressione logica
Infatti, uno dei problemi nel comprendere la statistica è che spesso le formule sono algebricamente identiche ma non hanno lo stessa valenza logica. E' come in fisica: si possono scrivere le equazioni anche in ordine sparso e arrivare alla soluzione ma il significato "fisico" del lato algebrico si coglie solo se nel giusto ordine.
P.S. Ma quella notazione è tua o del libro...perchè la trovo orribil

@arnett
Perfetto era una curiosità
@bokonin
Quale notazione?
Ad ogni modo nelle dimostrazioni che chiedo, chiedo solo ciò che non mi è chiaro. In questo caso ció che mi interessava era capire se fossero formalmente corretti i passaggi
Chiaramente ritengo prezioso un diverso punto di vista quindi ti ringrazio
Perfetto era una curiosità

@bokonin
Quale notazione?
Ad ogni modo nelle dimostrazioni che chiedo, chiedo solo ciò che non mi è chiaro. In questo caso ció che mi interessava era capire se fossero formalmente corretti i passaggi

Chiaramente ritengo prezioso un diverso punto di vista quindi ti ringrazio

"anto_zoolander":
Quale notazione?
$P(H|C_iF_n)$
Sarò solo io, ma la trovo orribile
Penso sia una notazione molto usata in probabilità. Con $|$ si indica il condizionamento e con $AB$ si indica $AcapB$
"anto_zoolander":
Penso sia una notazione molto usata in probabilità. Con $|$ si indica il condizionamento e con $AB$ si indica $AcapB$
Ti ricordo che mi sono laureato in statistica

...e quindi secondo te è $P(H|(C_icapF_n)$?
Prova a tradurla in parole...e soprattutto prova a spiegare che significhi $C_icapF_n$ dato che sono eventi che non appartengono manco al medeismo spazio.
Onestamente non lo sapevo 
per questo chiedevo la liceità di quel passaggio, perché nemmeno secondo me appartenevano al medesimo spazio(se sali al primo post l’ho chiesto), eppure... sullo Sheldon Ross fa praticamente la stessa cosa, ho pensato che magari servirebbe l’introduzione di una variabile aleatoria, ma ho iniziato probabilità da poco.
Comunque si $P(H|C_iF_n)$ ha quel senso.
Se si considera uno spazio $(Omega,F,P)$, si prendono due eventi $C,H$ compatibili e si prende una famiglia finita $F_1,...,F_n$ di eventi a due a due incompatibili la cui Unione è lo spazio campionario risulta
$P(C|H)=sum_(k=1)^(n)P(C|F_kH)P(F_k|H)$
Lo scopo dell’esercizio sarebbe proprio di utilizzare questo fatto

per questo chiedevo la liceità di quel passaggio, perché nemmeno secondo me appartenevano al medesimo spazio(se sali al primo post l’ho chiesto), eppure... sullo Sheldon Ross fa praticamente la stessa cosa, ho pensato che magari servirebbe l’introduzione di una variabile aleatoria, ma ho iniziato probabilità da poco.
Comunque si $P(H|C_iF_n)$ ha quel senso.
Se si considera uno spazio $(Omega,F,P)$, si prendono due eventi $C,H$ compatibili e si prende una famiglia finita $F_1,...,F_n$ di eventi a due a due incompatibili la cui Unione è lo spazio campionario risulta
$P(C|H)=sum_(k=1)^(n)P(C|F_kH)P(F_k|H)$
Lo scopo dell’esercizio sarebbe proprio di utilizzare questo fatto
No, Anto! No!
Ho scritto tutto quel post proprio perchè ho visto la tua (comprensibilissima) confusione su quel termine!
In realtà l'autore scrive $P(H|(C_i|F_n))=P(H|C_i)$....ed è ovvio, ma al contempo banale e privo di contenuto, visto che non c'è alcuna dipendenza! E non ha nemmeno senso che ci sia, questo era il mio punto!
E' un abuso di notazione insulso, inutile e fuorviante e infatti mi sono reso conto che non l'avevi "compreso".
Ora riguarda la notazione che ho usato io e alla fine giungo a $P(T|E)=sum_(j=0)^k P(T|M_i)*P(M_i|E)$
Una media ponderata che si legge in modo perfettamente lineare e semplice, no?
Ho scritto tutto quel post proprio perchè ho visto la tua (comprensibilissima) confusione su quel termine!
In realtà l'autore scrive $P(H|(C_i|F_n))=P(H|C_i)$....ed è ovvio, ma al contempo banale e privo di contenuto, visto che non c'è alcuna dipendenza! E non ha nemmeno senso che ci sia, questo era il mio punto!
E' un abuso di notazione insulso, inutile e fuorviante e infatti mi sono reso conto che non l'avevi "compreso".
Ora riguarda la notazione che ho usato io e alla fine giungo a $P(T|E)=sum_(j=0)^k P(T|M_i)*P(M_i|E)$
Una media ponderata che si legge in modo perfettamente lineare e semplice, no?
Aspetta un attimo bok(sa più di amichevole)
Per prima cosa ti allego questo che chiarisce il significato di $AB:=AcapB$ utilizzato sul libro

Per seconda cosa ti allego il pezzo in questione cui mi riferisco

Infine aggiungo la dimostrazione di quel fatto, la faccio concisa:
Dato questo suppongo che per lui non vi fosse alcun abuso di notazione e di fatto a livello “logico” ha senso considerare
Peró sono d’accordo sul fatto che ci sia una ambiguità di fondo, pure se fosse $P(H|C_i)=(P(HcapC_i))/(P(C_i))$ si avrebbe che $H,C_i$ non apparterrebbero allo stesso spazio campionario.
Per prima cosa ti allego questo che chiarisce il significato di $AB:=AcapB$ utilizzato sul libro

Per seconda cosa ti allego il pezzo in questione cui mi riferisco

Infine aggiungo la dimostrazione di quel fatto, la faccio concisa:
Dato questo suppongo che per lui non vi fosse alcun abuso di notazione e di fatto a livello “logico” ha senso considerare
$P(H|F_nC_i)=P(H|C_i)$
Peró sono d’accordo sul fatto che ci sia una ambiguità di fondo, pure se fosse $P(H|C_i)=(P(HcapC_i))/(P(C_i))$ si avrebbe che $H,C_i$ non apparterrebbero allo stesso spazio campionario.
Grazie del post!
Quindi aveva pure spiegato cosa intendeva con "AB" e già solo il fatto che l'autore trovi così essenziale risparmiare un carattere per poi scrivere quello che ha scritto mi dice molto sul tipo.
Ora vedo chiaramente che è un caso patologico di onanismo formale che pur di compattare una scrittura arriva ad allargare lo spazio degli eventi per dire sostanzialmente l'intersezione di due eventi che non stanno nemmeno nello stesso "presente" come la scelta di una moneta e l'evento "n teste" è vuota.
Da qua, ecco il mio suppore che con AB intendesse almeno una dipendenza, dato che in futuro vedrai anche formule in cui la probabilità dipende da quella passata (mentre qui è chiaro che vi è assenza di memoria da parte della moneta)...perchè così almeno sarebbe stata una formalizzazione "gratuita" ma almeno sensata come generalizzazione..e invece il tipo pare appassionato solo dal formalismo e dalla teoria degli insiemi.
Se Kolmogorov avesse previsto tutto questo...dati causa e pretesto (cit)....
E pure Laplace (che forse non sai che è stato il primo a formalizzare la statistica bayesiana) se lo avesse visto sono certo che avrebbe riso.
Infine, punto assai importante, quella scrittura infatti non solo confonde ma non mette nemmeno in evidenza l'aspetto inferenziale della soluzione ottenuta da punto di vista bayesiano...è puro simbolismo senza anima e fine a se stesso IMHO.
Quindi aveva pure spiegato cosa intendeva con "AB" e già solo il fatto che l'autore trovi così essenziale risparmiare un carattere per poi scrivere quello che ha scritto mi dice molto sul tipo.
Ora vedo chiaramente che è un caso patologico di onanismo formale che pur di compattare una scrittura arriva ad allargare lo spazio degli eventi per dire sostanzialmente l'intersezione di due eventi che non stanno nemmeno nello stesso "presente" come la scelta di una moneta e l'evento "n teste" è vuota.
Da qua, ecco il mio suppore che con AB intendesse almeno una dipendenza, dato che in futuro vedrai anche formule in cui la probabilità dipende da quella passata (mentre qui è chiaro che vi è assenza di memoria da parte della moneta)...perchè così almeno sarebbe stata una formalizzazione "gratuita" ma almeno sensata come generalizzazione..e invece il tipo pare appassionato solo dal formalismo e dalla teoria degli insiemi.
Se Kolmogorov avesse previsto tutto questo...dati causa e pretesto (cit)....
E pure Laplace (che forse non sai che è stato il primo a formalizzare la statistica bayesiana) se lo avesse visto sono certo che avrebbe riso.
Infine, punto assai importante, quella scrittura infatti non solo confonde ma non mette nemmeno in evidenza l'aspetto inferenziale della soluzione ottenuta da punto di vista bayesiano...è puro simbolismo senza anima e fine a se stesso IMHO.
A me non dispiace molto questa notazione evita l’appesantimento, ma sono gusti
