[EX] Teorema di bayes - un altro esercizio
Siano $N$ e $M$, rispettivamente i falli effettivamente commessi e quelli fischiati dall'arbitro in una partita di Calcio. Supponiamo per semplicità che l'arbitro non fischi mai un fallo inesistente mentre ne fischi uno effettivamente commesso con probabilità $theta$. Supponiamo inoltre che tale probabilità non cambi nel tempo e sia indipendente da altri fattori.
Sulla base dei falli fischiati si vuole valutare, in termini bayesiani, quanti falli siano effettivamente stati commessi in una partita (distribuzione a posteriori di $N$).
A tal proposito si usa una distribuzione a priori di Poisson: $N~ Po(lambda)$.
Sulla base dei falli fischiati si vuole valutare, in termini bayesiani, quanti falli siano effettivamente stati commessi in una partita (distribuzione a posteriori di $N$).
A tal proposito si usa una distribuzione a priori di Poisson: $N~ Po(lambda)$.
Risposte
Sulla distribuzione di Poisson ho poco da fare, quindi ho provato a far altro.
Ho considerato una binomiale che conta i falli fischiati sulla base di quelli effettuati, si costruisce sommando variabili indipendenti dove $X_j$ vale $1$ se il $j-$esimo fallo è stato fischiato e $0$ altrimenti.
Facendo variare il numero di falli effettuati ottengo
Questa quantità è massima per $x=floor(N/theta)$
Ossia il numero di falli effettuati più probabile che si possa avere è quando sono $floor(N/theta)$. D’altronde spostando $x$ da questo numero la probabilità che ne abbia fischiati $N$ scende.
Penso possa aver senso
Per esempio se $theta=1/2$ e $M=4$ si ha $floor(M/theta)=8$
Infatti possiamo aspettarci che di $8$ falli sia più probabile che ne fischi la metà.
Ho considerato una binomiale che conta i falli fischiati sulla base di quelli effettuati, si costruisce sommando variabili indipendenti dove $X_j$ vale $1$ se il $j-$esimo fallo è stato fischiato e $0$ altrimenti.
Facendo variare il numero di falli effettuati ottengo
$P(B(x,theta)=N)=((x),(N))theta^N(1-theta)^(x-N)$
Questa quantità è massima per $x=floor(N/theta)$
Ossia il numero di falli effettuati più probabile che si possa avere è quando sono $floor(N/theta)$. D’altronde spostando $x$ da questo numero la probabilità che ne abbia fischiati $N$ scende.
Penso possa aver senso

Per esempio se $theta=1/2$ e $M=4$ si ha $floor(M/theta)=8$
Infatti possiamo aspettarci che di $8$ falli sia più probabile che ne fischi la metà.
"anto_zoolander":
Ho considerato una binomiale che conta i falli fischiati sulla base di quelli effettuati
Purtroppo senza conoscere la teoria sottostante non è possibile tirare ad indovinare. La partenza è anche giusta, ovvero quella di calcolare la distribuzione (condizionata al numero di falli effettivamente commessi) del numero di falli fischiati. E' effettivamente una binomiale ma non quella che hai scritto tu.
EDIT: o forse ho solo letto male i simboli che hai scritto. Ad ogni modo, indicando con $X$ i falli fischiati (anche se nella tracca avevo chiaramente scritto che i falli fischiati erano $M$) la distribuzione è questa:
$mathbb{P}[X|N]=((N),(x))theta^x(1-theta)^(N-x)$
dato che, per ipotesi della traccia, i falli fischiati possono essere $0,1,2,...,N$
...a questo punto utilizzando opportunamente il teorema di Bayes si vede che la distribuzione di $N|X$ è ancora di Poisson di parametro $lambda(1-theta)$
"Tommik":
Sulla base dei falli fischiati si vuole valutare, in termini bayesiani, quanti falli siano effettivamente stati commessi in una partita
Questo l’ho tradotto come il fissare Il numero di falli fischiati, è al contrario?

Chiaramente non sparo, cerco di riprodurre un ragionamento, magari imparo qualcosa.
Sì è vero, ma non è possibile calcolarla quella distribuzione a meno di non utilizzare Bayes e calcolarla utilizzando l'altra condizionata, ovvero quella che fissa i falli effettivamente commessi....come accade sempre negli esercizi con il teorema di Bayes
Ecco come comportarsi in questi casi (è un esercizio in logica Bayesiana, non Classica)
Per evitare fraintendimenti, confusione di simboli ecc ecc definiamo le seguenti variabili aleatorie
$X$: conteggio dei falli fischiati;
$N$: conteggio dei falli commessi.
La traccia ci dà la distribuzione di $N$
$mathbb{P}[N=n]=(e^(-lambda)lambda^n)/(n!)$
e facilmente troviamo anche la distribuzione dei falli fischiati, condizionatamente ai falli commessi
$mathbb{P}[X|N=n]=((n),(x))theta^x(1-theta)^(n-x)$
Ora, utilizzando il teorema di Bayes, possiamo trovare la distribuzione condizionata che ci serve, ovvero
$mathbb{P}[N|X]=(mathbb{P}[N]mathbb{P}[X|N])/(mathbb{P}[X]) prop mathbb{P}[N]mathbb{P}[X|N]$
ciò in quanto il denominatore è integrato e non dipende più da $N$
utilizzando i dati del problema troviamo che
$mathbb{P}[N|X] prop (e^(-lambda)lambda^n)/(n!)(n!)/(x!(n-x)!)theta^x(1-theta)^(n-x)prop (lambda^n(1-theta)^(n-x))/((n-x)!)$
dove, dopo il secondo $prop$, non ho considerato tutte le quantità che non dipendono da $n$
Già da qui si vede che la distribuzione a cui si arriva è proporzionale ad una poisson, e per caratterizzarla compiutamente basta moltiplicare/dividere per le opportune quantità (costanti di normalizzazione) in modo che diventi davvero una distribuzione di probabilità (ovvero che la somma su tutto il supporto sia 1)
facilmente vediamo che si ottiene
$mathbb{P}[N|X]=([lambda(1-theta)]^(n-x)e^(-lambda(1-theta)))/((n-x)!)$
che è appunto di poisson, con $n-x=0,1,2,....$
La distrbuzione a posteriori (cioè dopo aver osservato il dato sperimentale) dei falli effettiamente commessi è la seguente
(cliccami per ingrandirmi)
Ecco come comportarsi in questi casi (è un esercizio in logica Bayesiana, non Classica)
Per evitare fraintendimenti, confusione di simboli ecc ecc definiamo le seguenti variabili aleatorie
$X$: conteggio dei falli fischiati;
$N$: conteggio dei falli commessi.
La traccia ci dà la distribuzione di $N$
$mathbb{P}[N=n]=(e^(-lambda)lambda^n)/(n!)$
e facilmente troviamo anche la distribuzione dei falli fischiati, condizionatamente ai falli commessi
$mathbb{P}[X|N=n]=((n),(x))theta^x(1-theta)^(n-x)$
Ora, utilizzando il teorema di Bayes, possiamo trovare la distribuzione condizionata che ci serve, ovvero
$mathbb{P}[N|X]=(mathbb{P}[N]mathbb{P}[X|N])/(mathbb{P}[X]) prop mathbb{P}[N]mathbb{P}[X|N]$
ciò in quanto il denominatore è integrato e non dipende più da $N$
utilizzando i dati del problema troviamo che
$mathbb{P}[N|X] prop (e^(-lambda)lambda^n)/(n!)(n!)/(x!(n-x)!)theta^x(1-theta)^(n-x)prop (lambda^n(1-theta)^(n-x))/((n-x)!)$
dove, dopo il secondo $prop$, non ho considerato tutte le quantità che non dipendono da $n$
Già da qui si vede che la distribuzione a cui si arriva è proporzionale ad una poisson, e per caratterizzarla compiutamente basta moltiplicare/dividere per le opportune quantità (costanti di normalizzazione) in modo che diventi davvero una distribuzione di probabilità (ovvero che la somma su tutto il supporto sia 1)
facilmente vediamo che si ottiene
$mathbb{P}[N|X]=([lambda(1-theta)]^(n-x)e^(-lambda(1-theta)))/((n-x)!)$
che è appunto di poisson, con $n-x=0,1,2,....$
Esempio: da informazioni storiche sappiamo che durante la partita vengono commessi mediamente 14 falli e che l'arbitro ne fischia 1 su due. Dato che è plausibile pensare che, allo scostarsi dei falli commessi rispetto alla media, la probabilità diminuisca, ipotizziamo a priori una distribuzione di poisson di parametro 14. Durante la partita vengono fischiati 10 falli.
La distrbuzione a posteriori (cioè dopo aver osservato il dato sperimentale) dei falli effettiamente commessi è la seguente
(cliccami per ingrandirmi)
