Probabilità preliminari teorema Bayes
Ciao, amici! Leggo che nella probabilità\[P(E_j|F)=\frac{P(E_j)P(F|E_j)}{\sum_{i=1}^{n}P(E_i)P(F|E_i)}\]dove la serie di eventi \(E_1,...,E_n\) è esaustiva e gli eventi sono mutuamente esclusivi, le probabilità preliminari \(P(E_i)\) si può dimostrare che, man mano che si accumulano fatti osservati, hanno sempre meno influenza sull'esito del calcolo.
Qualcuno sa che cosa significhi rigorosamente parlando quest'espressione? Senz'altro sarà che per $n\to \infty$ la \(P(E_i|F)\) tende a non dipendere più dalle \(P(E_i)\), ma non saprei proprio come formalizzare il concetto, né tantomeno come dimostrarlo a me stesso (perché un'affermazione senza dimostrazione non mi soddisfa, ovviamente)...
$\infty$ grazie a tutti!!!
EDIT: diversificati gli indici, come suggerito da retrocomputer, che ringrazio.
Qualcuno sa che cosa significhi rigorosamente parlando quest'espressione? Senz'altro sarà che per $n\to \infty$ la \(P(E_i|F)\) tende a non dipendere più dalle \(P(E_i)\), ma non saprei proprio come formalizzare il concetto, né tantomeno come dimostrarlo a me stesso (perché un'affermazione senza dimostrazione non mi soddisfa, ovviamente)...
$\infty$ grazie a tutti!!!
EDIT: diversificati gli indici, come suggerito da retrocomputer, che ringrazio.
Risposte
Ma la sommatoria a denominatore non è sempre $P(F)$ indipendentemente da $n$? Quindi non vedo come l'aumento di $n$ possa influire... Forse ogni singolo $E_j$ può tendere a influire di meno...
Comunque, tanto per fare il pignolo
ci sono troppe $i$ nella formula: io nella sommatoria userei un $j$ al posto di $i$
Tra l'altro, riallacciandomi alla discussione con Sergio sulle statistiche, credo che non sia un caso se anche le probabilità $P(F|E_j)$ le ho viste chiamare verosimiglianze...
Comunque, tanto per fare il pignolo


Tra l'altro, riallacciandomi alla discussione con Sergio sulle statistiche, credo che non sia un caso se anche le probabilità $P(F|E_j)$ le ho viste chiamare verosimiglianze...
"retrocomputer":È ciò che ha lasciato confuso anche me. Ho pensato anche che quanto dice il libro possa significare che gli errori compiuti nel calcolare le \(P(E_j)\) tendono a contare meno, anche se mi sembra controintuitivo che aumentando i calcoli diminuisca l'influenza degli errori...
Ma la sommatoria a denominatore non è sempre $P(F)$ indipendentemente da $n$? Quindi non vedo come l'aumento di $n$ possa influire...
"Sergio":Già, direi che\[p(\theta|\mathbf{x}_n)=\frac{p(\mathbf{x}_n|\theta)p(\theta|\mathbf{x}_{n-1})}{\int p(\mathbf{x}_n|\theta')p(\theta'|\mathbf{x}_{n-1})d\theta'}\]Wow, Sergio, che esposizione dettagliata di un fatto tanto interessante!!!
La originaria probabilità a priori diventa quindi sempre meno influente perché sempre più "annegata" nel prodotto di precedenti probabilità a posteriori, influenzate dai campioni osservati.
$\infty$ grazie a tutti e due!!!