Significato della funzione verosimiglianza
questa è una domanda di un esame:
illustrare il significato della funzione di verosimiglianza e giustificarne l'uso nel metodo di stima della max verosimiglianza.
secondo le mie conoscenze e secondo il materiale che ho a disposizione posso solo dire che
funzione di verosimiglianza=funzione congiuta di densita/probabilità
illustrare il significato della funzione di verosimiglianza e giustificarne l'uso nel metodo di stima della max verosimiglianza.
secondo le mie conoscenze e secondo il materiale che ho a disposizione posso solo dire che
funzione di verosimiglianza=funzione congiuta di densita/probabilità
Risposte
Il concetto di verosimiglianza è pertinente nel contesto delle probabilità condizionate.
Di solito, se fra n "ipotesi" , ognuna delle quali può produrre o un effetto E o il suo contrario (non-E),
una ed una sola è quella giusta, allora, fissata ciascuna ipotesi (e siano ad esempio tre: H1, H2, H3)
puoi calcolare le cosiddette probabilità condizionate:
E' vera H1: P1=Prob(E | H1) , Q1=Prob(non-E | H1) = 1-P1
E' vera H2: P2=Prob(E | H1) , Q2=Prob(non-E | H1) = 1-P2
E' vera H3: P3=Prob(E | H1) , Q3=Prob(non-E | H1) = 1-P3
Un esempio potrebbe essere:
________________Mario supera l'esame - Mario viene bocciato
Mario ha studiato assai......... 70% ............... 30%
Mario non ha studiato........... 25% ............... 75%
Mario ha studiato così così .... 50% ...............50%
______________________________________________
Le ipotesi riguardano il modo come Mario ha studiato, e non ci possono essere altre alternative.
Gli effetti sono due: "esame superato" o "esame non superato".
La prima riga della tabella ci dice, per esempio, che: "se Mario ha studiato, ha una probabilità del 70% di farcela, e il 30% di non farcela".
Analogamente si leggono le altre due righe.
Notate ora che su ognuna dele 3 righe la somma dei due numeri fa 100%, mentre la stessa cosa non vale sulle colonne.
Eppure sempre di probabilità si tratta!
Per esempio, sulla prima colonna abbiamo le prob.( condizionate ) che Mario superi l'esame per ciascuna delle tre ipotesi, e la somma fa 145%.
Queste probabilità che si calcolano, una per ogni ipotesi, pensando all'uscita di un dato effetto, si dicono giustappunto:
"VEROSIMIGLIANZE delle varie ipotesi per quel dato effetto".
Esse esprimono il grado di plausibilità che dobbiamo attribuire a ciascuna delle ipotesi, nel caso si verifichi il dato effetto.
Nell'esempio fatto, chiediamoci: se sapessimo che Mario ha superato l'esame, qual è l'ipotesi più plausibile (o verosimile)?
H1) Che ha studiato assai? (verosimiglianza=70%)
H2) Che non ha studiato affatto? (verosimiglianza=25%)
H3) Che ha studiato così così? (verosimiglianza=50%)
E' chiaro che, se non sappiamo altro, dovremmo preferire l'alternativa H1, che è la più verosimile (non possiamo ancora dire "probabile" perchè 75% non è la probabilità di H1, ma la prob. di (Mario supera l'esame) se l'ipotesi giusta è H1. Essa è una sorta di "peso", che acquista il suo pieno significato solo se paragonato al peso che viene attribuito alle altre alternative.
Come usare ora le verosimiglianze, una volta che veramente si sia verificato l'evento "Mario supera l'esame", per arrivare ad associare delle vere probabilità (a posteriori) alle varie ipotesi?
Dico, delle probabilità coi controcazzi, che assommino a 100% ! Queste sono quelle che si chiamano "prob. a posteriori" (senza significati lascivi!).
Bene, la risposta al suddetto quesito è nella celebre formula del "teorema di Bayes", formula che ti avverte però (giustamente):
"Se non mi sai dire quali erano a priori (cioè prima di osservare questo o quell'effetto) le probabilità di tutte le ipotesi alternative possibili, col cavolo che puoi calcolare le probabilità a posteriori!"
Nell'esempio citato uno potrebbe rispondere "e che ne so?". Il bello è che questa è una risposta!
Infatti "ecchennesò!" significa che uno non ha ragione di preferire nessuna delle 3 ipotesi, almeno a priori. Quindi p(1)=p(2)=p(3)=1/3.
Ma, se uno sa, ad esempio, che Mario è un fottuto secchione, perchè lo conosciamo bene (altrochè se lo conosciamo! di solito, quando ha un esame non lo tiri fuori di casa manco a cannonate!), beh allora è diverso. A priori può essere allora: p(1)=80%, p(2)=3%, p(3)=17%.
A questo punto, come un fulmine a ciel sereno, apprendiamo che Mario è stato bocciato!
Bene (cioè male!). La domanda che viene spontanea (come diceva Lubrano) è:
Saputo il fattaccio, che probabilità dobbiamo ora attribuire all'eventualità che Mario avesse studiato tanto, nonostante tutto?
La risposta a voi! E saprete trovarla se solo saprete "issarvi", come diceva Newton, "sulle spalle di quel gigante" che fu il reverendo Bayes.
Spero di non avervi annoiato!
Di solito, se fra n "ipotesi" , ognuna delle quali può produrre o un effetto E o il suo contrario (non-E),
una ed una sola è quella giusta, allora, fissata ciascuna ipotesi (e siano ad esempio tre: H1, H2, H3)
puoi calcolare le cosiddette probabilità condizionate:
E' vera H1: P1=Prob(E | H1) , Q1=Prob(non-E | H1) = 1-P1
E' vera H2: P2=Prob(E | H1) , Q2=Prob(non-E | H1) = 1-P2
E' vera H3: P3=Prob(E | H1) , Q3=Prob(non-E | H1) = 1-P3
Un esempio potrebbe essere:
________________Mario supera l'esame - Mario viene bocciato
Mario ha studiato assai......... 70% ............... 30%
Mario non ha studiato........... 25% ............... 75%
Mario ha studiato così così .... 50% ...............50%
______________________________________________
Le ipotesi riguardano il modo come Mario ha studiato, e non ci possono essere altre alternative.
Gli effetti sono due: "esame superato" o "esame non superato".
La prima riga della tabella ci dice, per esempio, che: "se Mario ha studiato, ha una probabilità del 70% di farcela, e il 30% di non farcela".
Analogamente si leggono le altre due righe.
Notate ora che su ognuna dele 3 righe la somma dei due numeri fa 100%, mentre la stessa cosa non vale sulle colonne.
Eppure sempre di probabilità si tratta!
Per esempio, sulla prima colonna abbiamo le prob.( condizionate ) che Mario superi l'esame per ciascuna delle tre ipotesi, e la somma fa 145%.
Queste probabilità che si calcolano, una per ogni ipotesi, pensando all'uscita di un dato effetto, si dicono giustappunto:
"VEROSIMIGLIANZE delle varie ipotesi per quel dato effetto".
Esse esprimono il grado di plausibilità che dobbiamo attribuire a ciascuna delle ipotesi, nel caso si verifichi il dato effetto.
Nell'esempio fatto, chiediamoci: se sapessimo che Mario ha superato l'esame, qual è l'ipotesi più plausibile (o verosimile)?
H1) Che ha studiato assai? (verosimiglianza=70%)
H2) Che non ha studiato affatto? (verosimiglianza=25%)
H3) Che ha studiato così così? (verosimiglianza=50%)
E' chiaro che, se non sappiamo altro, dovremmo preferire l'alternativa H1, che è la più verosimile (non possiamo ancora dire "probabile" perchè 75% non è la probabilità di H1, ma la prob. di (Mario supera l'esame) se l'ipotesi giusta è H1. Essa è una sorta di "peso", che acquista il suo pieno significato solo se paragonato al peso che viene attribuito alle altre alternative.
Come usare ora le verosimiglianze, una volta che veramente si sia verificato l'evento "Mario supera l'esame", per arrivare ad associare delle vere probabilità (a posteriori) alle varie ipotesi?
Dico, delle probabilità coi controcazzi, che assommino a 100% ! Queste sono quelle che si chiamano "prob. a posteriori" (senza significati lascivi!).
Bene, la risposta al suddetto quesito è nella celebre formula del "teorema di Bayes", formula che ti avverte però (giustamente):
"Se non mi sai dire quali erano a priori (cioè prima di osservare questo o quell'effetto) le probabilità di tutte le ipotesi alternative possibili, col cavolo che puoi calcolare le probabilità a posteriori!"
Nell'esempio citato uno potrebbe rispondere "e che ne so?". Il bello è che questa è una risposta!
Infatti "ecchennesò!" significa che uno non ha ragione di preferire nessuna delle 3 ipotesi, almeno a priori. Quindi p(1)=p(2)=p(3)=1/3.
Ma, se uno sa, ad esempio, che Mario è un fottuto secchione, perchè lo conosciamo bene (altrochè se lo conosciamo! di solito, quando ha un esame non lo tiri fuori di casa manco a cannonate!), beh allora è diverso. A priori può essere allora: p(1)=80%, p(2)=3%, p(3)=17%.
A questo punto, come un fulmine a ciel sereno, apprendiamo che Mario è stato bocciato!
Bene (cioè male!). La domanda che viene spontanea (come diceva Lubrano) è:
Saputo il fattaccio, che probabilità dobbiamo ora attribuire all'eventualità che Mario avesse studiato tanto, nonostante tutto?
La risposta a voi! E saprete trovarla se solo saprete "issarvi", come diceva Newton, "sulle spalle di quel gigante" che fu il reverendo Bayes.
Spero di non avervi annoiato!