Stima con il metodo di massima verosimiglianza
Salve a tutti, ho un dubbio che mi perseguita, e il Docente non mi ha fornito delucidazioni sufficientemente convincenti.
Sto affrontando un corso di statistica, e nella definizione di stimatore MLE ho dei problemi, perché nel testo Statistical Inference di Casella Berger si definisce stima MLE di un parametro $\theta$ rispetto al campione aleatorio casuale $\mathbf{X}$
$\hat\theta= arg\text{ sup}_{\theta\in\Theta}\{L(\theta|\mathbf{x})\}$, mentre in altri testi come ad esempio nel Probability and Statistical Inference di Nitis Mukhopadhyay è definito come $\hat\theta=arg \max_{\theta\in\Theta}\{L(\theta|\mathbf{x})\}$. Entrambi le definizioni non mi convincono perché quella di Berger da per scontato che lo spazio parametrico sia compatto, cosa che non è scritta da nessuna parte, mentre nell'altra definizione considerando il sup, se lo spazio parametrico non fosse compatto potrei stimare un parametro con un valore che non sta nello spazio parametrico, cosa alquanto insensata.
Avete dei chiarimenti?
Sto affrontando un corso di statistica, e nella definizione di stimatore MLE ho dei problemi, perché nel testo Statistical Inference di Casella Berger si definisce stima MLE di un parametro $\theta$ rispetto al campione aleatorio casuale $\mathbf{X}$
$\hat\theta= arg\text{ sup}_{\theta\in\Theta}\{L(\theta|\mathbf{x})\}$, mentre in altri testi come ad esempio nel Probability and Statistical Inference di Nitis Mukhopadhyay è definito come $\hat\theta=arg \max_{\theta\in\Theta}\{L(\theta|\mathbf{x})\}$. Entrambi le definizioni non mi convincono perché quella di Berger da per scontato che lo spazio parametrico sia compatto, cosa che non è scritta da nessuna parte, mentre nell'altra definizione considerando il sup, se lo spazio parametrico non fosse compatto potrei stimare un parametro con un valore che non sta nello spazio parametrico, cosa alquanto insensata.
Avete dei chiarimenti?
Risposte
"materia":
nel testo Statistical Inference di Casella Berger si definisce [strike]stima[/strike] MLE, ovvero stimatore ML di un parametro $\theta$ rispetto al campione aleatorio casuale $\mathbf{X}$
$\hat\theta= arg\text{ sup}_{\theta\in\Theta}\{L(\theta|\mathbf{x})\}$
Se il tuo docente non è stato in grado di fornirti giustificazioni convincenti dubito che tu le possa trovare qui.... ad ogni modo la definizione che ho citato è la più corretta anche se spesso si trova l'altra, dato che entrambe portano al medesimo risultato[nota]Questa è la nota che mette il MGB in proposito al Capitolo VII\2. METHODS OF FINDING ESTIMATORS\2.2 Maximum Likelihood

Nota che lo stimatore di massima verosimiglianza potrebbe non essere unico e potrebbe non appartenere a $Theta $ (appartiene però alla sua chiusura euclidea)
Per chiarire quanto ho affermato prova a risolvere i seguenti esercizi:
Date le seguenti densità:
$f_X(x|theta>0)=1/theta I_((0;theta))(x)$
$g_X(x|theta>0)=1/thetaI_([0;theta])(x)$
$h_X(x|theta >0)=1/2 I_((theta-1;theta+1))(x)$
si stimi il parametro ignoto $theta$ con il metodo della massima verosimiglianza sulla base di un campione bernulliano di ampiezza $n$ estratto dalle densità proposte.
Più grave mi pare invece l'errore che hai fatto nel tuo post e che ho corretto nella mia citazione in quanto lo stimatore $hat(theta)_(ML)$ è una variabile casuale mentre la stima è soltanto una realizzazione di tale variabile.
Anche "Stimatore MLE" è sbagliato perché significa "Stimatore Maximum Likelihood Estimator" che è come dire "la barca sta viaggiando a 15 nodi all'ora"....che è come dire "la barca sta viaggiando a circa $30(km)/h^2$"
Ti garantisco che è un errore non voluto, ma di distrazione, ho voluto fare il precisino a riportare nomi di autori e testi e poi ho scritto a caso la prima riga
e ho pure invertito i testi, in realtà la dicitura da te quotata è dell'altro autore .
Ovviamente so che l'acronimo sta per "stimatore di massima verosimiglianza", e so che differenza c'è tra stima e stimatore ma ieri sera ero proprio cotto.
Comunque il mio docente mi ha detto che invece la dicitura corretta è quella col massimo perché appunto si parla di stimatore di massima verosimiglianza, e che per qualche motivo il massimo non viene mai assunto nei valori di frontiera nel caso in cui lo spazio parametrico non sia compatto.
Scrivo qui forse perché non ho tutta questa considerazione del mio docente, che in soldoni mi ha chiesto un atto di fede nelle sue parole, inoltre nulla toglie che in questo forum possano esserci persone più competenti di lui.
Concludo col dirti che non è rara nella trattazione italiana la dicitura, ad esempio, di "stimatore UMVUE" nonostante ci sia la ridondanza ---> http://www1.mate.polimi.it/~ileepi/dispense/0809STAT/stimapuntuale.pdf
Grazie.

Ovviamente so che l'acronimo sta per "stimatore di massima verosimiglianza", e so che differenza c'è tra stima e stimatore ma ieri sera ero proprio cotto.
Comunque il mio docente mi ha detto che invece la dicitura corretta è quella col massimo perché appunto si parla di stimatore di massima verosimiglianza, e che per qualche motivo il massimo non viene mai assunto nei valori di frontiera nel caso in cui lo spazio parametrico non sia compatto.
Scrivo qui forse perché non ho tutta questa considerazione del mio docente, che in soldoni mi ha chiesto un atto di fede nelle sue parole, inoltre nulla toglie che in questo forum possano esserci persone più competenti di lui.
Concludo col dirti che non è rara nella trattazione italiana la dicitura, ad esempio, di "stimatore UMVUE" nonostante ci sia la ridondanza ---> http://www1.mate.polimi.it/~ileepi/dispense/0809STAT/stimapuntuale.pdf
Grazie.
Dunque @materia, per quanto riguarda la dicitura "Stimatore UMVUE" sono perfettamente d'accordo ma qui il caso è diverso. Ormai il termine UMVUE, in Italiano, apposto dopo "stimatore" è diventato un aggettivo a tutti gli effetti: ti vorrei vedere a scrivere cerchiamo lo
La mia osservazione era riferita al termine "Stimatore MLE", non mi piace e stop ma tu puoi fare ciò che credi.
Analogamente, per ciò che dice il tuo docente circa l'argmax o l'argsup, fai come dice e stop. Ti ho solo ricordato che ci sono altri autorevoli autori che la pensano diversamente.
A tal proposito di faccio fare la seguente riflessione
$L_(ul(x))(theta)=1/theta^n I_((x_((n));+oo))(theta)$; $theta>0$
come puoi vedere facilmente, la verosimiglianza in questione è strettamente decrescente nel suo domino e non ha massimo ma se ne può calcolare l'argsup: $hat(theta)_(ML)=max(ul(x))$, che è lo stimatore di massima verosimiglianza del paramtro incognito....
Premetto (anzi, Post-metto) che non sono un insegnante ma unicamente un dilettante, anziano ed appassionato della materia.
A proposito di UMVUE e della loro costruzione, ti invito a leggere Questo topic ed eventualmente lasciare i tuoi commenti.
cordiali saluti e buono studio
"Stimatore Uniformemente a Varianza Minima nella Classe degli Stimatori Non Distorti per $g(theta)$".
La mia osservazione era riferita al termine "Stimatore MLE", non mi piace e stop ma tu puoi fare ciò che credi.
Analogamente, per ciò che dice il tuo docente circa l'argmax o l'argsup, fai come dice e stop. Ti ho solo ricordato che ci sono altri autorevoli autori che la pensano diversamente.
A tal proposito di faccio fare la seguente riflessione
$L_(ul(x))(theta)=1/theta^n I_((x_((n));+oo))(theta)$; $theta>0$
come puoi vedere facilmente, la verosimiglianza in questione è strettamente decrescente nel suo domino e non ha massimo ma se ne può calcolare l'argsup: $hat(theta)_(ML)=max(ul(x))$, che è lo stimatore di massima verosimiglianza del paramtro incognito....
Premetto (anzi, Post-metto) che non sono un insegnante ma unicamente un dilettante, anziano ed appassionato della materia.
A proposito di UMVUE e della loro costruzione, ti invito a leggere Questo topic ed eventualmente lasciare i tuoi commenti.
cordiali saluti e buono studio
Sisi, grazie del materiale, la mia era solo una riflessione sulle terminologie
sinceramente per la mia forma mentis seguirei la linea di non ridondanza, il problema è che anche stamani a lezione il mio docente ha parlato di "stimatore MLE"
.
PS Non si è mai anziani per la matematica
, anzi forse sei molto più giovane di me matematicamente parlando, comunque ho letto il tuo esempio ma mi è venuto un grande dubbio, che per evitare di dire sfondoni mi trattengo dal dire. Mi metto a fare esercizi in questa parte perché per ora ho solo fatto l'approccio teorico, e poi nel caso mi rimanga il dubbio aggiornerò il topic.


PS Non si è mai anziani per la matematica
