Dubbio sulla definizione di stimatore
Ciao, mi è venuto un dubbio atroce (e sicuramente stupido) sulla definizione di stimatore (o di statistica), nel senso di variabile aleatoria scelta per stimare un parametro. In alcuni testi si sottolinea nella definizione la sua non dipendenza dal parametro, mentre in altri si definisce praticamente solo come una variabile aleatoria reale...
Ora, intuitivamente capisco il senso (e l'utilità, anzi, direi la necessità) della non dipendenza, ma formalmente come potrei dirlo? Cioè, se mi si chiede perché non deve dipendere dal parametro, cosa rispondo?
Ora, intuitivamente capisco il senso (e l'utilità, anzi, direi la necessità) della non dipendenza, ma formalmente come potrei dirlo? Cioè, se mi si chiede perché non deve dipendere dal parametro, cosa rispondo?
Risposte
Sì Sergio, scusa, sono stato un po' superficiale volutamente per introdurre la questione, ma ora è il caso che io scriva qualcosa di più concreto
"La" definizione di stimatore torna anche a me, più o meno dice che è una variabile aleatoria, perché ha scomodato lo spazio campionario. Ecco cosa scrive Sheldon M. Ross (la stessa cosa):
Ora, come dici giustamente tu, che la distribuzione dello stimatore dipenda dal parametro è cosa naturale (dal momento che ci dipende la distribuzione del campione), ma la definizione non richiede nemmeno questo, in realtà. Diciamo che lo richiede l'utilità dello stimatore, utilità che, come hai detto, non è sempre facile da formalizzare: sufficienza, correttezza e consistenza aiutano allo scopo.
Tra l'altro la cosa (forse l'unica cosa) che distingue una statistica da una qualsiasi variabile aleatoria è il fatto che lo spazio campionario ha su di esso una famiglia di probabilità dipendenti dal parametro, mentre solitamente una variabile aleatoria è definita su uno spazio di probabilità con una sola probabilità che ne individua la legge.
Comunque lasciamo un attimo perdere la dipendenza dal parametro della distribuzione dello stimatore e concentriamoci sul suo essere una funzione misurabile (quindi ignoriamo la/le probabilità sullo spazio di partenza e quindi la distribuzione).
Ecco qualche definizione di statistica trovata in giro:
Credo che pongano l'accento sul fatto che la statistica è "nota", ma perché queste definizioni pongono l'accento su questo fatto e altre no?

"La" definizione di stimatore torna anche a me, più o meno dice che è una variabile aleatoria, perché ha scomodato lo spazio campionario. Ecco cosa scrive Sheldon M. Ross (la stessa cosa):
Il termine statistica indica una variabile aleatoria che è semplicemente una funzione dei dati del campione.
Una qualunque statistica il cui scopo sia quello di dare una stima di un parametro $\theta$ si dice stimatore di $\theta$; gli stimatori sono quindi variabili aleatorie.
Ora, come dici giustamente tu, che la distribuzione dello stimatore dipenda dal parametro è cosa naturale (dal momento che ci dipende la distribuzione del campione), ma la definizione non richiede nemmeno questo, in realtà. Diciamo che lo richiede l'utilità dello stimatore, utilità che, come hai detto, non è sempre facile da formalizzare: sufficienza, correttezza e consistenza aiutano allo scopo.
Tra l'altro la cosa (forse l'unica cosa) che distingue una statistica da una qualsiasi variabile aleatoria è il fatto che lo spazio campionario ha su di esso una famiglia di probabilità dipendenti dal parametro, mentre solitamente una variabile aleatoria è definita su uno spazio di probabilità con una sola probabilità che ne individua la legge.
Comunque lasciamo un attimo perdere la dipendenza dal parametro della distribuzione dello stimatore e concentriamoci sul suo essere una funzione misurabile (quindi ignoriamo la/le probabilità sullo spazio di partenza e quindi la distribuzione).
Ecco qualche definizione di statistica trovata in giro:
Assegnato un modello statistico $(\Omega,\mathcal{F},(P^\theta,\theta\in\Theta))$, si dice statistica (o stima) ogni applicazione misurabile $S$ di $(\Omega,\mathcal{F})$ in uno spazio misurabile $(E,\mathcal{E})$, che non dipenda da $\theta$. (presa dalle dispense di un prof. che non si trovano in rete)
Dato un campione casuale $X_1,...,X_n$, si dice statistica una v.a. $T$ funzione del campione casuale che NON sia funzione di alcun parametro incognito. (presa da qui)
Credo che pongano l'accento sul fatto che la statistica è "nota", ma perché queste definizioni pongono l'accento su questo fatto e altre no?
"Sergio":
Da notare che le due situazioni sono alternative:
a) se sai che \(\theta=0.3\) puoi calcolare \(P(X=3)=0.267\), dove \(X=\) "numero di teste in dieci lanci", ma per farlo usi una funzione (di massa di probabilità), non provi a lanciare monete in aria;
b) se osservi tre teste in dieci lanci puoi stimare \(\theta=0.3\), ma per farlo non usi certo un valore "vero" di \(\theta\) che ignori e non potrai mai conoscere.
Questo mi pare spieghi sia il "senso" della definizione di "statistica", sia la sua vaghezza: una statistica non è altro che una funzione dei "dati" (ci torno subito), non è e non può essere una funzione del parametro e in questo senso non dipende mai dal parametro. O hai una funzione che dipende dai dati (statistica) o una che dipende dal parametro (probabilità).
Dicendo che una statistica "dipende dai dati" neghi implicitamente che dipenda dal parametro.
Sì, credo che questo sia il punto della mia questione. Dire "funzione (solo) dei dati" e dire "non dipende dal parametro" è la stessa cosa, giusto?
Nel caso sia giusto, devo però capire perché lo è

"retrocomputer":
Tra l'altro la cosa (forse l'unica cosa) che distingue una statistica da una qualsiasi variabile aleatoria è il fatto che lo spazio campionario ha su di esso una famiglia di probabilità dipendenti dal parametro, mentre solitamente una variabile aleatoria è definita su uno spazio di probabilità con una sola probabilità che ne individua la legge.
"Sergio":
Non mi pare. Una statistica è una trasformazione di una variabile aleatoria multipla proprio come la somma o il quoziente di due o più variabili aleatorie.
La specifità della statistica in quanto variabile aleatoria le viene dall'ottica pre-sperimentale dell'impostazione frequentista: invece di considerare il campione osservato (e su questa base si può tranquillamente fare tutta l'inferenza che ti pare, seguendo altre impostazioni), si preferisce considerale la variabile aleatoria multipla di cui il singolo campione che viene poi osservato è una realizzazione.
Forse mi sono spiegato male... O forse ho proprio sbagliato... Che la statistica sia funzione del campione (la variabile aleatoria multipla) siamo d'accordo, questo non la rende "speciale" rispetto a una qualunque variabile aleatoria. Ma guarda lo spazio di probabilità su cui è definita la statistica, lo stesso su cui è definito il campione e lo stesso su cui sono definite le singole variabili aleatorie che lo compongono: su di esso c'è una famiglia di probabilità che variano con $\theta$, cosa che può rendere variabile la legge della statistica (ma non necessariamente, come hai puntualizzato bene). Se sullo spazio di probabilità fosse presente una probabilità $P$ nota, non esisterebbe statistica...
"retrocomputer":
Comunque lasciamo un attimo perdere la dipendenza dal parametro della distribuzione dello
Credo che pongano l'accento sul fatto che la statistica è "nota", ma perché queste definizioni pongono l'accento su questo fatto e altre no?
"Sergio":
"Nota"? E perché nota?
Queste definizioni dicono solo che una statistica è una funzione definita sullo spazio campionario, non su \(\Theta\), e il motivo è semplice: se conoscessi il parametro, non avresti bisogno di stimarlo. Dato che non lo conosci, cerchi di stimarlo muovendo dai "dati". "Dati" che non sono noti, ma (nell'impostazione frequentista) sono variabili aleatorie.
Sì sì, per "nota" non intendevo che si tratta di una costante o cose simili, ma che è funzione dei dati, non necessariamente noti, ma osservabili, mentre il parametro è non noto e nemmeno osservabile. Ti torna?
Credo che questo tuo ultimo discorso mi abbia illuminato, solo che trovo forse superfluo sottolineare la non dipendenza dal parametro nella definizione, soprattutto se ho già scritto che è una funzione dallo spazio $\Omega$. Una funzione dei dati e del parametro è per esempio la verosimiglianza, e infatti scrivo semplicemente che è definita su $\Theta\times\Omega$: non serve sottolineare niente...
Diciamo che mi sembra "ovvia" la non dipendenza dal parametro, una cosa che semmai avrei scritto dopo la definizione, come osservazione... Quindi avrei prima scritto "La" definizione e poi avrei osservato che non dipende dal parametro...
OK, mi pare che per quanto riguarda la questione della non dipendenza dal parametro della statistica siamo d'accordo (almeno noi due
).
Credo che alla fine la verosimiglianza faccia parte del discorso e anzi pone l'accento sulla differenza tra parametro e dato, quindi pariamo di verosimiglianza.
Mi tornano i tuoi esempi e mi torna il fatto di distinguere i due casi "parametro fisso e dati variabili" e "parametro variabile e dati fissi". Inoltre mi sono ormai abituato a usare il punto e virgola, ma non al posto della barra verticale, visto che non ho mai pensato alla verosimiglianza come a una probabilità condizionata.
Vorrei scriverti la definizione che è stata data a me:
Nel caso di variabili aleatorie reali, la misura dominante è la misura di Lebesgue.
Come vedi, qui (al contrario che nel resto del mondo
) non si distingue la densità (funzione dei dati) dalla verosimiglianza (funzione del parametro): la verosimiglianza è entrambi i concetti. Roba da matematici...

Credo che alla fine la verosimiglianza faccia parte del discorso e anzi pone l'accento sulla differenza tra parametro e dato, quindi pariamo di verosimiglianza.
Mi tornano i tuoi esempi e mi torna il fatto di distinguere i due casi "parametro fisso e dati variabili" e "parametro variabile e dati fissi". Inoltre mi sono ormai abituato a usare il punto e virgola, ma non al posto della barra verticale, visto che non ho mai pensato alla verosimiglianza come a una probabilità condizionata.
Vorrei scriverti la definizione che è stata data a me:
Dato un modello statistico $(\Omega,\mathcal{F},(\mathbb{P}^\theta,\theta\in\Theta))$ dominato da una misura ($\sigma$-finita) $\mu$, si dice verosimiglianza del modello una funzione $L:\Theta\times\Omega\to RR$ tale che per ogni fissato $\theta\in\Theta$ la funzione $\omega\mapsto L(\theta,\omega)$ sia una versione della densità di $\mathbb{P}^\theta$ rispetto a $\mu$.
Nel caso di variabili aleatorie reali, la misura dominante è la misura di Lebesgue.
Come vedi, qui (al contrario che nel resto del mondo
