Esercizi svolti di statistica, credo...
Credo di aver bisogno di un paio di dispensine con esercizi svolti di statistica...
Tipo qualcosa che mi indichi una via per risolvere problemini come questi:
Qualche suggerimento?
Tipo qualcosa che mi indichi una via per risolvere problemini come questi:
1) Sia $(X_1,\ldots ,X_n)$ un campione casuale estratto da una popolazione avente funzione di distribuzione:
$\quad F(x;\theta):=\{(1-e^(-sqrtx/theta), " se " x>=0), (0, " se " x<0):}$
ove $theta$ è un parametro $>0$. Determinare lo stimatore di $theta$ mediante il metodo della massima verosimiglianza e dimostrarne la correttezza.
2) Sia $(X_1,\ldots ,X_n)$ un campione casuale estratto da una popolazione avente densità:
$\quad f(x;\theta):=\{((2x)/theta*e^(-x^2/theta), " se " x>=0), (0, " se " x<0):}$
ove $theta$ è un parametro $>0$. Determinare lo stimatore di massima verosimiglianza di $theta$ e dimostrare che non è distorto.
3) Sia $\{N(t), t>=0\}$ un processo di Poisson di parametro $alpha$. Indicando con $tau_n$ il valore di $t$ per il quale la probabilità $p_n(t):=P\{N(t)=n| N(0)=0\}$ è massima, si faccia uso della formula di Stirling per ottenere un'approssimazione di $p_n(tau_n)$ valida al divergere di $n$.
Qualche suggerimento?
Risposte
Io più che qualche dipsensina, ti consiglierei di prendere un buon libro di statistica. Prima di darti dei suggerimenti, sai cosa sono il metodo della massima verosimiglianza ed il concetto di stimatore corretto (o non distorto)?
Ciao
Ciao
"olaxgabry":
Io più che qualche dispensina, ti consiglierei di prendere un buon libro di statistica. Prima di darti dei suggerimenti, sai cosa sono il metodo della massima verosimiglianza ed il concetto di stimatore corretto (o non distorto)?
Ciao
Ammetto che pur essendo laureato in Matematica, ho sempre apprezzato poco il Calcolo delle Probabilità ed anche meno la Statistica: ho dato solo l'esame base di CdP (che comprendeva la teoria standard e qualcosa sui processi stocastici) e di Statistica sono quasi del tutto a digiuno (ho solo aiutato la mia ragazza a preparare i suoi esami da ingegnere, Probabilità e Statistica e Teoria dell'Affidabilità). Quindi dispense con un po' di teoria non mi dispiacerebbero.
Ad ogni modo, al momento mi interessa soprattutto vedere qualche esercizio svolto, così da farmi un'idea dei metodi risolutivi... Insomma è un po' una curiosità prima di cominciare uno studio un po' più approfondito.
C'è anche il libro: Paolo Baldi - Calcolo delle probabilità e statistica. Edizione 98 (nella successiva la statistica non c'è).
Ci sono molti esempi di teoria degli stimatori e teoria dei test.
Ci sono molti esempi di teoria degli stimatori e teoria dei test.
Onestamente, più che il Baldi ti consiglierei il Piccolo, "Statistica": è veramente fatto bene e tratta moltissime cose di probabilità e statistica.
Cmq ti dico alcune cosette sul metodo della massima verosimiglianza. Conosci le v.a $X_i$, che sono identicamente distribuite (e indipendenti) con funzione di densità $f(X,theta)$: la distribuzione congiunta è data da
$f(X_1,...,X_n;theta)=f(X_1;theta)...f(X_n;theta)$
La cosa interessante è che conosci il tuo campione $(x_1,...,x_n)$ e la parte incognita è rappresentata da $theta$: la funzione
$L(theta)=f(x_1;theta)...f(x_n;theta)$
è chiamata funzione di verosimiglianza e ti indica la probabilità che $theta$ generi il campione $(x_1,...,x_n)$: più $L(theta)$ assume valori elevati, più la probabilità che $theta$ generi il campione $(x_1,...,x_n)$ è elevata; quindi, quello che si fa, è massimizzare $L(theta)$.
Quando $L(theta)$ è strettamente maggiore di 0, è utile lavorare con il suo logaritmo naturale
$T(theta)=ln(L(theta))$
e massimizzare $T(theta)$ (che prende il nome di funzione di log-verosimoglianza).
Tale ragionamento ti produrrà uno stimatore $hat{theta}$: questo sarà non distorto se
$E(hat{theta})=theta$
Spero di essere stato abbastanza chiaro. Se non hai problemi, ti posto alcuni esempi. Fammi sapere.
Ciao
Cmq ti dico alcune cosette sul metodo della massima verosimiglianza. Conosci le v.a $X_i$, che sono identicamente distribuite (e indipendenti) con funzione di densità $f(X,theta)$: la distribuzione congiunta è data da
$f(X_1,...,X_n;theta)=f(X_1;theta)...f(X_n;theta)$
La cosa interessante è che conosci il tuo campione $(x_1,...,x_n)$ e la parte incognita è rappresentata da $theta$: la funzione
$L(theta)=f(x_1;theta)...f(x_n;theta)$
è chiamata funzione di verosimiglianza e ti indica la probabilità che $theta$ generi il campione $(x_1,...,x_n)$: più $L(theta)$ assume valori elevati, più la probabilità che $theta$ generi il campione $(x_1,...,x_n)$ è elevata; quindi, quello che si fa, è massimizzare $L(theta)$.
Quando $L(theta)$ è strettamente maggiore di 0, è utile lavorare con il suo logaritmo naturale
$T(theta)=ln(L(theta))$
e massimizzare $T(theta)$ (che prende il nome di funzione di log-verosimoglianza).
Tale ragionamento ti produrrà uno stimatore $hat{theta}$: questo sarà non distorto se
$E(hat{theta})=theta$
Spero di essere stato abbastanza chiaro. Se non hai problemi, ti posto alcuni esempi. Fammi sapere.
Ciao
Vediamo se ho capito qualcosa... provo con l'esercizio 1).
La densità di probabilità è:
$f(x;\theta)=\{(1/(2\theta \sqrtx)*e^(-\sqrtx/\theta) ," se " x>=0),(0, " se " x<0):}$
la funzione di MV per $X_1,\ldots ,X_n$ è perciò:
$L(x_1,\ldots ,x_n;theta):=\prod_(i=1)^n f(x_i;\theta)=\{(1/(2^n\theta^n \prod_(i=1)^n \sqrtx_i)*e^(-1/\theta*\sum_(i=1)^n\sqrtx_i), " se " x_1>=0 " e " \ldots " e " x_n>=0),(0, " altrimenti"):}$
Se mi limito all'ortante $x_1>=0, \ldots ,x_n>=0$ credo sia lecito passare al logaritmo e scrivere:
$T(x_1,\ldots ,x_n;\theta):=ln L(x_1,\ldots ,x_n;theta)=-nln(2theta)-1/2*\sum_(i=1)^n ln x_i-1/\theta *\sum_(i=1)^n \sqrtx_i$
quindi derivo rispetto a $theta$ e trovo:
$(\partial T)/(\partial \theta)(x_1,\ldots ,x_n;\theta)=1/\theta^2*[\sum_(i=1)^n\sqrtx_i -n\theta]$
cosicché $\theta$ è un estremante di $T$ se e solo se $theta=1/n*\sum_(i=1)^n \sqrtx_i=:\hat\theta$.
Pertanto la variabile $\hat\Theta$ che stima $theta$ è la media aritmetica delle radici di $X_1,\ldots ,X_n$,ossia $\hat\Theta =1/n*\sum_(i=1)^n \sqrtX_i$. Giusto?
E per la correttezza? Non ditemi che devo andarmi a calcolare esplicitamente la media...
"Gugo82":
1) Sia $(X_1,\ldots ,X_n)$ un campione casuale estratto da una popolazione avente funzione di distribuzione:
$\quad F(x;theta):=\{(1-e^(-sqrtx/theta), " se " x>=0), (0, " se " x<0):}$
ove $theta$ è un parametro $>0$. Determinare lo stimatore di $theta$ mediante il metodo della massima verosimiglianza e dimostrarne la correttezza.
La densità di probabilità è:
$f(x;\theta)=\{(1/(2\theta \sqrtx)*e^(-\sqrtx/\theta) ," se " x>=0),(0, " se " x<0):}$
la funzione di MV per $X_1,\ldots ,X_n$ è perciò:
$L(x_1,\ldots ,x_n;theta):=\prod_(i=1)^n f(x_i;\theta)=\{(1/(2^n\theta^n \prod_(i=1)^n \sqrtx_i)*e^(-1/\theta*\sum_(i=1)^n\sqrtx_i), " se " x_1>=0 " e " \ldots " e " x_n>=0),(0, " altrimenti"):}$
Se mi limito all'ortante $x_1>=0, \ldots ,x_n>=0$ credo sia lecito passare al logaritmo e scrivere:
$T(x_1,\ldots ,x_n;\theta):=ln L(x_1,\ldots ,x_n;theta)=-nln(2theta)-1/2*\sum_(i=1)^n ln x_i-1/\theta *\sum_(i=1)^n \sqrtx_i$
quindi derivo rispetto a $theta$ e trovo:
$(\partial T)/(\partial \theta)(x_1,\ldots ,x_n;\theta)=1/\theta^2*[\sum_(i=1)^n\sqrtx_i -n\theta]$
cosicché $\theta$ è un estremante di $T$ se e solo se $theta=1/n*\sum_(i=1)^n \sqrtx_i=:\hat\theta$.
Pertanto la variabile $\hat\Theta$ che stima $theta$ è la media aritmetica delle radici di $X_1,\ldots ,X_n$,ossia $\hat\Theta =1/n*\sum_(i=1)^n \sqrtX_i$. Giusto?
E per la correttezza? Non ditemi che devo andarmi a calcolare esplicitamente la media...

Non ho svolto i calcoli, ma essendo tu un matematico mi fido (il passaggio al logaritmo si può fare). Cmq vedo che hai capito il procedimento. Ti rimane da vedere se si tratta di uno stimatore corretto.
Scusa l'ho letta ora la parte finale: cmq hai che
$hat{theta}=1/n*sum_{i=1}^{n}sqrt{X_{i}}$
Di conseguenza
$E(hat{theta})=1/nE(sqrt{X_{1}}+...+sqrt{X_{n}})$
Le v.a. hanno la stessa media perché sono i.i.d, per cui
$E(hat{theta})=1/n*nE(sqrt{X_{1}})=E(sqrt{X})$
Devi calcolare $E(sqrt{X})$: in particolare sai che
$E(sqrt{X})=int_{0}^{+infty}sqrt{X}f_{x}(X)dx=int_{0}^{+\infty}sqrt{X}/(2theta sqrt{X})exp(-sqrt(X)/theta)dx=int_{0}^{+infty}1/(2theta)exp(-sqrt(X)/theta)dx$
Basta che poni $T=-sqrt(X)/theta$ e ti dovrebbe venire come risultato $\theta$, per cui
$E(hat{theta})=E(sqrt{X})=theta$
per cui lo stimatore è corretto.
Cmq la logica del metodo è sempre questa: ovviamente cambia quando le $X_{i}$ sono dipendenti tra loro. Ti spiego meglio: se consideri il processo
$X_{t}=beta X_{t-1}+u_{t}$
dove $u_{t}$ sono variabili aleatorie indipendenti ed identicamente distribuite (solitamente normali): è ovvio che la funzione $f(X_{t};theta)$ non è indipendente da $X_{t-1}$. Ciò non toglie che il calcolo si può fare tranquillamente, supponento che al tempo $t$ $X_{t-1}$ sia noto. L'unica cosa è che la massimizzazione avviene per ottimizzazione numerica.
A proposito, dove hai studiato matematica?
Scusa l'ho letta ora la parte finale: cmq hai che
$hat{theta}=1/n*sum_{i=1}^{n}sqrt{X_{i}}$
Di conseguenza
$E(hat{theta})=1/nE(sqrt{X_{1}}+...+sqrt{X_{n}})$
Le v.a. hanno la stessa media perché sono i.i.d, per cui
$E(hat{theta})=1/n*nE(sqrt{X_{1}})=E(sqrt{X})$
Devi calcolare $E(sqrt{X})$: in particolare sai che
$E(sqrt{X})=int_{0}^{+infty}sqrt{X}f_{x}(X)dx=int_{0}^{+\infty}sqrt{X}/(2theta sqrt{X})exp(-sqrt(X)/theta)dx=int_{0}^{+infty}1/(2theta)exp(-sqrt(X)/theta)dx$
Basta che poni $T=-sqrt(X)/theta$ e ti dovrebbe venire come risultato $\theta$, per cui
$E(hat{theta})=E(sqrt{X})=theta$
per cui lo stimatore è corretto.
Cmq la logica del metodo è sempre questa: ovviamente cambia quando le $X_{i}$ sono dipendenti tra loro. Ti spiego meglio: se consideri il processo
$X_{t}=beta X_{t-1}+u_{t}$
dove $u_{t}$ sono variabili aleatorie indipendenti ed identicamente distribuite (solitamente normali): è ovvio che la funzione $f(X_{t};theta)$ non è indipendente da $X_{t-1}$. Ciò non toglie che il calcolo si può fare tranquillamente, supponento che al tempo $t$ $X_{t-1}$ sia noto. L'unica cosa è che la massimizzazione avviene per ottimizzazione numerica.
A proposito, dove hai studiato matematica?
Grazie per i chiarimenti olaxgabry.
Se non ho fatto male i calcoli è $E[\sqrtX]=\theta$, quindi lo stimatore è buono.
Analogamente, per l'esercizio 2) trovo $\hat\Theta := 1/n \sum_(i=1)^n X^2_i$; detta $X$ la v.c. con distribuzione $f(x;\theta)$, trovo $E[\hat\Theta]=E[X^2]$ e procedo analogamente al calcolo della media $E[X^2]$.
Napoli, Federico II.
Se non ho fatto male i calcoli è $E[\sqrtX]=\theta$, quindi lo stimatore è buono.
Analogamente, per l'esercizio 2) trovo $\hat\Theta := 1/n \sum_(i=1)^n X^2_i$; detta $X$ la v.c. con distribuzione $f(x;\theta)$, trovo $E[\hat\Theta]=E[X^2]$ e procedo analogamente al calcolo della media $E[X^2]$.
"olaxgabry":
A proposito, dove hai studiato matematica?
Napoli, Federico II.
Cavolo, a Napoli (fino a pochi anni fa) insegnava uno dei migliori professori di statistica: Domenico Piccolo. Io ti riconsiglio il libro. Cmq se hai bisogno di altri chiarimenti posta senza problemi (anche se vedo con piacere che hai capito alla grande).
Io invece ho studiato a L'Aquila
.
Ciao
Io invece ho studiato a L'Aquila

Ciao
Il Piccolo fa parte del dipartimento di Scienze Statistiche, non del dipartimento di Matematica, quindi non insegna ai matematici.
Per parte mia, ho fatto CdP con Ricciardi e Buonocore; ma, visto che la materia a me proprio non piace, ho scelto di non seguire complementari in quell'area (che tra l'altro va molto di moda, a scapito di settori più classici).
Per parte mia, ho fatto CdP con Ricciardi e Buonocore; ma, visto che la materia a me proprio non piace, ho scelto di non seguire complementari in quell'area (che tra l'altro va molto di moda, a scapito di settori più classici).
Bè io ho letto due suoi libri (statistica ed analisi delle serie storiche) e mi sono molto piaciuti, anche se su quello di statistica certe volte si dilunga un pò su questioni storiche (in pratica non bisogna leggere le note altrimenti diventa pesantino).
Ti volevo aggiungere una cosa: quando scrivo che
$E(sqrt{X_{1}}+...+sqrt{X_{n}})=E(sqrt(X_{1}))+...+E(sqrt(X_{n}))$
sfrutto il fatto che le v.a. hanno la stessa distribuzione (vale anche se non fossero indipendenti!).
Cmq io mi sono orientato più per gli aspetti statistici ed econometrici, lasciando un pò le tipologie "classiche" della matematica. Ma anche tu sei capitato con la "bellissima" riforma del 3+2? Io so entrato proprio quell'anno (che sola!!!).
Ciao
Ti volevo aggiungere una cosa: quando scrivo che
$E(sqrt{X_{1}}+...+sqrt{X_{n}})=E(sqrt(X_{1}))+...+E(sqrt(X_{n}))$
sfrutto il fatto che le v.a. hanno la stessa distribuzione (vale anche se non fossero indipendenti!).
Cmq io mi sono orientato più per gli aspetti statistici ed econometrici, lasciando un pò le tipologie "classiche" della matematica. Ma anche tu sei capitato con la "bellissima" riforma del 3+2? Io so entrato proprio quell'anno (che sola!!!).
Ciao
Fortunatamente no, mi sono immatricolato nel 2000 quando le cose erano ancora "normali".
Beato te che hai queste inclinazioni pratiche... Io invece no e preferisco l'Analisi Funzionale e le EDP.
Purtroppo, però, mi trovo a dover guardare 'ste cose di statistica e ciò non mi rende molto contento.
Grazie per la precisazione.
Beato te che hai queste inclinazioni pratiche... Io invece no e preferisco l'Analisi Funzionale e le EDP.
Purtroppo, però, mi trovo a dover guardare 'ste cose di statistica e ciò non mi rende molto contento.
Grazie per la precisazione.
Guarda anche a me all'inizio non erano simpatiche, poi però mi ci sono appassionato. Cmq anche analisi funzionale e edp sono interessanti: il problema, a mio parere, sta nel trovare i giusti professori (si contano sulle dita di una mano!) che oltre alla teoria facciano qualche applicazione.
Una cosa, il terzo esercizio che hai postato l'hai fatto?
Una cosa, il terzo esercizio che hai postato l'hai fatto?