Problema su distribuzione statistica campionaria
Ciao, ho il seguente problema:
Si ipotizzi per la v.c. X una distribuzione Uniforme nell'intervallo (0, $\vartheta$), calcolare media e varianza della v.c.. Avendo estratto un campione bernoulliano di n elementi determinare lo stimatore per $\vartheta$ con il metodo dei momenti e confrontarlo con lo stimatore $T_2$ = $X_((1))$ + $X_((n))$, ricavato una volta ordinato il campione in modo non decrescente.
Per la prima parte non ho problemi. Vi risparmio i calcoli e posto direttamente i risultati: $E(X) = \vartheta/2$ e $Var(X) = \vartheta^2/12$. Ho calcolato lo stimatore con il metodo dei momenti imponendo $M=\mu'$, quindi $T_1 = \hat vartheta = 2\bar X $.
$E(T_1) = \vartheta $ $rArr T_1 $ è non distorto
$MSE(T_1) = Var(T_1) = 4/n^2 * \vartheta ^ 2/12$
Ora per me c'è il problema.
Per confrontare i i 2 stimatori ho bisogno di trovare il valore atteso e MSE per $T_2$ che è a sua volta una v.c.. Conosco la pdf di $X_((1))$ e la pdf di $X_((n))$ e penso che la pdf di $T_2$ sia questa:
$f(y)={(n/\vartheta^n*y^(n-1) ,y in (0, \vartheta)),(n/\vartheta*(1-y/\vartheta)^(n-1) ,y in (\vartheta, 2\vartheta)):}$
é questa la strada giusta?
Provo a fare i calcoli per ricavare $E(T_2)$ ma non sono tanto "agevoli" e quindi mi chiedo se ho sbagliato qualcosa e se posso avere qualche suggerimento. Grazie
Si ipotizzi per la v.c. X una distribuzione Uniforme nell'intervallo (0, $\vartheta$), calcolare media e varianza della v.c.. Avendo estratto un campione bernoulliano di n elementi determinare lo stimatore per $\vartheta$ con il metodo dei momenti e confrontarlo con lo stimatore $T_2$ = $X_((1))$ + $X_((n))$, ricavato una volta ordinato il campione in modo non decrescente.
Per la prima parte non ho problemi. Vi risparmio i calcoli e posto direttamente i risultati: $E(X) = \vartheta/2$ e $Var(X) = \vartheta^2/12$. Ho calcolato lo stimatore con il metodo dei momenti imponendo $M=\mu'$, quindi $T_1 = \hat vartheta = 2\bar X $.
$E(T_1) = \vartheta $ $rArr T_1 $ è non distorto
$MSE(T_1) = Var(T_1) = 4/n^2 * \vartheta ^ 2/12$
Ora per me c'è il problema.
Per confrontare i i 2 stimatori ho bisogno di trovare il valore atteso e MSE per $T_2$ che è a sua volta una v.c.. Conosco la pdf di $X_((1))$ e la pdf di $X_((n))$ e penso che la pdf di $T_2$ sia questa:
$f(y)={(n/\vartheta^n*y^(n-1) ,y in (0, \vartheta)),(n/\vartheta*(1-y/\vartheta)^(n-1) ,y in (\vartheta, 2\vartheta)):}$
é questa la strada giusta?
Provo a fare i calcoli per ricavare $E(T_2)$ ma non sono tanto "agevoli" e quindi mi chiedo se ho sbagliato qualcosa e se posso avere qualche suggerimento. Grazie
Risposte
"nanaina":
Provo a fare i calcoli per ricavare $E(T_2)$ ma non sono tanto "agevoli" e quindi mi chiedo se ho sbagliato qualcosa e se posso avere qualche suggerimento. Grazie
Dipende cosa intendi per "agevoli"
$E[X_((n))]=int_(0)^(theta)n/theta^nx^ndx=n/(theta^n(n+1)) [x^(n+1)]_0^theta=n/(n+1)theta$
$E[X_((1))]=int_(0)^(theta)[1-x/theta]^ndx=theta int_0^1t^ndt=theta/(n+1)$
Quindi
$E[T_2]=E[X_((1))]+E[X_((n))]=theta/(n+1)+theta n/(n+1)=theta$
Inoltre la varianza di $T_1$ è sbagliata.
$V[T_1]=4V[bar(X)]=4sigma^2/n=theta^2/(3n)$
ciao
P.S. non riesco a cancellare l'altro messaggio che ho postato per errore. Grazie al tuo suggerimento ho proseguito l'esercizio così:
$Var(T_(2))= Var(X_((1))) + Var(X_((n)))$
$Var(X_((n))) = E(X_((n))^2) - [E(X_((n)))]^2$
$E(X_((n))^2) = \int_0^varthetax^2*n/vartheta^n*x^(n-1)dx = \int_0^vartheta n/vartheta^n*x^(n+1)dx = n/(n+2)vartheta^2$
Quindi :
$Var(X_((n))) = n/(n+2)vartheta^2 - n^2/(n+1)^2vartheta^2 = nvartheta^2/((n+1)^2(n+2))$
Per quanto riguarda $X_((1))$:
$Var(X_((1))) = E(X_((1))^2) - [E(X_((1)))]^2$
$E(X_((1))^2) = \int_0^varthetax^2*n/vartheta*(1-x/vartheta)^(n-1)dx = n/vartheta \int_0^1 vartheta^3*(1-t)^2*t^(n-1)dx =
2vartheta^2/((n+1)(n+2))$
risolvendo per sostituzione $t=1-x/vartheta$
da cui:
$Var(X_((1)))= 2vartheta^2/((n+1)(n+2)) - vartheta^2/((n+1)^2(n+2)) =nvartheta^2/((n+1)^2(n+2))$
Quindi, se non ho sbagliato i conti, le due v.c. hanno la stessa varianza. Dipende forse dal fatto che sono costruite in modo simile?
infine:
$Var(T_(2)) = 2nvartheta^2/((n+1)^2(n+2))$.
Confronto fra $T_1$ e $T_2$
Sono entrambi non distorti. Per valutarne l'efficienza devo confrontare le varianze.
$eff(T_2/T_1)= (theta^2/(3n) )/(2nvartheta^2/((n+1)^2(n+2)))=((n+1)^2(n+2))/(6n^2) $.
Questo rapporto è sempre maggiore di 1 (l'ho provato numericamente, spero sia sufficiente altrimenti deve risolvere l'equazione di terzo grado, esatto?) quindi $T_2$ è più efficiente di $T_1$.
Anche se non è richiesto dall' esercizio, ho una domanda: l'informazione di Fisher in questo caso è pari a:
$I_n(theta) = -E(d^2/(dvartheta) (lnL))= -E (n/theta^2) = - n/theta^2$ un valore negativo??
Con $ L(vartheta) = vartheta^-n$ e $lnL = - nlnvartheta$
$Var(T_(2))= Var(X_((1))) + Var(X_((n)))$
$Var(X_((n))) = E(X_((n))^2) - [E(X_((n)))]^2$
$E(X_((n))^2) = \int_0^varthetax^2*n/vartheta^n*x^(n-1)dx = \int_0^vartheta n/vartheta^n*x^(n+1)dx = n/(n+2)vartheta^2$
Quindi :
$Var(X_((n))) = n/(n+2)vartheta^2 - n^2/(n+1)^2vartheta^2 = nvartheta^2/((n+1)^2(n+2))$
Per quanto riguarda $X_((1))$:
$Var(X_((1))) = E(X_((1))^2) - [E(X_((1)))]^2$
$E(X_((1))^2) = \int_0^varthetax^2*n/vartheta*(1-x/vartheta)^(n-1)dx = n/vartheta \int_0^1 vartheta^3*(1-t)^2*t^(n-1)dx =
2vartheta^2/((n+1)(n+2))$
risolvendo per sostituzione $t=1-x/vartheta$
da cui:
$Var(X_((1)))= 2vartheta^2/((n+1)(n+2)) - vartheta^2/((n+1)^2(n+2)) =nvartheta^2/((n+1)^2(n+2))$
Quindi, se non ho sbagliato i conti, le due v.c. hanno la stessa varianza. Dipende forse dal fatto che sono costruite in modo simile?
infine:
$Var(T_(2)) = 2nvartheta^2/((n+1)^2(n+2))$.
Confronto fra $T_1$ e $T_2$
Sono entrambi non distorti. Per valutarne l'efficienza devo confrontare le varianze.
$eff(T_2/T_1)= (theta^2/(3n) )/(2nvartheta^2/((n+1)^2(n+2)))=((n+1)^2(n+2))/(6n^2) $.
Questo rapporto è sempre maggiore di 1 (l'ho provato numericamente, spero sia sufficiente altrimenti deve risolvere l'equazione di terzo grado, esatto?) quindi $T_2$ è più efficiente di $T_1$.
Anche se non è richiesto dall' esercizio, ho una domanda: l'informazione di Fisher in questo caso è pari a:
$I_n(theta) = -E(d^2/(dvartheta) (lnL))= -E (n/theta^2) = - n/theta^2$ un valore negativo??
Con $ L(vartheta) = vartheta^-n$ e $lnL = - nlnvartheta$
Non ho tempo di guardare tutti i conti ma ti dico subito che
$V[T_2]=V[X_((1))]+V[X_((n))]+2Cov[X_((1)),X_((n))]$
Una volta ordinati i valori, le $X_((i))$ non sono più indipendenti...
Quindi se, come hai trovato, $V[T_1]>V[X_((1))]+V[X_((n))]$ non puoi dire nulla....ma devi anche calcolare la covarianza.
L'informazione di Fischer non ti è richiesta perché il modello è non regolare...E quindi non sono soddisfatte le condizioni di regolarità necessarie. L'unica soluzione è quella di usare il metodo di Chapman Robbins Kiefer ma le cose si complicano notevolmente...ovviamente tutto dipende da che tipo di studi stai facendo....
L'altro messaggio lo cancello io
$V[T_2]=V[X_((1))]+V[X_((n))]+2Cov[X_((1)),X_((n))]$
Una volta ordinati i valori, le $X_((i))$ non sono più indipendenti...
Quindi se, come hai trovato, $V[T_1]>V[X_((1))]+V[X_((n))]$ non puoi dire nulla....ma devi anche calcolare la covarianza.
L'informazione di Fischer non ti è richiesta perché il modello è non regolare...E quindi non sono soddisfatte le condizioni di regolarità necessarie. L'unica soluzione è quella di usare il metodo di Chapman Robbins Kiefer ma le cose si complicano notevolmente...ovviamente tutto dipende da che tipo di studi stai facendo....
L'altro messaggio lo cancello io
Ok grazie. Ora calcolo anche la covarianza. Sono ingegnere e volevo studiare alcuni concetti di statistica per il mio lavoro. Sto studiando sul Piccolo che è molto teorici. Grazie mille ancora.
Ottimo! Pure io non sono uno studente, e nemmeno un prof.
Allora, fra dilettanti della materia, ti propongo un approfondimento, secondo me molto interessante (anche se non ho provato a farlo)
Qual è la distribuzione esatta di $T_2$?
In questo topic spiego come fare....prima calcoli la distribuzione congiunta trattando il minimo e il massimo come statistihe d'ordine e poi calcoli la trasformazione $Z=X+Y$
Allora, fra dilettanti della materia, ti propongo un approfondimento, secondo me molto interessante (anche se non ho provato a farlo)
Qual è la distribuzione esatta di $T_2$?
In questo topic spiego come fare....prima calcoli la distribuzione congiunta trattando il minimo e il massimo come statistihe d'ordine e poi calcoli la trasformazione $Z=X+Y$
Ci provo
Giusto per sapere se ti trovi, a me viene così:
Indicando $X=X_((1))$ e $Y=X_((n))$ la densità congiunta mi viene
$f(x,y)=(n(n-1))/theta^2[(y-x)/theta]^(n-2)I_((x;theta])(y)$
Con $n>=2$
per calcolare la distribuzione della somma $Z=X+Y$ occorre quindi integrare
$int int_(X+Y<=z)f(x,y)dxdy$
sul triangolo sopra la bisettrice all'interno del rettangolo $[0;theta]xx[0;theta]$
E' dunque necessario dividere la variabile $Z in [0;2theta]$ in due parti
Per $z in [0,theta]$ abbiamo
$F_Z=int_0^(z/2)dxint_x^(z-x)f(x,y)dy$
da risolvere....
per quanto riguarda la seconda parte del dominio si può fare uno meno l'integrale doppio della densità sul triangolino residuo...
insomma il concetto è questo, il resto son solo conti....
Ciao
Indicando $X=X_((1))$ e $Y=X_((n))$ la densità congiunta mi viene
$f(x,y)=(n(n-1))/theta^2[(y-x)/theta]^(n-2)I_((x;theta])(y)$
Con $n>=2$
per calcolare la distribuzione della somma $Z=X+Y$ occorre quindi integrare
$int int_(X+Y<=z)f(x,y)dxdy$
sul triangolo sopra la bisettrice all'interno del rettangolo $[0;theta]xx[0;theta]$
E' dunque necessario dividere la variabile $Z in [0;2theta]$ in due parti
Per $z in [0,theta]$ abbiamo
$F_Z=int_0^(z/2)dxint_x^(z-x)f(x,y)dy$
da risolvere....
per quanto riguarda la seconda parte del dominio si può fare uno meno l'integrale doppio della densità sul triangolino residuo...
insomma il concetto è questo, il resto son solo conti....
Ciao