Varianza della varianza campionaria corretta...e dello scarto tipo
l'esercizio chiedeva di dimostrare la consistenza della varianza corretta
$ P(|S^2-sigma ^2|< epsilon)>=1- (sigma ^4/n(beta _2+2n/(n-1)))/epsilon^2 $
che tende a 1 per n infinito
la varianza della varianza campionaria l'ho trovata nel libro ma non c'è dimostrazione. e non la trovo neppure in rete
come ci si arriva?
$ P(|S^2-sigma ^2|< epsilon)>=1- (sigma ^4/n(beta _2+2n/(n-1)))/epsilon^2 $
che tende a 1 per n infinito
la varianza della varianza campionaria l'ho trovata nel libro ma non c'è dimostrazione. e non la trovo neppure in rete
come ci si arriva?
Risposte
La dimostrazione del risultato della varianza della varianza campionaria non mi pare rientri nei corsi base di Statistica
ah bene. ho anche un altro esercizio in cui penso richieda il calcolo della varianza della varianza non corretta.
l'esercizio chiede di calcolare l' EQM di $ bar(S)^2 $ io pensavo di fare $Var(bar(S)^2)+D(bar(S)^2)^2$
l'esercizio chiede di calcolare l' EQM di $ bar(S)^2 $ io pensavo di fare $Var(bar(S)^2)+D(bar(S)^2)^2$
Quando si ha a che fare con un esercizio è imperativo scrivere bene ed in modo completo tutto il testo....se ti è stato assegnato sicuramente c'è qualche via risolutiva standard. Ad esempio per la consistenza della varianza campionaria potresti anche fare riferimento alle proprietà degli stimatori di massima verosimiglianza
Sì, la definizione di MSE è quella che hai scritto.
Sì, la definizione di MSE è quella che hai scritto.
il testo dell'esercizio è :
Data una popolazione normale si consideri lo stimatore
$ bar(S)^2=1/nsum_(i=1) ^n(X_i-bar(X))^2 $
e se ne determini l'EQM
Data una popolazione normale si consideri lo stimatore
$ bar(S)^2=1/nsum_(i=1) ^n(X_i-bar(X))^2 $
e se ne determini l'EQM
"bubbaloke":
il testo dell'esercizio è :
Data una popolazione normale...
Ti sembra un dettaglio?? In questo modello la distribuzione della varianza campionaria è nota....
Parti dal fatto noto (ma anche facilmente dimostrabile) che in un modello normale
$(n-1)S^2/sigma^2~ chi_((n-1))^2$ da cui immediatamente trovi media e varianza di $S^2$ sulla base dei parametri noti della chi-quadro.
Più interessante (e ti consiglio di provare perché è molto istruttivo) calcolare media e varianza di $S$
EDIT: ovviamente nel tuo caso avrai che $n bar(S)^2/sigma^2~ chi_((n-1))^2$ ma poco cambia

Quindi i miei consigli per un buon week-end sono i seguenti (lasciando perdere l'esercizio che non ha nulla di interessante)
1) dimostrare che una Normale std al quadrato si distribuisce come una chi quadro con 1 gdl
2) dimostrare (con la funzione generatrice dei momenti o funzione caratteristica) che la somma di n chi quadro indipendenti si distribuisce sempre come una chi quadro
3) sulla base delle informazioni precedenti (e qualche accrocchio algebrico) provare a dimostrare come si distribuiscono le seguenti variabili
$(sum_(i=1)^n[X_i-bar(X)]^2)/sigma^2$
$(sum_(i=1)^n[X_i-mu]^2)/sigma^2$
Ovviamente partendo sempre da un modello Gaussiano. Risolto ciò, l'esercizio proposto risulta anche troppo banale e quindi potresti concentrarti sul calcolo di media e varianza di $S$
$ Var(nS^2/sigma ^2)=2(n-1) $
$ Var(S^2)=2(n-1)sigma ^4/n^2 $
$ EQM(S^2)= 2(n-1)sigma ^4/n^2 + [-sigma^2/n]^2 $
$(2n-1)/n^2 sigma^4$
grazie ancora
$ Var(S^2)=2(n-1)sigma ^4/n^2 $
$ EQM(S^2)= 2(n-1)sigma ^4/n^2 + [-sigma^2/n]^2 $
$(2n-1)/n^2 sigma^4$
grazie ancora
ok, adesso provo con il tuo esercizio
Ho provato a fare i conti che ti ho proposto ma mi sono accorto che [forse
] ho un po' esagerato.....
Ecco come calcolare $E$
$E=E[sqrt(S^2)]=sigma/sqrt(n-1)E[sqrt(((n-1)S^2)/sigma^2)]=sigma/sqrt(n-1)E[sqrt(U)]$
dove U è una chi quadro con $(n-1)$ gdl.
Quindi usando la definizione di media otteniamo
$E[sqrt(U)]=int_0^(oo)u^(1/2)(u^((n-1)/2-1))/(Gamma((n-1)/2)2^((n-1)/2))e^(-u/2)du=sqrt(2)(Gamma(n/2))/(Gamma((n-1)/2))int_0^(oo)(u^(n/2-1))/(Gamma(n/2)2^(n/2))e^(-u/2)du=sqrt(2)(Gamma(n/2))/(Gamma((n-1)/2))$
e quindi
$E=(sqrt(2)sigma)/sqrt(n-1)(Gamma(n/2))/(Gamma((n-1)/2))$
La varianza dello scarto campionario è molto più semplice essendo:
$V[sqrt(U)]=E-E^2[sqrt(U)]=(n-1)-2[(Gamma(n/2))/(Gamma((n-1)/2))]^2$
ed infine
$V=sigma^2/(n-1)V[sqrt(U)]=sigma^2{1-2/(n-1)[(Gamma(n/2))/(Gamma((n-1)/2))]^2}$
... 'na passeggiata dai

Ecco come calcolare $E
$E
dove U è una chi quadro con $(n-1)$ gdl.
Quindi usando la definizione di media otteniamo
$E[sqrt(U)]=int_0^(oo)u^(1/2)(u^((n-1)/2-1))/(Gamma((n-1)/2)2^((n-1)/2))e^(-u/2)du=sqrt(2)(Gamma(n/2))/(Gamma((n-1)/2))int_0^(oo)(u^(n/2-1))/(Gamma(n/2)2^(n/2))e^(-u/2)du=sqrt(2)(Gamma(n/2))/(Gamma((n-1)/2))$
e quindi
$E
La varianza dello scarto campionario è molto più semplice essendo:
$V[sqrt(U)]=E-E^2[sqrt(U)]=(n-1)-2[(Gamma(n/2))/(Gamma((n-1)/2))]^2$
ed infine
$V
... 'na passeggiata dai

1) $ m_(Z^2)(t)=((1/2)/((1/2)-t))^(1/2) $ che è la stessa fgm di una $chi _1^2$
per il 2) come devo procedere?
per il 2) come devo procedere?
Devi usare le proprietà della fgm: la fgm della somma di variabili indipendenti è il prodotto delle fgm...quindi ti basta elevare alla n per vedere che cambiano solo i gdl
Per quanto riguarda il primo punto ho faticato un po' a capire come hai proceduto ma il metodo usato mi pare ridondante (benché corretto). Infatti per calcolare la fgm di $Z^2$ penso tu debba aver prima trasformato la variabile e quindi hai già risolto il problema. Il modo più semplice di dimostrare quanto richiesto mi sembra che sia quello analitico, ovvero calcolare
$P{-sqrt(z)
e poi derivare per ottenere la densità cercata.
Per l'ultimo punto basta osservare che
$Sigma_i[X_i-mu]^2=Sigma_i[X_i-bar(X)+bar(X)-mu]^2=Sigma_i[X_i-bar(X)]^2+n[bar(X)-mu]^2$
a questo punto dividi per $sigma^2$ e dovresti riconoscere la somma di tutte variabili normali standard al quadrato che, per quanto dimostrato nei punti precedenti, risolve il tutto
ciao
Per quanto riguarda il primo punto ho faticato un po' a capire come hai proceduto ma il metodo usato mi pare ridondante (benché corretto). Infatti per calcolare la fgm di $Z^2$ penso tu debba aver prima trasformato la variabile e quindi hai già risolto il problema. Il modo più semplice di dimostrare quanto richiesto mi sembra che sia quello analitico, ovvero calcolare
$P{-sqrt(z)
e poi derivare per ottenere la densità cercata.
Per l'ultimo punto basta osservare che
$Sigma_i[X_i-mu]^2=Sigma_i[X_i-bar(X)+bar(X)-mu]^2=Sigma_i[X_i-bar(X)]^2+n[bar(X)-mu]^2$
a questo punto dividi per $sigma^2$ e dovresti riconoscere la somma di tutte variabili normali standard al quadrato che, per quanto dimostrato nei punti precedenti, risolve il tutto
ciao
$Sigma_i[X_i-mu]^2 /sigma^2 ~ chi_n^2$
$n[bar(X)-mu]^2/sigma^2 ~ chi_1^2 $
$Sigma_i[X_i-bar(X)]^2 /sigma^2 ~ chi_(n-1)^2$
la terza l'ho ricavata dalle prime due
$n[bar(X)-mu]^2/sigma^2 ~ chi_1^2 $
$Sigma_i[X_i-bar(X)]^2 /sigma^2 ~ chi_(n-1)^2$
la terza l'ho ricavata dalle prime due
Ovvio. La terza è la conclusione. Viene una chi quadro con $(n-1)$ gdl per la sommabilità delle due precedenti ed è uguale a $(n-1)S^2/sigma^2$. Quindi hai dimostrato quanto necessario. Come corollario dovresti riuscire a ricavare anche le altre distribuzioni delle variabili ancillari che ti servono poi nei problemi di inferenza sul modello gaussiano ( t di student e F di Fischer)
per la t e la F come si deve procedere? sempre fgm?
Forse mi sono spiegato male...tutta questa spiegazione è per farti capire come mai SOLO ed esclusivamente se restringiamo l'inferenza ad un modello Gaussiano di media $mu$ e varianza $sigma^2$ nota, la variabile ancillare
$(bar(X)-mu)/S sqrt(n)~mathcal(T)_((n-1))$
e quindi possiamo usare tale variabile per stimare la media ignota (intervalli di confidenza, prova di ipotesi ecc ecc)
La spiegazione scende immediatamente dai ragionamenti dei post precedenti; infatti otteniamo subito
$(bar(X)-mu)/S sqrt(n)=((bar(X)-mu)/sigma sqrt(n))/sqrt((S
^2(n-1))/(sigma^2(n-1)))=Z/sqrt(Y/m)$
Dove al numeratora abbiamo una normale standard: $(bar(X)-mu)/sigma sqrt(n)$
Al denominatore abbiamo la radice di una chi quadro divisa per i suoi gradi di libertà: $sqrt(((n-1)S^2)/(sigma^2(n-1)))$
Il punto più interessante è ovviamente l'ultimo: come provare che $bar(X)$ e $S^2$ sono indipendenti (SOLO E SOLTANTO IN UN MODELLO GAUSSIANO)
1) Come noto $bar(X)$ è lo stimatore sufficiente e completo per il parametro $mu$ essendo la statistica canonica di un modello di classe esponenziale
2) $S^2$ è uno stimatore ancillare per $mu$, dato che la sua distribuzione non dipende da $mu$
3) Allora per il teorema di BASU, $bar(X)$ e $S^2$ sono indipendenti
Con ragionamenti simili (anche molto più semplici) puoi ricondurti all'altra variabile ancillare (F di Fischer).
Spero che sia chiaro....
$(bar(X)-mu)/S sqrt(n)~mathcal(T)_((n-1))$
e quindi possiamo usare tale variabile per stimare la media ignota (intervalli di confidenza, prova di ipotesi ecc ecc)
La spiegazione scende immediatamente dai ragionamenti dei post precedenti; infatti otteniamo subito
$(bar(X)-mu)/S sqrt(n)=((bar(X)-mu)/sigma sqrt(n))/sqrt((S
^2(n-1))/(sigma^2(n-1)))=Z/sqrt(Y/m)$
Dove al numeratora abbiamo una normale standard: $(bar(X)-mu)/sigma sqrt(n)$
Al denominatore abbiamo la radice di una chi quadro divisa per i suoi gradi di libertà: $sqrt(((n-1)S^2)/(sigma^2(n-1)))$
Il punto più interessante è ovviamente l'ultimo: come provare che $bar(X)$ e $S^2$ sono indipendenti (SOLO E SOLTANTO IN UN MODELLO GAUSSIANO)
1) Come noto $bar(X)$ è lo stimatore sufficiente e completo per il parametro $mu$ essendo la statistica canonica di un modello di classe esponenziale
2) $S^2$ è uno stimatore ancillare per $mu$, dato che la sua distribuzione non dipende da $mu$
3) Allora per il teorema di BASU, $bar(X)$ e $S^2$ sono indipendenti
Con ragionamenti simili (anche molto più semplici) puoi ricondurti all'altra variabile ancillare (F di Fischer).
Spero che sia chiaro....
tutto chiaro, grazie mille