Perché la varianza della media è pari alla varianza della popolazione fratto n?
Come si dimostra questa relazione?
$ sigma_m ^2=sigma ^2/n $
arrivo fino a qui poi mi blocco:
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= 1/n*sum_(i =1)^n(x_i-mu )^2/n $
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= sigma^2/n $
$ sigma_m ^2=sigma ^2/n $
arrivo fino a qui poi mi blocco:
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= 1/n*sum_(i =1)^n(x_i-mu )^2/n $
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= sigma^2/n $
Risposte
$\sigma(1/n*sum (x_i))=1/n^2*\sigma (\sum x_i)=1/n^2*(n\sigma)=\sigma/n$
NB1: Ovviamente al posto di $\sigma$ intendevo $\sigma^2$
NB2: La prima uguaglianza deriva dal fatto chè le costanti escono dalla varianza al quadrato.
NB2: La prima uguaglianza deriva dal fatto chè le costanti escono dalla varianza al quadrato.
"kobeilprofeta":
$\sigma(1/n*sum (x_i))=1/n^2*\sigma (\sum x_i)=1/n^2*(n\sigma)=\sigma/n$
non capisco
"balestra_romani":
Come si dimostra questa relazione?
$ sigma_m ^2=sigma ^2/n $
arrivo fino a qui poi mi blocco:
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= 1/n*sum_(i =1)^n(x_i-mu )^2/n $
perché scrivi $!=$ ?
$ ((x_1-mu )^2+(x_2-mu )^2+(x_3-mu )^2+...)!=((x_1-mu )+(x_2-mu )+(x_3-mu )+...)^2 $
infatti:
$ ((x_1-mu )+(x_2-mu )+...)^2=(x_1-mu )^2+(x_2-mu )^2+2*(x_1-mu )*(x_2-mu )+... $
infatti:
$ ((x_1-mu )+(x_2-mu )+...)^2=(x_1-mu )^2+(x_2-mu )^2+2*(x_1-mu )*(x_2-mu )+... $
dai sono due passaggi....come già spiegatoti da @kobe
$V(bar(x))=V[(x_1+x_2+...+x_n)/n]=1/n^2 V[x_1+x_2+...+x_n]=1/n^2 nsigma^2=sigma^2/n$
dato che:
1) tutti gli elementi $x_i$ sono indipendenti e con la stessa distribuzione della popolazione (e quindi anche ltutti con la stessa varianza $V(x_i)=sigma^2$ $AAi$)
2) E' noto che $V(ax)=a^2V(x)$
dimostrabile in due passaggi da 1° [strike]superiore[/strike] giorno di statistica semplicemente sviluppando la varianza così:
$V[Y]=E[Y^2]-E^2[Y]$
infatti ponendo $Y=aX$ si ottiene subito
$V(aX)=E(a^2X^2)-a^2E^2[X]=a^2[E(X^2)-E^2(X)]=a^2V(X)$
$V(bar(x))=V[(x_1+x_2+...+x_n)/n]=1/n^2 V[x_1+x_2+...+x_n]=1/n^2 nsigma^2=sigma^2/n$
dato che:
1) tutti gli elementi $x_i$ sono indipendenti e con la stessa distribuzione della popolazione (e quindi anche ltutti con la stessa varianza $V(x_i)=sigma^2$ $AAi$)
2) E' noto che $V(ax)=a^2V(x)$
dimostrabile in due passaggi da 1° [strike]superiore[/strike] giorno di statistica semplicemente sviluppando la varianza così:
$V[Y]=E[Y^2]-E^2[Y]$
infatti ponendo $Y=aX$ si ottiene subito
$V(aX)=E(a^2X^2)-a^2E^2[X]=a^2[E(X^2)-E^2(X)]=a^2V(X)$
@balestra_romani
Ciò che hai scritto è matematicamente corretto ma c'è un problema concettuale. Il problema è nelle ipotesi. Il risultato che vuoi dimostrare è valido nel caso di variabili iid.
Ciò che hai scritto è matematicamente corretto ma c'è un problema concettuale. Il problema è nelle ipotesi. Il risultato che vuoi dimostrare è valido nel caso di variabili iid.
Volevo farti ragionare sulle ipotesi ma tommik non ha resistito

"markowitz":
Volevo farti ragionare sulle ipotesi ma tommik non ha resistito
scusa
e comunque il mio intervento nulla toglie al fatto di (volendo farsi del male) calcolare $V(bar(X))$ così:
$V[1/n Sigmax]=E[1/n Sigmax-mu]^2=....=$
quindi se l'utente ne ha voglia....
"markowitz":
@balestra_romani
Ciò che hai scritto è matematicamente corretto ma c'è un problema concettuale. Il problema è nelle ipotesi. Il risultato che vuoi dimostrare è valido nel caso di variabili iid.
cosa sono le variabili iid?
"tommik":
dai sono due passaggi....come già spiegatoti da @kobe
$V(bar(x))=V[(x_1+x_2+...+x_n)/n]=1/n^2 V[x_1+x_2+...+x_n]=1/n^2 nsigma^2=sigma^2/n$
dato che:
1) tutti gli elementi $x_i$ sono indipendenti e con la stessa distribuzione della popolazione (e quindi anche ltutti con la stessa varianza $V(x_i)=sigma^2$ $AAi$)
2) E' noto che $V(ax)=a^2V(x)$
dimostrabile in due passaggi da 1° [strike]superiore[/strike] giorno di statistica semplicemente sviluppando la varianza così:
$V[Y]=E[Y^2]-E^2[Y]$
infatti ponendo $Y=aX$ si ottiene subito
$V(aX)=E(a^2X^2)-a^2E^2[X]=a^2[E(X^2)-E^2(X)]=a^2V(X)$
la (2) l'ho capita ma la (1) ancora no... come si fa a dimostrare la 1 partendo dalla definizione di varianza, usando le sommatorie, non le funzioni o gli stimatori?
Se non hai capito la 1 è perchè avevo visto giusto su cosa non ti è chiaro.
Variabili aleatorie iid vuol dire indipendentemente ed identicamente distribuite.
La diuguaglianza di cui si parlava diventa un'uguaglianza proprio a causa dell'ipotesi di indipendenza.
L'indipendenza implica che i doppi prodotti che dicevi si annullano. Il resto ormai l'ha mostrato tommik.
Poi anche l'identicità in distribuzione ha un ruolo ma tommik ha già chiarito anche questo.
Variabili aleatorie iid vuol dire indipendentemente ed identicamente distribuite.
La diuguaglianza di cui si parlava diventa un'uguaglianza proprio a causa dell'ipotesi di indipendenza.
L'indipendenza implica che i doppi prodotti che dicevi si annullano. Il resto ormai l'ha mostrato tommik.
Poi anche l'identicità in distribuzione ha un ruolo ma tommik ha già chiarito anche questo.
"markowitz":
Se non hai capito la 1 è perchè avevo visto giusto su cosa non ti è chiaro.
Variabili aleatorie iid vuol dire indipendentemente ed identicamente distribuite.
La diuguaglianza di cui si parlava diventa un'uguaglianza proprio a causa dell'ipotesi di indipendenza.
L'indipendenza implica che i doppi prodotti che dicevi si annullano. Il resto ormai l'ha mostrato tommik.
Ohhh finalmente ci capiamo...
quindi riformulo la domanda: come posso dimostrare che i doppi prodotti si annullato?
sto cercando di capire perché nella formula della varianza si mette a denominatore n-1 e nella dimostrazione il passaggio che non mi è chiaro è appunto il calcolo della varianza della media.
P.S.: Si avevi visto giustissimo!
"balestra_romani":
come posso dimostrare che i doppi prodotti si annullato?
Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo.
Prendila come proprietà. Ti serve per arrivare alla varianza della media campionaria ... ed in molto altro.
"balestra_romani":
sto cercando di capire perché nella formula della varianza si mette a denominatore n-1 e nella dimostrazione il passaggio che non mi è chiaro è appunto il calcolo della varianza della media.
$n-1$, che non compare nelle formule iniziali che hai postato, ha un'origine del tutto diversa
"balestra_romani":
P.S.: Si avevi visto giustissimo!

Su internet una dimostrazione comprensibile del perché si divida per n-1 la trovo qui:
http://www.docente.unicas.it/userupload ... matori.pdf
ma per comprendere tutti i passaggi bisogna anche capire come mai la varianza della media sia pari alla varianza franno n quindi non direi che l'origine di n-1 sia slegato dal concetto per il quale chiedo supporto.
Scrivi "Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo." ma non lo dimostri. Io voglio capire il perché! Mi serve per capire la ragione del fatto che $ sigma _m^2=sigma^2 /n $ . Concettualmente è facile aspettarsi una varianza più piccola ma perché fratto n?
http://www.docente.unicas.it/userupload ... matori.pdf
ma per comprendere tutti i passaggi bisogna anche capire come mai la varianza della media sia pari alla varianza franno n quindi non direi che l'origine di n-1 sia slegato dal concetto per il quale chiedo supporto.
Scrivi "Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo." ma non lo dimostri. Io voglio capire il perché! Mi serve per capire la ragione del fatto che $ sigma _m^2=sigma^2 /n $ . Concettualmente è facile aspettarsi una varianza più piccola ma perché fratto n?
"balestra_romani":
Scrivi "Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo." ma non lo dimostri. Io voglio capire il perché!
non mi pare un ostacolo insormontabile...
poniamo $i !=j$
$E[(x_i-mu)(x_j-mu)]=E[x_1*x_j-mux_i-mux_j+mu^2]$
ricordando che se due variabili sono indipendenti sono anche incorrelate, ovvero $E(XY)=E(X)E(Y)$ e che tutte hanno la stessa distribuzione (e quindi anche la stessa media) ottieni subito
$E(x_i)E(x_j)-muE(x_i)-muE(x_j)+mu^2=mu^2-mu^2-mu^2+mu^2=0$
Ps: se l'operatore $E[.]$ non ti piace lo puoi sostituire con la sommatoria diviso n, non cambia nulla.... è l'operatore "media"
Però devi dimostrarmi che E(XY)=E(X)E(Y) altrimenti siamo punto e a capo...
Tra il resto come si scrivono questi doppi prodotti senza usare la funzione stimatore E?
Tra il resto come si scrivono questi doppi prodotti senza usare la funzione stimatore E?
Eh beh certo... partiamo dalla varianza della media campionaria e poi dobbiamo dimostrare tutto il programma di statistica....
$E(XY)=Sigma_xSigma_y xy p(x,y)$
Per l'indipendenza è $p(x,y)=p(x)p(y)$
Quindi ottieni $E(XY)=Sigma_x xp(x)Sigma_yyp(y)=E(x)E(y)$
$E(XY)=Sigma_xSigma_y xy p(x,y)$
Per l'indipendenza è $p(x,y)=p(x)p(y)$
Quindi ottieni $E(XY)=Sigma_x xp(x)Sigma_yyp(y)=E(x)E(y)$
Perché ci aggiunti la probabilità?
Non capisco la tua dimostrazione...
Non capisco la tua dimostrazione...
"tommik":
$E(XY)=Sigma_xSigma_y xy p(x,y)$
non è una doppia sommatoria perché i è diverso da j...
non capisco questa formula da dove salta fuori...