Perché la varianza della media è pari alla varianza della popolazione fratto n?

balestra_romani
Come si dimostra questa relazione?

$ sigma_m ^2=sigma ^2/n $

arrivo fino a qui poi mi blocco:

$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= 1/n*sum_(i =1)^n(x_i-mu )^2/n $
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= sigma^2/n $

Risposte
kobeilprofeta
$\sigma(1/n*sum (x_i))=1/n^2*\sigma (\sum x_i)=1/n^2*(n\sigma)=\sigma/n$

kobeilprofeta
NB1: Ovviamente al posto di $\sigma$ intendevo $\sigma^2$
NB2: La prima uguaglianza deriva dal fatto chè le costanti escono dalla varianza al quadrato.

balestra_romani
"kobeilprofeta":
$\sigma(1/n*sum (x_i))=1/n^2*\sigma (\sum x_i)=1/n^2*(n\sigma)=\sigma/n$


non capisco

markowitz
"balestra_romani":
Come si dimostra questa relazione?

$ sigma_m ^2=sigma ^2/n $

arrivo fino a qui poi mi blocco:

$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= 1/n*sum_(i =1)^n(x_i-mu )^2/n $


perché scrivi $!=$ ?

balestra_romani
$ ((x_1-mu )^2+(x_2-mu )^2+(x_3-mu )^2+...)!=((x_1-mu )+(x_2-mu )+(x_3-mu )+...)^2 $

infatti:

$ ((x_1-mu )+(x_2-mu )+...)^2=(x_1-mu )^2+(x_2-mu )^2+2*(x_1-mu )*(x_2-mu )+... $

Lo_zio_Tom
dai sono due passaggi....come già spiegatoti da @kobe


$V(bar(x))=V[(x_1+x_2+...+x_n)/n]=1/n^2 V[x_1+x_2+...+x_n]=1/n^2 nsigma^2=sigma^2/n$

dato che:

1) tutti gli elementi $x_i$ sono indipendenti e con la stessa distribuzione della popolazione (e quindi anche ltutti con la stessa varianza $V(x_i)=sigma^2$ $AAi$)

2) E' noto che $V(ax)=a^2V(x)$

dimostrabile in due passaggi da 1° [strike]superiore[/strike] giorno di statistica semplicemente sviluppando la varianza così:

$V[Y]=E[Y^2]-E^2[Y]$

infatti ponendo $Y=aX$ si ottiene subito

$V(aX)=E(a^2X^2)-a^2E^2[X]=a^2[E(X^2)-E^2(X)]=a^2V(X)$

markowitz
@balestra_romani
Ciò che hai scritto è matematicamente corretto ma c'è un problema concettuale. Il problema è nelle ipotesi. Il risultato che vuoi dimostrare è valido nel caso di variabili iid.

markowitz
Volevo farti ragionare sulle ipotesi ma tommik non ha resistito :-D

Lo_zio_Tom
"markowitz":
Volevo farti ragionare sulle ipotesi ma tommik non ha resistito :-D


scusa

e comunque il mio intervento nulla toglie al fatto di (volendo farsi del male) calcolare $V(bar(X))$ così:


$V[1/n Sigmax]=E[1/n Sigmax-mu]^2=....=$

quindi se l'utente ne ha voglia....

balestra_romani
"markowitz":
@balestra_romani
Ciò che hai scritto è matematicamente corretto ma c'è un problema concettuale. Il problema è nelle ipotesi. Il risultato che vuoi dimostrare è valido nel caso di variabili iid.


cosa sono le variabili iid?

balestra_romani
"tommik":
dai sono due passaggi....come già spiegatoti da @kobe


$V(bar(x))=V[(x_1+x_2+...+x_n)/n]=1/n^2 V[x_1+x_2+...+x_n]=1/n^2 nsigma^2=sigma^2/n$

dato che:

1) tutti gli elementi $x_i$ sono indipendenti e con la stessa distribuzione della popolazione (e quindi anche ltutti con la stessa varianza $V(x_i)=sigma^2$ $AAi$)

2) E' noto che $V(ax)=a^2V(x)$

dimostrabile in due passaggi da 1° [strike]superiore[/strike] giorno di statistica semplicemente sviluppando la varianza così:

$V[Y]=E[Y^2]-E^2[Y]$

infatti ponendo $Y=aX$ si ottiene subito

$V(aX)=E(a^2X^2)-a^2E^2[X]=a^2[E(X^2)-E^2(X)]=a^2V(X)$


la (2) l'ho capita ma la (1) ancora no... come si fa a dimostrare la 1 partendo dalla definizione di varianza, usando le sommatorie, non le funzioni o gli stimatori?

markowitz
Se non hai capito la 1 è perchè avevo visto giusto su cosa non ti è chiaro.
Variabili aleatorie iid vuol dire indipendentemente ed identicamente distribuite.
La diuguaglianza di cui si parlava diventa un'uguaglianza proprio a causa dell'ipotesi di indipendenza.
L'indipendenza implica che i doppi prodotti che dicevi si annullano. Il resto ormai l'ha mostrato tommik.
Poi anche l'identicità in distribuzione ha un ruolo ma tommik ha già chiarito anche questo.

balestra_romani
"markowitz":
Se non hai capito la 1 è perchè avevo visto giusto su cosa non ti è chiaro.
Variabili aleatorie iid vuol dire indipendentemente ed identicamente distribuite.
La diuguaglianza di cui si parlava diventa un'uguaglianza proprio a causa dell'ipotesi di indipendenza.
L'indipendenza implica che i doppi prodotti che dicevi si annullano. Il resto ormai l'ha mostrato tommik.


Ohhh finalmente ci capiamo...

quindi riformulo la domanda: come posso dimostrare che i doppi prodotti si annullato?

sto cercando di capire perché nella formula della varianza si mette a denominatore n-1 e nella dimostrazione il passaggio che non mi è chiaro è appunto il calcolo della varianza della media.

P.S.: Si avevi visto giustissimo!

markowitz
"balestra_romani":
come posso dimostrare che i doppi prodotti si annullato?

Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo.
Prendila come proprietà. Ti serve per arrivare alla varianza della media campionaria ... ed in molto altro.

"balestra_romani":

sto cercando di capire perché nella formula della varianza si mette a denominatore n-1 e nella dimostrazione il passaggio che non mi è chiaro è appunto il calcolo della varianza della media.

$n-1$, che non compare nelle formule iniziali che hai postato, ha un'origine del tutto diversa

"balestra_romani":

P.S.: Si avevi visto giustissimo!

:smt023

balestra_romani
Su internet una dimostrazione comprensibile del perché si divida per n-1 la trovo qui:
http://www.docente.unicas.it/userupload ... matori.pdf
ma per comprendere tutti i passaggi bisogna anche capire come mai la varianza della media sia pari alla varianza franno n quindi non direi che l'origine di n-1 sia slegato dal concetto per il quale chiedo supporto.

Scrivi "Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo." ma non lo dimostri. Io voglio capire il perché! Mi serve per capire la ragione del fatto che $ sigma _m^2=sigma^2 /n $ . Concettualmente è facile aspettarsi una varianza più piccola ma perché fratto n?

Lo_zio_Tom
"balestra_romani":

Scrivi "Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo." ma non lo dimostri. Io voglio capire il perché!


non mi pare un ostacolo insormontabile...

poniamo $i !=j$

$E[(x_i-mu)(x_j-mu)]=E[x_1*x_j-mux_i-mux_j+mu^2]$

ricordando che se due variabili sono indipendenti sono anche incorrelate, ovvero $E(XY)=E(X)E(Y)$ e che tutte hanno la stessa distribuzione (e quindi anche la stessa media) ottieni subito

$E(x_i)E(x_j)-muE(x_i)-muE(x_j)+mu^2=mu^2-mu^2-mu^2+mu^2=0$

Ps: se l'operatore $E[.]$ non ti piace lo puoi sostituire con la sommatoria diviso n, non cambia nulla.... è l'operatore "media"

balestra_romani
Però devi dimostrarmi che E(XY)=E(X)E(Y) altrimenti siamo punto e a capo...
Tra il resto come si scrivono questi doppi prodotti senza usare la funzione stimatore E?

Lo_zio_Tom
Eh beh certo... partiamo dalla varianza della media campionaria e poi dobbiamo dimostrare tutto il programma di statistica....

$E(XY)=Sigma_xSigma_y xy p(x,y)$

Per l'indipendenza è $p(x,y)=p(x)p(y)$

Quindi ottieni $E(XY)=Sigma_x xp(x)Sigma_yyp(y)=E(x)E(y)$

balestra_romani
Perché ci aggiunti la probabilità?
Non capisco la tua dimostrazione...

balestra_romani
"tommik":

$E(XY)=Sigma_xSigma_y xy p(x,y)$


non è una doppia sommatoria perché i è diverso da j...

non capisco questa formula da dove salta fuori...

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.