Perché la varianza della media è pari alla varianza della popolazione fratto n?

balestra_romani
Come si dimostra questa relazione?

$ sigma_m ^2=sigma ^2/n $

arrivo fino a qui poi mi blocco:

$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= 1/n*sum_(i =1)^n(x_i-mu )^2/n $
$ sigma_m ^2=1/n*(sum_(i =1)^n(x_i-mu ))^2/n!= sigma^2/n $

Risposte
markowitz
"balestra_romani":
Su internet una dimostrazione comprensibile del perché si divida per n-1 la trovo qui:
http://www.docente.unicas.it/userupload ... matori.pdf
ma per comprendere tutti i passaggi bisogna anche capire come mai la varianza della media sia pari alla varianza franno n quindi non direi che l'origine di n-1 sia slegato dal concetto per il quale chiedo supporto.

direi che $ V[x]=sigma^2 /n $, dove x=media campionaria da campione iid, è gia stata dimostrata in modo chiro ed esaustivo da tommik.

"balestra_romani":

Scrivi "Se i termini provengono da variabili indipendenti (ipotesi) il valore atteso dei prodotti incrociati è nullo." ma non lo dimostri. Io voglio capire il perché!

infatti avevo anche scritto "prendila come proprietà".
Il concetto di dimostrazione non è qualcosa di univoco. In estrema sintesi, per dimostrazione si può intendere così: a partire da un insieme di condizioni iniziali ritenute valide, e note un insieme di leggi (teoremi) che si sanno essere validi, attraverso una catena finita di passi logicamente validi si arriva al risultato che quindi è dimostrato.
Nel ragionamento che ti proponevo, e che si propone ovunque, l'ipotesi di partenza era che le variabili in causa fossero iid ... era questo che non ti era chiaro ... ma a quanto scrivi poco sopra non ti è chiaro neppure cosa questo voglia dire e/o implichi. Anche per questo avevo scritto "prendila come proprietà" (teorema). Fidati, funziona.
Se poi vuoi dimostrare il teorema stesso o qualcosa ad esso collegabile ... certo si può fare ... ma il problema è che si dovrebbe andare con ordine ... se si tratta di fugare un facile dubbio è una cosa ma ... perdonami non posso farti qui un corso di statistica ... forse tommik è più propenso :-D

per quanto riguarda la divisione per $n-1$ ... è ancora, e più di prima, una questione di procedere con ordine ... ed anche dalle slide che metti a link si può capire.

Buona serata.

balestra_romani
Quindi mi stai dicendo che per capire l'ultimo pezzo della dimostrazione E(XY)=E(X)E(Y) bisogna tirare in ballo tutta la probabilità e la statistica? (è l'ultima cosa che devo capire poi ho capito tutto... davvero molto strano quello che dici...)

Lo_zio_Tom
"balestra_romani":

non è una doppia sommatoria perché i è diverso da j...

non capisco questa formula da dove salta fuori...


La formula di $E(XY)$ è proprio la definizione di media (nel caso discreto) e va a sommare tutti gli $n xx n$ elementi.....

Inoltre ti faccio notare che è l'esatto opposto di ciò che dici tu.... la doppia sommatoria serve proprio quando $i !=j$ perché se $i=j$ stai sommando solo gli elementi della diagonale principale di una matrice quadrata e quindi basta la somma singola....se invece devi sonmare gli elementi al di fuori della diagonale principale alllora necessariamente dovrai usare una doppia somma dato che gli elementi sono $n(n-1)$... o No????

Infine, tirando le fila del discorso (Poi basta perché stiamo davvero andando fuori tema ..) mediando gli elementi della diagonale principale trovi $1/n^2 Sigma (x-mu)^2=sigma ^2/n$ ..mediando tutti gli altri elementi trovi tutte le covarianze (per due) che sono tutte nulle per 'indipendenza..

Dimostrazioni di questa cosa ce ne sono davvero tante e si trovano su tutti i testi di statistica di base.

kobeilprofeta
@Balestra

Comunque rileggi un attimo i tuoi messaggi
Un filo di gentilezza non guasterebbe :)

balestra_romani
"tommik":
[quote="balestra_romani"]
non è una doppia sommatoria perché i è diverso da j...

non capisco questa formula da dove salta fuori...


La formula di $E(XY)$ è proprio la definizione di media (nel caso discreto)

Inoltre ti faccio notare che è l'esatto opposto di ciò che dici tu.... la doppia sommatoria serve proprio quando $i !=j$ perché se $i=j$ stai mediando solo gli elementi della diagonale principale e quindi basta la somma singola....

Infine, tirando le fila del discorso (Poi basta perché stiamo davvero andando fuori tema ..) mediando gli elementi della diagonale principale trovi $1/n^2 Sigma (x-mu)^2=sigma ^2/n$ ..mediando tutti gli altri elementi trovi tutte le covarianze (per due) che sono tutte nulle per 'indipendenza..[/quote]

Mi sapresti indicare una dispensa dove si dimostra E(XY)=E(X)E(Y) passaggio per passaggio?

L'ultima formula che scrivi mi è chiara e la trovo anche banale, quello che non capisco è perché questi maledetti doppi prodotti si annullino. Il passaggio prima per arrivare li.

balestra_romani
"kobeilprofeta":
@Balestra

Comunque rileggi un attimo i tuoi messaggi
Un filo di gentilezza non guasterebbe :)


Se sono stato scortese mi scuso, non sono certo qui per criticare, solo capire la formula della varianza non distorta.

Lo_zio_Tom
La dimostrazione più semplice è quella che ti ho mostrato. Purtroppo per capire qualunque testo su questo argomento è necessario avere almeno le basi di calcolo delle probabilità... altrimenti devi fare un atto di fede.

Tu la media la vedi solo come $1/n Sigma x$ ma questo è un caso estremamente particolare, dove tutte le $p(x_i)=1/n$. In generale, nel discreto, la media è $Sigma_i x_i *p(x_i)$. Per capire cosa succede in caso di dipendenza / indipendenza non si puo prescindere dal definire la probabilità congiunta...

Vedila così: se le variabili sono indipendenti tutti i valori $p(x;y)=1/n^2$ , $AA x,y$ e quindi si dimostra la tesi...

Uno dei testi meglio scritti, secondo me, è il Mood Graybill Boes: introduzione alla statistica della McGraw Hill...

Buona lettura

markowitz
"balestra_romani":
[quote="kobeilprofeta"]@Balestra

Comunque rileggi un attimo i tuoi messaggi
Un filo di gentilezza non guasterebbe :)


Se sono stato scortese mi scuso, [/quote]
Andiamo meglio.

Proviamo così,
le variabili in causa sono indipendenti (ipotesi) quindi sono anche incorrelate (implicazione) ma allora $cov(x_i,x_j)=0$ (praticamente una definizione) ma sappiamo anche valere
$cov(x_i,x_j)=E[x_i*x_j]-E[x_i]E[x_j]$ (praticamente una definizione anche questa) da cui arrivi immediatamente a $E[x_i*x_j]=E[x_i]E[x_j]$
se vuoi qualche passaggio in più
https://it.wikipedia.org/wiki/Covarianz ... ilit%C3%A0)
non era difficile da trovare.

Per il resto confermo quello che dicevo ... non vi era nulla di "strano" ... credimi, una serie di affermazioni che hai fatto ed il tenore generale della discussione lasciano chiaramente intendere che un corso ripreso dalle basi è esattamente ciò di cui avresti bisogno.

balestra_romani
Perdonate la poca fede ma ora mi è tutto più chiaro.

Se si calcola la media di 11, 12 e 13 e la si eleva al quadrato si ottiene 144 mentre se si esegue (11*12+11*13+12*13)/3 si ottiene 143.7 ~ 144, praticamente il quadrato della media. Se al posto di 3 elementi se ne prendono n e tutti questi n oltre ad essere indipendenti appartengono alla stessa distribuzione di probabilità si comprende perché x_1 x_2+x_1 x_3+x_2 x_3+⋯=nμ^2.

Si può anche scrivere che:

1/n x_1 x_2+1/n x_1 x_3+1/n x_2 x_3…=p(x_1;x_2 ) x_1 x_2+p(x_1;x_3 ) x_1 x_3+p(x_2;x_3 ) x_2 x_3…
1/n x_1 x_2+1/n x_1 x_3+1/n x_2 x_3…=p(x_1)p(x_2 ) x_1 x_2+p(x_1)p(x_3 ) x_1 x_3+p(x_2)p(x_3 ) x_2 x_3…
1/n x_1 x_2+1/n x_1 x_3+1/n x_2 x_3…=p(x_1)x_1 p(x_2 ) x_2+p(x_1)x_1 p(x_3 ) x_3+p(x_2)x_2 p(x_3 ) x_3…
Dove p(x_1;x_3 ) è la probabilità che si verifichi x_1 contemporaneamente a x_3 ovvero una probabilità congiunta. Se le variabili sono indipendenti p(x_1;x_2 )=p(x_1)p(x_2 ). In pratica i valori più probabili sono quelli più vicini alla media e non gli outlier estremi per cui (11∙12+11∙13+12∙13)/3≅11∙12∙0.5+11∙13∙0+12∙13∙0.5=144 ovvero x_1 x_2+x_1 x_3+x_2 x_3+⋯=nμ^2.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.