Varianza della popolazione e varianza campionaria.
Buongiorno a tutti.
Ho un dubbio che non riesco a dirimire..
Ho capito perchè gli scarti rispetto alla media di una popolazione campionaria vengono divisi per n-1.
E anche perchè $sum((Zi-bar(Z))^2)$, dove Z è una Normale Standard, si distribuisce come una Chi Quadro con n-1 gradi di libertà, mentre $sum(Z^2)$ si distribuisce come una Chi Quadro con n gradi di libertà. (in entrambe viene considerato n-1 perchè la somma di v.c. o di statistiche indipendenti non è n, essendo l'ultimo termine dipendente dalla media campionaria).
Anche sulla dimostrazione matematica ci sono..
A questo punto mi chiedo, perchè nella statistica descrittiva dividiamo per n?
Anche in questo caso l'ultimo scarto è come se fosse già noto, conosciuta la media campionaria.
(mi è chiaro che in un caso parliamo di uno stimatore corretto mentre nell'altro no, non mi è chiaro il significato sperimentale e non ... probabilistico)
Ho un dubbio che non riesco a dirimire..
Ho capito perchè gli scarti rispetto alla media di una popolazione campionaria vengono divisi per n-1.
E anche perchè $sum((Zi-bar(Z))^2)$, dove Z è una Normale Standard, si distribuisce come una Chi Quadro con n-1 gradi di libertà, mentre $sum(Z^2)$ si distribuisce come una Chi Quadro con n gradi di libertà. (in entrambe viene considerato n-1 perchè la somma di v.c. o di statistiche indipendenti non è n, essendo l'ultimo termine dipendente dalla media campionaria).
Anche sulla dimostrazione matematica ci sono..
A questo punto mi chiedo, perchè nella statistica descrittiva dividiamo per n?
Anche in questo caso l'ultimo scarto è come se fosse già noto, conosciuta la media campionaria.
(mi è chiaro che in un caso parliamo di uno stimatore corretto mentre nell'altro no, non mi è chiaro il significato sperimentale e non ... probabilistico)
Risposte
Nessuno?
vediamo di fare un po' di chiarezza sull'argomento....
Cominciamo a dire che parlare di Varianza o di Scarto Quadratico medio è la stessa cosa: anche se uno è la radice quadrata dell'altro (e quindi il loro valore numerico è differente), essi rappresentano la stessa misura di probabilità, ovvero una misura di distanza Euclidea su $R^n$.
Il fatto che vi siano due tipi di stimatori, uno diviso per $n$ e l'altro per $n-1$, come hai anche capito, è per il solo fatto che uno è uno stimatore distorto e l'altro no. Tali stimatori, $S^2$ e $hat(S)^2$ sono utilizzati entrambi anche in inferenza statistica, a seconda dei casi. Infatti non è assolutamente detto che uno stimatore distorto sia peggio di uno non distorto....é molto più importante la Consistenza di uno stimatore e tale proprietà è assicurata anche dallo stimatore distorto $S^2$, avendo non distorsione al limite....
Quindi l'unico motivo perché si è introdotto $hat(S)^2$ è il seguente:
$E(S^2)=(n-1)/nS^2$ e quindi
$E(n/(n-1)S^2)=E(hat(S)^2)=S^2$
la relazione lineare che fa abbassare di uno i gradi di libertà è la seguente:
$E[X-E(x)]=0$
Questa relazione non vale per lo scarto quadratico medio ( o varianza) in quanto in tale misura abbiamo
$E[X-E(x)]^2=0$ che non è proprio la stessa cosa...
in tutta la statistica si usa la misura $sqrt(1/nsum_(i)(x_(i)-bar(x))^2)$...non solo in statistica descrittiva. Tutti i test Statistici funzionano sia con l'utilizzo di $S$ che con l'utilizzo di $S^2$. In statistica descrittiva semplicemente si usa $S$ perché ancora non sono stati trattati gli argomenti di stima e proprietà degli stimatori....tutto qui....
Interpretazione geometrica della varianza (o scarto quadratico medio)

Supponiamo quindi di avere due individui: $I_(1)$ e $I_(2)$, rispettivamente con reddito pari a $x_(1)$ e $x_(2)$.
$x_(1)+x_(2)=T rarrr$ reddito totale.
Se entrambi avessero reddito medio pari a $m$ la loro distribuzione sarebbe $m'$. Se invece, tanto per fissare le idee, $I_(1)$ ha reddito $x_(1)$ e $I_(2)$ ha reddito $x_(2)$, la loro distribuzione sarà $R'$.
Ecco la varianza (o scarto quadratico medio) è la distanza fra $d=R'-m'$
$d=sqrt({(x_(1)-m)^2+(x_(2)-m)^2})$
spero sia chiaro
ora vorrei farti un piccolo appunto anche sul titolo che hai messo: "varianza della popolazione e varianza campionaria"
So benissimo che alcuni testi chiamano $1/nsum_(i)(x_(i)-bar(x))^2$ varianza della popolazione mentre definiscono $1/(n-1)sum_(i)(x_(i)-bar(x))^2$ come "varianza campionaria"
Anche Excel, come saprai, ha due funzioni "VAR.POP" e "VAR" per indicare rispettivamente le due quantità.
Ciò però è del tutto impreciso.....la definizione corretta è che entrambi gli stimatori sono "varianza campionaria", per la precisione
$S^2=1/nsum_(i)(x_(i)-bar(x))^2$ si chiama "varianza campionaria" mentre
$hat(S)^2=1/(n-1)sum_(i)(x_(i)-bar(x))^2$ si chiama "varianza campionaria corretta"
dove l'aggettivo "corretta" sta per "normalizzata" e non per "giusta"
La varianza della popolazione è $sigma^2=int_(Omega)(x-mu_(x))^2dF(x)$ che è tutta un'altra cosa....
usti....hai messo il post domenica ...ti abbiamo risposto oggi.....non mi sembrava il caso di uplodare così....
Cominciamo a dire che parlare di Varianza o di Scarto Quadratico medio è la stessa cosa: anche se uno è la radice quadrata dell'altro (e quindi il loro valore numerico è differente), essi rappresentano la stessa misura di probabilità, ovvero una misura di distanza Euclidea su $R^n$.
Il fatto che vi siano due tipi di stimatori, uno diviso per $n$ e l'altro per $n-1$, come hai anche capito, è per il solo fatto che uno è uno stimatore distorto e l'altro no. Tali stimatori, $S^2$ e $hat(S)^2$ sono utilizzati entrambi anche in inferenza statistica, a seconda dei casi. Infatti non è assolutamente detto che uno stimatore distorto sia peggio di uno non distorto....é molto più importante la Consistenza di uno stimatore e tale proprietà è assicurata anche dallo stimatore distorto $S^2$, avendo non distorsione al limite....
Quindi l'unico motivo perché si è introdotto $hat(S)^2$ è il seguente:
$E(S^2)=(n-1)/nS^2$ e quindi
$E(n/(n-1)S^2)=E(hat(S)^2)=S^2$
"momo1":
...(in entrambe viene considerato n-1 perchè la somma di v.c. o di statistiche indipendenti non è n, essendo l'ultimo termine dipendente dalla media campionaria).
Anche sulla dimostrazione matematica ci sono..
A questo punto mi chiedo, perchè nella statistica descrittiva dividiamo per n?
Anche in questo caso l'ultimo scarto è come se fosse già noto, conosciuta la media campionaria.
la relazione lineare che fa abbassare di uno i gradi di libertà è la seguente:
$E[X-E(x)]=0$
Questa relazione non vale per lo scarto quadratico medio ( o varianza) in quanto in tale misura abbiamo
$E[X-E(x)]^2=0$ che non è proprio la stessa cosa...
"momo1":
A questo punto mi chiedo, perchè nella statistica descrittiva dividiamo per n?
in tutta la statistica si usa la misura $sqrt(1/nsum_(i)(x_(i)-bar(x))^2)$...non solo in statistica descrittiva. Tutti i test Statistici funzionano sia con l'utilizzo di $S$ che con l'utilizzo di $S^2$. In statistica descrittiva semplicemente si usa $S$ perché ancora non sono stati trattati gli argomenti di stima e proprietà degli stimatori....tutto qui....
Interpretazione geometrica della varianza (o scarto quadratico medio)

Supponiamo quindi di avere due individui: $I_(1)$ e $I_(2)$, rispettivamente con reddito pari a $x_(1)$ e $x_(2)$.
$x_(1)+x_(2)=T rarrr$ reddito totale.
Se entrambi avessero reddito medio pari a $m$ la loro distribuzione sarebbe $m'$. Se invece, tanto per fissare le idee, $I_(1)$ ha reddito $x_(1)$ e $I_(2)$ ha reddito $x_(2)$, la loro distribuzione sarà $R'$.
Ecco la varianza (o scarto quadratico medio) è la distanza fra $d=R'-m'$
$d=sqrt({(x_(1)-m)^2+(x_(2)-m)^2})$
spero sia chiaro

ora vorrei farti un piccolo appunto anche sul titolo che hai messo: "varianza della popolazione e varianza campionaria"
So benissimo che alcuni testi chiamano $1/nsum_(i)(x_(i)-bar(x))^2$ varianza della popolazione mentre definiscono $1/(n-1)sum_(i)(x_(i)-bar(x))^2$ come "varianza campionaria"
Anche Excel, come saprai, ha due funzioni "VAR.POP" e "VAR" per indicare rispettivamente le due quantità.
Ciò però è del tutto impreciso.....la definizione corretta è che entrambi gli stimatori sono "varianza campionaria", per la precisione
$S^2=1/nsum_(i)(x_(i)-bar(x))^2$ si chiama "varianza campionaria" mentre
$hat(S)^2=1/(n-1)sum_(i)(x_(i)-bar(x))^2$ si chiama "varianza campionaria corretta"
dove l'aggettivo "corretta" sta per "normalizzata" e non per "giusta"

La varianza della popolazione è $sigma^2=int_(Omega)(x-mu_(x))^2dF(x)$ che è tutta un'altra cosa....

"momo1":
Nessuno?
usti....hai messo il post domenica ...ti abbiamo risposto oggi.....non mi sembrava il caso di uplodare così....

Innanzitutto ti ringrazio per la risposta "consistente" e mi scuso se hai considerato l'up fuoriluogo. Non era mia intenzione.
Sarò io duro, ma continuo a non capire intuitivamente perchè nel caso in cui la media sia ignota usiamo la varianza campionaria corretta e se è da ricollegarsi al significato geometrico che hai illustrato, il cui collegamento con la mia domanda altrimenti proprio non ho capito..
E anche se c'è qualche collegamento coi gradi di libertà ..
Sarò io duro, ma continuo a non capire intuitivamente perchè nel caso in cui la media sia ignota usiamo la varianza campionaria corretta e se è da ricollegarsi al significato geometrico che hai illustrato, il cui collegamento con la mia domanda altrimenti proprio non ho capito..
E anche se c'è qualche collegamento coi gradi di libertà ..
Mi spiego un po' meglio.
L'argomentazione secondo cui la stima della media toglie un grado di libertà, perché si hanno N-1 scarti indipendenti, a me convince anche nel caso in cui ho la popolazione intera e quindi non vedo perchè anche in quel caso non si debba dividere per $n-1$.
L'argomentazione secondo cui la stima della media toglie un grado di libertà, perché si hanno N-1 scarti indipendenti, a me convince anche nel caso in cui ho la popolazione intera e quindi non vedo perchè anche in quel caso non si debba dividere per $n-1$.
"momo1:
.....continuo a non capire intuitivamente perchè nel caso in cui la media sia ignota usiamo la varianza campionaria corretta
Fammi un esempio pratico perché ora sono io che non capisco.
La spiegazione geometrica della varianza era solo per spiegarti che entrambi gli stimatori sono la stessa misura. ...
"tommik":
[quote="momo1].....continuo a non capire intuitivamente perchè nel caso in cui la media sia ignota usiamo la varianza campionaria corretta
Fammi un esempio pratico perché ora sono io che non capisco.
La spiegazione geometrica della varianza era solo per spiegarti che entrambi gli stimatori sono la stessa misura. ...[/quote][/quote][/quote]
Se sto stimando la varianza tramite un campione estratto da una popolazione che si distribuisce come una v.c. di media nota, allora $S^2=(sum(X i -mu)^2)/n$.
Comunquer ribadisco il mio dubbio principale:
[quote]
Mi spiego un po' meglio.
L'argomentazione secondo cui la stima della media toglie un grado di libertà, perché si hanno N-1 scarti indipendenti, a me convince anche nel caso in cui ho la popolazione intera e quindi non vedo perchè anche in quel caso non si debba dividere per n−1
cerco di spiegarmi meglio...
Gli stimatori $S^2$ e $hat(S)^2$ sono la stessa cosa! Nulla cambia a livello di misura se si divida per $n$ o per $n-1$ e questo ho tentato di spiegartelo attraverso l'interpretazione geometrica della varianza.
L'unica differenza fra i due è che uno ha distorsione zero l'altro no. Ma la distorsione non è una proprietà importante. Le proprietà importanti degli stimatori sono quelle asintotiche. Tra l'altro anche $S^2$ è non distorto, asintoticamente...
es:
su alcuni testi trovi
$nS^2/sigma^2~ chi_((n-1))^2$
su altri trovi
$(n-1)hat(S)^2/sigma^2~ chi_((n-1))^2$
uno usa lo stimatore distorto, l'altro no. Alla fine ciò che conta per la distribuzione è la misura della devianza.....
Prima di tutto ti faccio notare che la quantità che hai scritto non si chiama $S^2$.... e che tu divida per n o per (n-1) non cambia nulla.....ciò che conta, in questo caso è che
$(sum_(i)(x_(i)-mu)^2)/sigma^2~ chi_(n)^2$
come vedi nella formula $n$ non compare nemmeno più dato che si semplifica. I gradi di libertà ora sono $n$, come il numero delle variabili dato che non ci sono relazioni lineari che li fanno abbassare; in questo caso infatti, in generale, $sum_(i)(x_(i)-mu)!=0$, dato che $mu$ non è la media delle $x_(i)$.
In tale caso, la stima della varianza della popolazione, a conti fatti, sarà
$(sum_(i)(x_(i)-mu)^2)/b<=sigma^2<=(sum_(i)(x_(i)-mu)^2)/a$
dove $a,b$ sono due punti di ascissa della $chi_(n)^2$
Se invece la media non fosse nota allora la misura della stima sarebbe differente:
$nS^2/sigma^2~ chi_(n-1)^2$
oppure, ciò che è lo stesso:
$(n-1)hat(S)^2/sigma^2~ chi_(n-1)^2$
i gradi di libertà della $chi^2$ scendono di uno, dato che si genera una relazione lineare fra le variabili; in questo caso infatti abbiamo che $sum_(i)(x_(i)-bar(x))=0$....ma si può dividere per $n$, per $n-1$ o per il numero che preferisci....NON CAMBIA NULLA
in questo caso, la stima della varianza sarà:
$(nS^2)/b<=sigma^2<=(nS^2)/a$
oppure, ciò che è lo stesso:
$((n-1)hat(S)^2)/b<=sigma^2<=((n-1)hat(S)^2)/a$ se ti piace di più dividere per $(n-1)$...tanto il risultato è lo stesso, essendo in entrambi i casi
$(sum_(i)(x_(i)-bar(x))^2)/b<=sigma^2<=(sum_(i)(x_(i)-bar(x))^2)/a$
e dove ovviamente $a,b$ sono punti della $chi_(n-1)^2$
Gli stimatori $S^2$ e $hat(S)^2$ sono la stessa cosa! Nulla cambia a livello di misura se si divida per $n$ o per $n-1$ e questo ho tentato di spiegartelo attraverso l'interpretazione geometrica della varianza.
L'unica differenza fra i due è che uno ha distorsione zero l'altro no. Ma la distorsione non è una proprietà importante. Le proprietà importanti degli stimatori sono quelle asintotiche. Tra l'altro anche $S^2$ è non distorto, asintoticamente...
es:
su alcuni testi trovi
$nS^2/sigma^2~ chi_((n-1))^2$
su altri trovi
$(n-1)hat(S)^2/sigma^2~ chi_((n-1))^2$
uno usa lo stimatore distorto, l'altro no. Alla fine ciò che conta per la distribuzione è la misura della devianza.....
"momo1":
Se sto stimando la varianza tramite un campione estratto da una popolazione che si distribuisce come una v.c. di media nota, allora $S^2=(sum(X i -mu)^2)/n$.
Prima di tutto ti faccio notare che la quantità che hai scritto non si chiama $S^2$.... e che tu divida per n o per (n-1) non cambia nulla.....ciò che conta, in questo caso è che
$(sum_(i)(x_(i)-mu)^2)/sigma^2~ chi_(n)^2$
come vedi nella formula $n$ non compare nemmeno più dato che si semplifica. I gradi di libertà ora sono $n$, come il numero delle variabili dato che non ci sono relazioni lineari che li fanno abbassare; in questo caso infatti, in generale, $sum_(i)(x_(i)-mu)!=0$, dato che $mu$ non è la media delle $x_(i)$.
In tale caso, la stima della varianza della popolazione, a conti fatti, sarà
$(sum_(i)(x_(i)-mu)^2)/b<=sigma^2<=(sum_(i)(x_(i)-mu)^2)/a$
dove $a,b$ sono due punti di ascissa della $chi_(n)^2$
Se invece la media non fosse nota allora la misura della stima sarebbe differente:
$nS^2/sigma^2~ chi_(n-1)^2$
oppure, ciò che è lo stesso:
$(n-1)hat(S)^2/sigma^2~ chi_(n-1)^2$
i gradi di libertà della $chi^2$ scendono di uno, dato che si genera una relazione lineare fra le variabili; in questo caso infatti abbiamo che $sum_(i)(x_(i)-bar(x))=0$....ma si può dividere per $n$, per $n-1$ o per il numero che preferisci....NON CAMBIA NULLA
in questo caso, la stima della varianza sarà:
$(nS^2)/b<=sigma^2<=(nS^2)/a$
oppure, ciò che è lo stesso:
$((n-1)hat(S)^2)/b<=sigma^2<=((n-1)hat(S)^2)/a$ se ti piace di più dividere per $(n-1)$...tanto il risultato è lo stesso, essendo in entrambi i casi
$(sum_(i)(x_(i)-bar(x))^2)/b<=sigma^2<=(sum_(i)(x_(i)-bar(x))^2)/a$
e dove ovviamente $a,b$ sono punti della $chi_(n-1)^2$
"tommik":
[quote="momo1"][
Se sto stimando la varianza tramite un campione estratto da una popolazione che si distribuisce come una v.c. di media nota, allora $S^2=(sum(X i -mu)^2)/n$.
$(sum_(i)(x_(i)-mu)^2)/sigma^2~ chi_(n)^2$
come vedi nella formula $n$ non compare nemmeno più dato che si semplifica. I gradi di libertà ora sono $n$, come il numero delle variabili dato che non ci sono relazioni lineari che li fanno abbassare; in questo caso infatti, in generale, $sum_(i)(x_(i)-mu)!=0$, dato che $mu$ non è la media delle $x_(i)$.
[/quote]
Ecco è proprio qui che mi sorge la domanda:
se sto facendo una analisi statistica descrittiva, e voglio calcolare la varianza, anche qui avrei una relazione lineare tra $mu$ e l'ultimo scarto: conoscerei a priori l'ultimo $x_(i)$ osservato che non sarebbe indipendente..
Però divido lo stesso per $n$.
Oppure il mio ragionamento non ha senso perchè non sto facendo inferenza?