La media minimizza?
Ciao a tutti ragazzi! qualcuno mi potrebbe spiegare il perchè della seguente definizione?
La media individua il punto che minimizza la sommatoria delle distanze fra i vari punti (presi ad esempio 2n + 1 punti sulla retta reale).
è vera, ma non riesco a capire il perchè.
Ho postato qui perchè credo si parli di Valore atteso, indici di posizione e dispersione, quindi hanno a che fare con probabilità e statistica.
Grazie mille ragazzi!
La media individua il punto che minimizza la sommatoria delle distanze fra i vari punti (presi ad esempio 2n + 1 punti sulla retta reale).
è vera, ma non riesco a capire il perchè.
Ho postato qui perchè credo si parli di Valore atteso, indici di posizione e dispersione, quindi hanno a che fare con probabilità e statistica.
Grazie mille ragazzi!
Risposte
si tratta di una semplice dimostrazione, è una delle proprietà principe della media aritmetica..in soldoni ti dice che, scelto come punto "centrale" dei tuoi dati la media aritmetica, esso è tale per cui la distanza euclidea di tutte le informazioni contemporaneamente da questo "centro" è la più piccola possibile..
dimostriamolo (assumo per note le proprietà di media e varianza, ma si può fare anche per componenti)
sia $D=E[(X-theta)^2]$, dove $E$ indica il valore atteso, $X$ una variabile casuale quantitativa, $theta$ un qualche indice di posizione
è vero, per le proprietà di linearità dell'operatore valore atteso (o media che dir si voglia), che:
$D = E[(X-theta)^2] = E[(X-E(X)+E(X)-theta)^2] = E[((X-E(X))+(E(X)-theta))^2] =
$= E[(X-E(X))^2]+2*E[(X-E(X))*(E(X)-theta)]+E[(E(X)-theta)^2] =
$= V(X) + 2*[E(X)-theta]*E[X-E(X)]+(E(X)-theta)^2 =
$= V(X) + 2*[E(X)-theta]*0 + (E(X)-theta)^2 =
$= V(X) + (E(X)-theta)^2$
questa quantità è sicuramente non negativa (è una somma di quadrati), di conseguenza è minimizzata solo qualora $(E(X)-theta)^2$ sia nullo, ovvero se si scelga $theta=E(X)$.
non ho commentato i passaggi, spero siano chiari, in caso contrario chiedi che li spiego nel dettaglio
dimostriamolo (assumo per note le proprietà di media e varianza, ma si può fare anche per componenti)
sia $D=E[(X-theta)^2]$, dove $E$ indica il valore atteso, $X$ una variabile casuale quantitativa, $theta$ un qualche indice di posizione
è vero, per le proprietà di linearità dell'operatore valore atteso (o media che dir si voglia), che:
$D = E[(X-theta)^2] = E[(X-E(X)+E(X)-theta)^2] = E[((X-E(X))+(E(X)-theta))^2] =
$= E[(X-E(X))^2]+2*E[(X-E(X))*(E(X)-theta)]+E[(E(X)-theta)^2] =
$= V(X) + 2*[E(X)-theta]*E[X-E(X)]+(E(X)-theta)^2 =
$= V(X) + 2*[E(X)-theta]*0 + (E(X)-theta)^2 =
$= V(X) + (E(X)-theta)^2$
questa quantità è sicuramente non negativa (è una somma di quadrati), di conseguenza è minimizzata solo qualora $(E(X)-theta)^2$ sia nullo, ovvero se si scelga $theta=E(X)$.
non ho commentato i passaggi, spero siano chiari, in caso contrario chiedi che li spiego nel dettaglio

"Chicco_Stat_":
si tratta di una semplice dimostrazione, è una delle proprietà principe della media aritmetica..in soldoni ti dice che, scelto come punto "centrale" dei tuoi dati la media aritmetica, esso è tale per cui la distanza euclidea di tutte le informazioni contemporaneamente da questo "centro" è la più piccola possibile..
dimostriamolo (assumo per note le proprietà di media e varianza, ma si può fare anche per componenti)
sia $D=E[(X-theta)^2]$, dove $E$ indica il valore atteso, $X$ una variabile casuale quantitativa, $theta$ un qualche indice di posizione
è vero, per le proprietà di linearità dell'operatore valore atteso (o media che dir si voglia), che:
$D = E[(X-theta)^2] = E[(X-E(X)+E(X)-theta)^2] = E[((X-E(X))+(E(X)-theta))^2] =
$= E[(X-E(X))^2]+2*E[(X-E(X))*(E(X)-theta)]+E[(E(X)-theta)^2] =
$= V(X) + 2*[E(X)-theta]*E[X-E(X)]+(E(X)-theta)^2 =
$= V(X) + 2*[E(X)-theta]*0 + (E(X)-theta)^2 =
$= V(X) + (E(X)-theta)^2$
questa quantità è sicuramente non negativa (è una somma di quadrati), di conseguenza è minimizzata solo qualora $(E(X)-theta)^2$ sia nullo, ovvero se si scelga $theta=E(X)$.
non ho commentato i passaggi, spero siano chiari, in caso contrario chiedi che li spiego nel dettaglio
aiuto che casino, ade mi metto d'impegno e rileggo bene tutto quello che hai scritto


http://web.math.unifi.it/users/bianchi/ ... rianza.pdf
praticamente la seconda pagina di questo documento...spiega esattamente la minimizzazione della media...però dice che è meglio considerare lo scarto quadratico..secondo te però va bene lo stesso con lo scarto normale?? thank youi!
ah, a proposito, il testo dell'esercizio è il seguente:
Siano ${ x_i } i=0, .. .. .. , 2n$ $ 2n+1$ punti distinti sulla sulla retta reale
definiamo ∑ 0 = $\sum_{i=0}^(2*n) |x_0 - x_i|$
∑ 1 = $\sum_{i=0}^(2*n) |x_1 - x_i|$
Provare che esiste un algoritmo lineare che trova $\sum_{min}$ = {$\sum_{i}$ $| i:0,.. .. .. ,2n}
edit: in questo caso mi sa che è la mediana che minimizza, non la media...sai per caso come posso fare per dimostrare che la mediana minimizza?? thank you!
Siano ${ x_i } i=0, .. .. .. , 2n$ $ 2n+1$ punti distinti sulla sulla retta reale
definiamo ∑ 0 = $\sum_{i=0}^(2*n) |x_0 - x_i|$
∑ 1 = $\sum_{i=0}^(2*n) |x_1 - x_i|$
Provare che esiste un algoritmo lineare che trova $\sum_{min}$ = {$\sum_{i}$ $| i:0,.. .. .. ,2n}
edit: in questo caso mi sa che è la mediana che minimizza, non la media...sai per caso come posso fare per dimostrare che la mediana minimizza?? thank you!