Valutazione della precisione
Non riesco a comprendere un termine utilizzato per calcolare la precisione (più "precisamente" la riproducibilità) di una misurazione.
Si definisce precisione il grado di convergenza di dati rilevati individualmente rispetto al valor medio della serie cui appartengono, cioè la deviazione standard rispetto alla media. Più precisamente la riproducibilità è "la dispersione ottenuta compiendo le stesse misurazioni con strumenti ed operatori differenti e/o su un tempo relativamente lungo".
La formula per calcolare la precisione è
$\sigma=sqrt(((\sum_(i=1)^n(X_i-m)^2)/(n-1)))$
dove $X_i$ è la misurazione effettuata, $m$ è la media aritmetica ed $n$ è il numero di misurazioni effettuate.
Quello che non riesco a capire è perchè al denominatore c'è $n-1$ invece di $n$.
Si definisce precisione il grado di convergenza di dati rilevati individualmente rispetto al valor medio della serie cui appartengono, cioè la deviazione standard rispetto alla media. Più precisamente la riproducibilità è "la dispersione ottenuta compiendo le stesse misurazioni con strumenti ed operatori differenti e/o su un tempo relativamente lungo".
La formula per calcolare la precisione è
$\sigma=sqrt(((\sum_(i=1)^n(X_i-m)^2)/(n-1)))$
dove $X_i$ è la misurazione effettuata, $m$ è la media aritmetica ed $n$ è il numero di misurazioni effettuate.
Quello che non riesco a capire è perchè al denominatore c'è $n-1$ invece di $n$.

Risposte
up

"Sergio":
[...] dovrei tenerti un breve corso di inferenza statistica.[...]
Hai un qualche link per dare una lettura a questo argomento?