Errore statistico su una misura di lunghezza

floriano94
Salve a tutti! Ho un dubbio per quanto riguarda l'errore da assegnare ad una misura: secondo alcuni testi che ho consultato, se con una bilancia digitale con una sensibilità di $1 \ mg$ misuro la massa di un oggetto ottenendo un determinato valore, ad esempio $0.431 \ g$ allora posso attribuire a questa misura un errore statistico pari a $\frac{1}{\sqrt{12}} \ mg$ (esprimendo la misura come $0.4315 \pm \frac{0.001}{\sqrt{12}} \ g$) piuttosto che l'errore massimo $1 \ mg$ . Questa considerazione viene motivata dal fatto che il valore "vero" (lasciatemi passare questa imprecisione) ha la stessa probabilità (distribuzione uniforme) di assumere qualunque valore compreso tra $0.431$ e $0.432 g$.

Si può estendere questa considerazione alle misure di lunghezza effettuate tramite un metro a nastro con sensibilità del millimetro?
Grazie in anticipo!

Risposte
hamilton2
posso dirti che per quella che è la mia limitata esperienza in laboratorio per scale graduate (noni, millimetri etc) si fa sempre questa assunzione.

floriano94
Tuttavia mi chiedo, se misuro un oggetto con un righello 1 volta o 10 volte ottengo sempre lo stesso risultato con il medesimo errore. La misura non è affetta in questo caso da fluttuazioni statistiche , potrebbe al più essere affetta da errori sistematici. Mi sembra ragionevole assegnare un errore statistico nel momento in cui ho una misura affetta da un errore casuale (ad esempio una misura di un intervallo di tempo effettuata dallo sperimentatore con un cronometro) per la quale , effettuando un certo numero di volte la misurazione si otterranno in generale risultati differenti di cui si considera in seguito la media e come errore statistico la deviazione standard del campione . Mi sembrano tuttavia cose differenti, dunque come si giustifica questa procedura e quando è lecito usarla?

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.