Propagazione errore
Ho un terribile dubbio che non riesco a colmare: se ho una divisione di una misura con errore $k$ e un valore senza errore, l'errore del risultato è l'errore di $k$?
*mi riferisco all'errore assoluto
Grazie in anticipo
*mi riferisco all'errore assoluto
Grazie in anticipo
Risposte
Intendi dire se dividi una grandezza misurata per una costante?
Se, tanto per fissare le idee, hai una grandezza espressa da $G+-DeltaG$ ed una costante non nulla $a$, la divisione della grandezza per la costante ti fornisce $G/a$ come valore attendibile e $(DeltaG)/a$ come errore assoluto. Con l'intesa ovvia che il nuovo errore assoluto sia eventualmente arrotondato in modo da contenere una sola cifra significativa.
Se, tanto per fissare le idee, hai una grandezza espressa da $G+-DeltaG$ ed una costante non nulla $a$, la divisione della grandezza per la costante ti fornisce $G/a$ come valore attendibile e $(DeltaG)/a$ come errore assoluto. Con l'intesa ovvia che il nuovo errore assoluto sia eventualmente arrotondato in modo da contenere una sola cifra significativa.
Ti ringrazio di aver risposto. Sei stato molto chiaro, ho capito tutto tranne la cosa più ovvia, che mi sfugge. Perché è necessario che il nuovo errore assoluto venga arrotondato con una sola cifra significativa?
E' consuetudine (piuttosto diffusa) esprimere l'errore assoluto con una sola cifra significativa.
Ah ora mi è chiaro. Grazie
