Propagazione degli errori in fisica

harperf
Stavo leggiucchiando il libro di mio fratello e mi trovo con un dubbione enorme.

Ho capito che l'errore che si associa per grandezze misurate ripetendo la misura è [misura (ottenuta dalla media)±sigma medio], questo perché la gaussiana di tutte le possibili medie si stringe con una deviazione standard minore di quella di una gaussiana in cui "tabulo" ogni singola misura.

Ora, per la propagazione degli errori, si sfrutta la formuletta di derivate parziali (per semplicità scegliamo errori incorrelati)
Tuttavia non capisco perché se io ho una misura g che dipende da (x,y,z) mettiamo: G(x,y,z) il valore di G migliore risulta essere
$G_m(x_m,y_m,z_m)$ con $x_m$ ecc..intendo la media di più misure x.
Quello che però andiamo a scrivere sfruttando la propagazione dell'errore sarà:

$G_m±\sigma_g$ ottenuto dalla propagazione $\sigma_g=sqrt(\partialG/\(partialx)*\sigma_x.....)$ e non $G_m±\(sigma_g)_m$, in altre parole come per l'errore che associo è dato da $\sigma/sqrtN$ perché anche per G(medio) non uso quel sigma che esce dalla propagazione e lo dividoper radice di N: $\(sigma_g)_m=\sigma_g/sqrtN$

Risposte
cooper1
in realtà l'espressione della deviazione standard data dal libro è stata dimostrata a partire da quello che dici. mi spiego:
immagina di dover determinare il valore di una grandezza derivata G. ci serve determinare un valore che stimi il suo valore vero. abbiamo a disposizione le misure dirette (che tu hai chiamato $x_i,y_i,z_i$) che quindi producono i funzioni G derivate. Facciamo l'assunzione che la miglior stima sia $barG=1/N sum_(i=1)^(N)G_i$. linearizziamo la funzione prendendo lo sviluppo di Taylor di G: $G(x,y,z)=G(barx,bary,barz)+(partialG)/(partialx)(x_i-barx)+(partialG)/(partialy)(y_i-bary)+(partialG)/(partialz)(z_i-barz)+...$ con punto iniziale $barx,bary,barz$.
inserendo questo sviluppo nell'assunzione otteniamo $barG=G(barx,bary,barz)=G_m$
per la deviazione standard si fa un ragionamento analogo: assumo (e qui uso la tua idea di prendere $sigma_i/sqrtN$) che la dev st sia $sigma_(G)^(2)=1/Nsum_i[G_i- barG]^2$
inseriamo ora lo sviluppo, sommiamo ed otteniamo la formula cercata.

harperf
Caspita, non mi ero accorto finora di questa risposta tuttavia resto ancora col dubbio e spero di poterne ancora parlare con te o chi mi vorrà aiutare.

La dimostrazione che proponi è proprio quella del libro infatti, è da tale dimostrazione esce proprio la propagazione gaussiana di cui accennavo e da quel calcolo sotto radice si moltiplica proprio sigma della misura al quadrato per la derivata parziale anch'esa quadrata. (Si noti che è proprio sigma e non è divisa per radice di N!)
Il fatto è che il valore dell'errore che si associa a una misura dovrebbe essere il sigma medio, tuttavia vedo che nella pratica si prende sempre il sigma e non il sigma medio delle singole misure per propagarne l'errore da associare. Nel documento linkato si veda pag. 5
http://www0.mi.infn.it/~camera/lab-fisi ... C-2013.pdf
(è un esempio trovato online ma anche il libro e nella pratica si fa sempre così) e l'errore che trova lo associa alla misura, io l'avrei prima diviso per radice di N per le considerazioni suddette.

Non capisco proprio il perché :(

cooper1
ah ho capito adesso il tuo dubbio, pensavo non avessi capito perchè la dev standard della misura indiretta non fosse la dev standard della media. pardon!
venendo al dubbio reale: semplicemente si usano quelli perchè nella formula della propagazione dimostrata sopra escono del deviazioni standard e non le dev standard della media. se infatti svolgi i conti ti accorgerai che avrai espressioni del tipo $1/N sum_i (x_i - barx)^2$ e questa è la definizione di $sigma_(x)^(2)$ e non $sigma_(barx)^(2)$

harperf
Grazie ancora :)

Ok ora sono riuscito a farti intendere il dubbio nonostante la mia scarsa dote espressiva.
Il problema però è che la dimostrazione va a cercare il $\sigma_G$ di G e tale G lo potrei pensare come una misura, tale misura ha un sigma associato che è quello che esce dalla dimostrazione.
Io conosco anche il $barG$ e ad esso non dovrei associare il $\sigma_(G_m)$

Facciamo un parallelelismo:
ho $x_i$ misure,di queste faccio la media $barx$ e la deviazione standard su $x_i$, la vado a dividere per radice di N e trovo $\sigma_m$

Ho la G, ho dimostrato la G media essere G(barx,bary,barz), ho ricavato sul G la sua sigma $\sigmaG$ da $sigma_(G)^(2)=1/Nsum_i[G_i- barG]^2$
Non posso scrivere $barG=barG+-\sigma_G$ ma $\barG=barG+-sigma_(G_m)$ a logica perché potrei pensare il G medio come distibuito su una gaussiana con propria sigma pari a $sigma_(G_m)=sigma_G/sqrtN$

cooper1
nel caso di misure dirette noi prendiamo la media e la dev standard della media grazie al teorema del limite centrale che ci dice che la media di un campione di N misure ha distribuzione normale con media del campione e dev standard la dev standard della media. quando la grandezza è derivata, si dimostra che se le misure sono normalmente distribuite allora G è distribuita normalmente attorno alla suo valore vero con larghezza pari alla formula in quadratura. noi facciamo saltar fuori l'ipotesi di normalità quando assumiamo che la miglior stima del valore vero è la media di G (come con le misure dirette si aveva la media) e quando assumiamo che la miglior stima della dev standard sia la dev standard della media di G (come lo era nelle misure dirette). avendo però poi diverse realizzazioni di G dobbiamo sommare e quindi otteniamo i due valori che abbiamo calcolato.

harperf
Ci ho ragionato su un po' ma credo non mi sia chiaro il passaggio
"cooper":
noi facciamo saltar fuori l'ipotesi di normalità quando assumiamo che la miglior stima del valore vero è la media di G (come con le misure dirette si aveva la media) e quando assumiamo che la miglior stima della dev standard sia la dev standard della media di G (come lo era nelle misure dirette).


Mi sembrava mi dessi ragione sul fatto ci vadail sigma medio di G, però poi dici:

avendo però poi diverse realizzazioni di G dobbiamo sommare e quindi otteniamo i due valori che abbiamo calcolato

E mi perdo per due valori intendi sigma G e G medio? :roll:

cooper1
"harperf":
E mi perdo per due valori intendi sigma G e G medio?

sigma G dato dalla propagazione e il G medio, sì.
l'ipotesi di sigma della media (in analogia con il caso delle misure dirette) la usi per "indovinare" la miglior stima della dev standard della G (assumiamo abbia come dev standard la somma delle dev standard della media delle sue singole realizzazioni).

harperf
Continuo a non esserci, la stima della dev. standard deriva dalla $sigma_(G)^(2)=1/Nsum_i[G_i- barG]^2$ che è identica a $sigma_(G)^(2)=1/Nsum_i[x_i- barx]^2$
che dovrebbe essere il sigma che metto nella distribuzione di gauss
dunque mi aspetterei peril G(medio) un sigma medio di
$sigma_(G)=sqrt(1/Nsum_i[G_i- barG]^2)/(sqrtN)$.

:oops:

cooper1
ho capito da dove può nascere l'incomprensione: ho usato una notazione fuourviante. con $G_i$ intendevo non che ci siano più G ma che sia la G valutata nelle diverse realizzazioni $x_i,y_i,...$. in pratica ho dato per scontato questa cosa: $G_i:=G(x_i,y_i,z_i,...)$. in termini di questa la cosa è analoga alla dev standard della media di x, ma non identica e quindi dobbiamo sostituirci il suo sviluppo di Taylor per poter determinare la varianza di G.

harperf
Però scusa ad ogni n-upla $(x_i,y_i,z_i,...)$ in realtà corrispondono proprio diverse $G_i$, infatti stimo il $barG$,cioè la media dei diversi $G_i$ che escono da diverse variabili aleatorie che lo compongono, di cui poi stimo il sigma sulla distribuzione $G_i$.

cooper1
quello si ma la parola chiave è "stimo". tu la G media l'hai appunto stimata con Taylor. devi fare la stessa cosa con la deviazione standard. la sottolineatura che ho fatto nel messaggio prima era per dire che quella non è una cosa che a priori sappiamo ma che andiamo a stimare in qualche modo. perchè se per tutte le $G_i$ prendessimo come approssimazione e $barG$ e basta, avremmo sempre $sigma_(G)^(2)=0$

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.