Metodo dell'interpolazione polinomiale di Lagrange
Sapete dirmi di cosa si tratta e a cosa serve?
Grazie.
Grazie.
Risposte
non so se sia il metodo di Lagrange, comunque di interpolazione conosco questa:
se hai un set di dati $[x_i;y_i]$ e supponi che ci sia una relazione tra le x e le y, una bella funzione f(x) insomma, e vuoi conoscere il valore di y in una x di cui non hai il dato sperimentale, procedi minimizzando il $chi^2$ ossia $chi^2=SUM(x_i-f(x_i))^2/(sigma_y)^2$ (tralascio la dimostrazione perchè non vorrei scrivere cavolate) (NOTA: qui ho considerato trascurabile l'errore sulle x)
dalla funzione puoi dunque calcolarti il valore di y per qualunque x, ovviamente con un errore che ti puoi calcolare con semplicità a partire dagli errori dei parametri che ti sei trovato minimizzando il chi quadro.
forse non sono stato chiaro, ma ci sarebbe veramente un bel po' di roba da dire... forse ti conviene prendere un libro che parli di Analisi degli Errori (o forse anche di Statistica va bene)
se hai un set di dati $[x_i;y_i]$ e supponi che ci sia una relazione tra le x e le y, una bella funzione f(x) insomma, e vuoi conoscere il valore di y in una x di cui non hai il dato sperimentale, procedi minimizzando il $chi^2$ ossia $chi^2=SUM(x_i-f(x_i))^2/(sigma_y)^2$ (tralascio la dimostrazione perchè non vorrei scrivere cavolate) (NOTA: qui ho considerato trascurabile l'errore sulle x)
dalla funzione puoi dunque calcolarti il valore di y per qualunque x, ovviamente con un errore che ti puoi calcolare con semplicità a partire dagli errori dei parametri che ti sei trovato minimizzando il chi quadro.
forse non sono stato chiaro, ma ci sarebbe veramente un bel po' di roba da dire... forse ti conviene prendere un libro che parli di Analisi degli Errori (o forse anche di Statistica va bene)
www.afs.enea.it/gianness/ corso_analisi/pdf/ipolinomiale.pdf
Wedge, quella che hai descritto tu è l'interpolazione ai minimi quadrati. La sostanziale differenza con l'interpolazione di lagrange è che l'interpolante ottenuta con una minimizzazione dell'errore non necessariamente passa per i poli che tu dai come input, mentre l'nterpolazione di langrange si, in quanto il grado del polinomio dipende dal numero di poli (per l'esattezza se N è il numero di poli otterrai un polinomio di grado N+1).
Un ulteriore vantaggio di questo tipo di interpolazione rispetto a scegliere un generico polinomio di grado N+1 è la semplicità con cui si possono calcolare i coefficienti.
P.S. su un libro di statistica i polinomi di lagrange non li trovi. Prenditi un qualsiasi libro di calcolo numerico o guarda su internet. Google rules!
Wedge, quella che hai descritto tu è l'interpolazione ai minimi quadrati. La sostanziale differenza con l'interpolazione di lagrange è che l'interpolante ottenuta con una minimizzazione dell'errore non necessariamente passa per i poli che tu dai come input, mentre l'nterpolazione di langrange si, in quanto il grado del polinomio dipende dal numero di poli (per l'esattezza se N è il numero di poli otterrai un polinomio di grado N+1).
Un ulteriore vantaggio di questo tipo di interpolazione rispetto a scegliere un generico polinomio di grado N+1 è la semplicità con cui si possono calcolare i coefficienti.
P.S. su un libro di statistica i polinomi di lagrange non li trovi. Prenditi un qualsiasi libro di calcolo numerico o guarda su internet. Google rules!
Ok grazie ad entrambi per le info e per il link. Cercherò anche su google.
L'interpolazione di Lagrange consente di trovare un polinomio che passi per tutti i nodi da interpolare.
Se si hanno infatti $n$ coppie di valori $y_1,y_2,...,y_n$ e $x_1,x_2,...x_n$ esiste un unico polinomio $p_n(x) \in \mathbb{P}_n[RR]$ tale che:
$ p_n(x_i)=y_i $
L'idea é costruire questo polinomio partendo da una base di $\mathbb{P}_n$. A seconda della base scelta si parla di interpolazione di Lagrange, Chebyshev, Legendre o Gauss...
Nel caso si scelga la base di Lagrnage i polinomi di base sono:
$ l_i(x)=\prod_{{: (j=1),(j\ne i) :}}^n (x-x_j)/(x_i-x_j) $
per i quali vale:
$ l_i(x_j)=\delta_{ij} $
e quindi il polinomio approssimante si ottiene ponendo:
$ p_n(x)=\sum_{i=1}^n y_i l_i(x) $
La tecnica di Lagrange non serve tanto per approssimare dati e/o fare previsioni (come invece la tecnica ai minimi quadrati di cui parlava Wedge), ma ha grande importanza come ingrediente per metodi di integrazione numerica e, soprattutto, per gli elementi finiti.
Di solito si fanno approssimazioni con polinomi di grado basso altrimenti l'approssimazione della funzione ipotetica che genera i dati e' pessima (teorema di Erdos) suddividendo l'intervallo $[x_1,x_n]$ (*) in molti sottointervalli piccoli. In questo caso si parla di approssimazione composita.
Per dare un'idea negli elementi finiti si usano approssimazioni con polinomi raramente di grado maggiore di due approssimando le funzioni su moltissimi intervalli.
E' possibile estendere questa tecnica al caso multidimensionale con polinomi di piu' variabili.
-------------------------------
(*) suppongo i dati ordinati.
*** EDIT ***
Ovviamente nella formula degli $l_i$ ci voleva $j\ne i$, altrimenti gli $l_i$ non sono ben definiti!
Se si hanno infatti $n$ coppie di valori $y_1,y_2,...,y_n$ e $x_1,x_2,...x_n$ esiste un unico polinomio $p_n(x) \in \mathbb{P}_n[RR]$ tale che:
$ p_n(x_i)=y_i $
L'idea é costruire questo polinomio partendo da una base di $\mathbb{P}_n$. A seconda della base scelta si parla di interpolazione di Lagrange, Chebyshev, Legendre o Gauss...
Nel caso si scelga la base di Lagrnage i polinomi di base sono:
$ l_i(x)=\prod_{{: (j=1),(j\ne i) :}}^n (x-x_j)/(x_i-x_j) $
per i quali vale:
$ l_i(x_j)=\delta_{ij} $
e quindi il polinomio approssimante si ottiene ponendo:
$ p_n(x)=\sum_{i=1}^n y_i l_i(x) $
La tecnica di Lagrange non serve tanto per approssimare dati e/o fare previsioni (come invece la tecnica ai minimi quadrati di cui parlava Wedge), ma ha grande importanza come ingrediente per metodi di integrazione numerica e, soprattutto, per gli elementi finiti.
Di solito si fanno approssimazioni con polinomi di grado basso altrimenti l'approssimazione della funzione ipotetica che genera i dati e' pessima (teorema di Erdos) suddividendo l'intervallo $[x_1,x_n]$ (*) in molti sottointervalli piccoli. In questo caso si parla di approssimazione composita.
Per dare un'idea negli elementi finiti si usano approssimazioni con polinomi raramente di grado maggiore di due approssimando le funzioni su moltissimi intervalli.
E' possibile estendere questa tecnica al caso multidimensionale con polinomi di piu' variabili.
-------------------------------
(*) suppongo i dati ordinati.
*** EDIT ***
Ovviamente nella formula degli $l_i$ ci voleva $j\ne i$, altrimenti gli $l_i$ non sono ben definiti!