Approssimazione di $Deltaf$ e differenziale

Sk_Anonymous
Salve, volevo avere dei chiarimenti sull'argomento seguente.
Supponiamo di avere una funzione $f(x)$ e consideriamo un punto $x_0$ appartenente al dominio di $f$. Consideriamo poi un altro punto $x_0+h$, con $h$ abbastanza piccolo in modo tale che anche $x_0+h$ appartenga a $domf$. Consideriamo dunque l'incremento subìto dalla funzione in conseguenza della variazione del suo argomento, cioè la quantità $f(x_0+h)-f(x_0)=Deltaf$, che dipende da $h$. Quest'ultima funzione di $h$ che ho scritto, in generale sarà una funzione non lineare in $h$, cioè al raddoppiare di $h$ essa non raddoppierà semplicemente; posso dunque chiedermi come fare per approssimare questa quantità in una quantità lineare in $h$. La risposta viene dal concetto di derivata, e, da semplici considerazioni geometriche, si deduce che l'incremento $Deltaf$ della funzione è linearizzato da una funzione, che dipende da $h$ ovviamente, del tipo $h*f'(x_0)$, funzione che è chiamata differenziale di $f(x)$ nel punto $x_0$. Fin qui tutto bene.
A questo punto è d'obbligo chiedermi quale errore è stato commesso nell'approssimazione. Informazioni sull'errore le posso ricavare dalla definizione di derivata; vale infatti la seguente uguaglianza: $(f(x_0+h)-f(x_0))/h=f'(x_0)+e(h)$, dove $e(h)$ è una funzione incognita di $h$. Dal momento che se $h$ tende a zero il primo membro dell'equazione tende alla derivata $f'(x_0)$, $e(h)$ deve essere una quantità infinitesima. Inoltre, moltiplicando entrambi i membri per $h$ si ottiene:
$f(x_0+h)-f(x_0)=hf'(x_0)+he(h)$. Questa relazione rappresenta, se vogliamo, un modo alternativo per giungere alla definizione di differenziale senza fare considerazioni di carattere geometrico. Essa può essere scritta anche così:
$f(x_0+h)-f(x_0)-hf'(x_0)=he(h)$. Quest'ultima equazione ci dice che l'errore $he(h)$ commesso nell'approssimazione dell'incremento $Deltaf$ con il differenziale è una quantità infinitesima, quando $h->0$. Inoltre, se andiamo a considerare la funzione $(he(h))/h$ e ne andiamo a fare il limite per $h->0$, osserviamo che tale limite è zero. L'ultima cosa appena detta è importante ai fini dell'approssimazione. Infatti, dimostrare che $(he(h))/h$ è infinitesima per $h$ che tende a zero, significa dire che l'errore di approssimazione $he(h)$ è un infinitesimo di ordine superiore rispetto all'incremento $h$, e quindi ciò significa che, quando $h$ è molto vicino a zero, l'approssimazione E' EFFICIENTE, in quanto so che l'errore $he(h)$ è più piccolo di $h$: per esempio, se $h=0,2$, $he(h)=0,19$. In breve, la CORRETTEZZA dell'approssimazione sta nell'aver dimostrato che l'errore diviso l'incremento, al tendere a zero di quest'ultimo, tende a zero più velocemente dell'incremento stesso e quindi POSSO CONTROLLARE l'errore di approssimazione, in quanto so che se $h$ è abbastanza vicino a zero, l'errore non può SUPERARE $h$.
Qualora si fosse verificato che l'errore di approssimazione non fosse stato un infinitesimo di ordine superiore rispetto all'incremento $h$, allora ciò avrebbe comportato l'impossibilità di tenere "sott'occhio" l'errore di approssimazione, e l'approssimazione sarebbe stata IN GENERALE poco efficiente.
E' corretto? Grazie mille.

Risposte
Sk_Anonymous
Per esempio, consideriamo $f(x)=x^3/sqrt(1+x^2)$ e $f'(x)=(2x^4+3x^2)/(x^2+1)^(3/2)$
Sia $x_0=1$ e $x_1=1+h$.
Si ha che $(1+h)^3/sqrt(1+(1+h)^2)-1/sqrt2=(5h)/sqrt8+o(h)$. Facendo delle "prove", si verifica che per valori di $h$ minori di circa $0,9$, l'errore commesso nell'approssimazione è minore di $h$, mentre, per valori di $h$ maggiori di $0,9$, l'errore inizia a superare h stesso. Ciò è confermato anche dal grafico della "funzione errore" e della funzione $h$: la funzione errore
$(1+h)^3/sqrt(1+(1+h)^2)-1/sqrt2-(5h)/sqrt8$ diventa maggiore della funzione $h$ per $h$ maggiore di circa $0,9$. Per valori minori, il grafico della funzione errore sta sotto il grafico della retta $h$.
Insomma, quello che ho detto al primo post dovrebbe essere corretto no?
Grazie.
http://i42.tinypic.com/nqer2b.jpg

Sk_Anonymous
In realtà, quando scrivi:

$[f(x_0+h)=f(x_0)+f'(x_0)h+e(h)]$

non solo banalmente:

$[lim_(h->0)e(h)=0]$

ma addirittura:

$[lim_(h->0)(e(h))/h=0] rarr [e(h)=o(h)]$

Quindi, utilizzando la definizione per il seguente limite:

$[lim_(h->0)(e(h))/h=0]$

e ponendo $[epsilon=1]$, senz'altro esiste un intorno di $[x_0]$ tale che:

$[|(e(h))/h|

Sk_Anonymous
"speculor":


Quindi, utilizzando la definizione per il seguente limite:

$[lim_(h->0)(e(h))/h=0]$

e ponendo $[epsilon=1]$, senz'altro esiste un intorno di $[x_0]$ tale che:

$[|(e(h))/h|
Non ti sei dimenticato un $h$?

Sk_Anonymous
"lisdap":

Non ti sei dimenticato un $h$?

Onestamente, non mi pare.

Sk_Anonymous
"speculor":
In realtà, quando scrivi:

$[f(x_0+h)=f(x_0)+f'(x_0)h+e(h)]$


Non è $h*e(h)$?
Forse tu stai usando una notazione diversa dalla mia?
Io ho scritto $(f(x_0+h)-f(x_0))/h=f'(x_0)+e(h)$, da cui, moltiplicando ambo i membri per $h$, si ha che $f(x_0+h)-f(x_0)=hf'(x_0)+he(h)$.

Sk_Anonymous
Visto che eri interessato all'errore, ho preferito indicare con $[e(h)]$ l'errore che si commette sostituendo al grafico della funzione quello della retta tangente. Questione di gusti. Piuttosto, tu hai fatto un po' di confusione nel primo messaggio.

Sk_Anonymous
"speculor":
Piuttosto, tu hai fatto un po' di confusione nel primo messaggio.

Per esempio?
Dove ho sbagliato? Grazie.

Sk_Anonymous
Hai ragione, è corretto. Pensavo avessi indicato con $[e(h)]$ l'errore, invece per te l'errore è $[he(h)]$. In ogni modo, se non ti soddisfano le mie notazioni, puoi tradurle nelle tue. Anche se parlando di errore, nel corso della dimostrazione, le mie notazioni mi sembrano più immediate.

Sk_Anonymous
"speculor":
Hai ragione, è corretto. Pensavo avessi indicato con $[e(h)]$ l'errore, invece per te l'errore è $[he(h)]$. In ogni modo, se non ti soddisfano le mie notazioni, puoi tradurle nelle tue. Anche se parlando di errore, nel corso della dimostrazione, le mie notazioni mi sembrano più immediate.

Ok, grazie.
Quindi il punto della questione è questo.
Considero l'equazione $f(x_0+h)-f(x_0)=hf'(x_0)+he(h)$. Questa equazione, che viene fuori da un modo alternativo di scrivere la derivata, mi dice che il vero incremento della funzione, che è una quantità variabile funzione di $h$, è pari alla somma dell'incremento lineare calcolato sulla retta tangente e di un errore $he(h)$.
Ora non è detto che $hf'(x_0)$ sia una buona approssimazione di $Deltaf$ in un intorno di $x_0$. Però, il fatto che si verifica che:
1) l'errore $he(h)$ è infinitesimo per $h->0$;
2) l'errore $he(h)$ è infinitesimo di ordine superiore rispetto ad $h$, per $h->0$
mi assicura, come hai detto tu, che esiste un intorno di $x_0$ in cui l'errore $he(h)$ è minore dell'incremento $h$:
questo dunque è sufficiente per assicurarmi che l'approssimazione "è buona", in quanto so che per $h$ abbastanza piccolo l'errore $he(h)$ non "va per i fatti suoi" ma è costretto a rimanere minore di $h$.
Scusa per la ripetitività, ma voglio essere sicuro di aver compreso bene questo argomento.
Grazie.

Sk_Anonymous
Corretto. Solo una precisazione:
"lisdap":

2) l'errore $he(h)$ è infinitesimo di ordine superiore rispetto ad $h$, per $h->0$
mi assicura, come hai detto tu, che esiste un intorno di $x_0$ in cui l'errore $he(h)$ è minore dell'incremento $h$:
questo dunque è sufficiente per assicurarmi che l'approssimazione "è buona", in quanto so che per $h$ abbastanza piccolo l'errore $he(h)$ non "va per i fatti suoi" ma è costretto a rimanere minore di $h$.

Si dovrebbe dimostrare che meglio non si può fare. Pur essendo probabilmente banale dimostrarlo rigorosamente, ora non ricordo. Dovrebbe essere legato all'unicità del differenziale.

Sk_Anonymous
Ok grazie, finalmente la questione del differenziale mi è chiara.
Un altro dubbio ce l'ho sulla seguente questione, in particolare sulla differenza tra approssimazione dell'incremento della funzione e l'approssimazione di funzione.
Data una funzione $f(x)$, finora abbiamo parlato dell'approssimazione di $Deltaf$ con una quantità lineare, il differenziale $df$ di $f(x)$. Dell'approssimazione di una funzione (non del suo incremento), nulla abbiamo detto. Tuttavia, approssimazione dell'incremento di una funzione (che è quanto abbiamo detto finora) e approssimazione di funzione sono due concetti molto vicini.
Infatti, data una funzione $f(x)$, abbiamo visto che possiamo scrivere che $Deltaf(x_0)=df(x_0)+o(h)$.
Quest'ultima formula la posso leggere in due modi:
1) l'incremento della funzione $f(x)$ è pari alla somma dell'incremento lineare e di un errore di approssimazione;
2) la funzione $Deltaf(x_0)$, funzione che dipende da $h$, E' APPROSSIMATA DALLA FUNZIONE $df(x_0)$ e da un errore $o(h)$, in un intorno di $x_0$.
Insomma, l'aver introdotto il concetto di differenziale e di approssimazione dell'INCREMENTO di una funzione apre in modo naturale la strada al concetto di APPROSSIMAZIONE DI UNA FUNZIONE.
? :-D
Grazie.

Sk_Anonymous
Anche perchè, una volta determinata l'approssimazione di $[Deltaf(x_0)]$, per determinare quella di $[f(x)]$ in un intorno di $[x_0]$, basta sommare la costante $[f(x_0)]$.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.