Metodo di Newton-Raphson
Ciao a tutti,
sto preparando l'esame di calcolo numerico e mi sto focalizzando sulla parte relativa alla ricerca degli zeri di una funzione, nello specifico il metodo di Newton-Raphson.
Il mio libro spiega che con questo metodo si approssima il valore della radice a quello che si ottiene intersecando la tangente alla funzione con l'asse x ed è per questo che entra in gioco anche la derivata prima della funzione.
Ora volevo chiedervi una cosa...
Il punto di partenza $x_0$ ovvero il punto di "contatto" tra la funzione e la retta tangente, è scelto arbitrariamente oppure c'è un metodo specifico? Sto consultando diverse guide e non riesco a capirlo
Grazie in anticipo.
Buona domenica!
sto preparando l'esame di calcolo numerico e mi sto focalizzando sulla parte relativa alla ricerca degli zeri di una funzione, nello specifico il metodo di Newton-Raphson.
Il mio libro spiega che con questo metodo si approssima il valore della radice a quello che si ottiene intersecando la tangente alla funzione con l'asse x ed è per questo che entra in gioco anche la derivata prima della funzione.
Ora volevo chiedervi una cosa...
Il punto di partenza $x_0$ ovvero il punto di "contatto" tra la funzione e la retta tangente, è scelto arbitrariamente oppure c'è un metodo specifico? Sto consultando diverse guide e non riesco a capirlo

Grazie in anticipo.
Buona domenica!
Risposte
La risposta giusta sarebbe "devi prendere \(x_0\) più vicino possibile alla soluzione esatta \(\alpha\).
Ovviamente, questo presuppone che tu abbia qualche informazione su \(\alpha\), il che di solito non è vero, e quindi è una sorta di gatto che si morde la coda.
Se hai un grafico \(y = f(x)\) della funzione e fai qualche schizzo delle iterazioni, cioè diesegnando tangenti e quant'altro, ti accorgerai che entra in gioco la concavità/convessità della funzione, e che quindi non sempre il metodo è convergente; come sopra, in genere non hai informazioni sulla derivata seconda della funzione, oppure è troppo difficile/costoso calcolarla.
Per dare una risposta alla tua domanda, quindi, in generale si prende un \(x_0\) tenendo conto dei criteri di cui sopra, se possibile, altrimenti si va "ad occhio" [o "a caso"].
Ovviamente, questo presuppone che tu abbia qualche informazione su \(\alpha\), il che di solito non è vero, e quindi è una sorta di gatto che si morde la coda.
Se hai un grafico \(y = f(x)\) della funzione e fai qualche schizzo delle iterazioni, cioè diesegnando tangenti e quant'altro, ti accorgerai che entra in gioco la concavità/convessità della funzione, e che quindi non sempre il metodo è convergente; come sopra, in genere non hai informazioni sulla derivata seconda della funzione, oppure è troppo difficile/costoso calcolarla.
Per dare una risposta alla tua domanda, quindi, in generale si prende un \(x_0\) tenendo conto dei criteri di cui sopra, se possibile, altrimenti si va "ad occhio" [o "a caso"].
Ti ringrazio per la risposta.
In merito al calcolo dell'errore di approssimazione ho un dubbio.
La formula per calcolarlo è (o forse è meglio dire "dovrebbe essere") $e= x_k - x_e$ dove con $x_k$ intendo l'approssimazione della soluzione cercata al passo $k$ e $x_e$ è la soluzione esatta.
Fin quando l'esercizio riguarda un polinomio di grado non superiore a 3 non ci sono problemi perchè so qual è la soluzione esatta. Ovviamente però non sempre l'esercizio è così facile (e menomale!
) e quindi non ho la men che minima idea del valore di $x_e$.
In questo caso come si procede?
In merito al calcolo dell'errore di approssimazione ho un dubbio.
La formula per calcolarlo è (o forse è meglio dire "dovrebbe essere") $e= x_k - x_e$ dove con $x_k$ intendo l'approssimazione della soluzione cercata al passo $k$ e $x_e$ è la soluzione esatta.
Fin quando l'esercizio riguarda un polinomio di grado non superiore a 3 non ci sono problemi perchè so qual è la soluzione esatta. Ovviamente però non sempre l'esercizio è così facile (e menomale!

In questo caso come si procede?
Ci sono appositi teoremi che forniscono stime a priori o a posteriori.
Ad esempio, col metodo di Newton una stima a posteriori molto usata è quella basata sulla differenza tra iterate successive: \(|x_{k+1} - x_k|\).
In generale, puoi trovare maggiori dettagli sul libro, sotto le voci "stime d'errore" o "criteri d'arresto".
Ad esempio, col metodo di Newton una stima a posteriori molto usata è quella basata sulla differenza tra iterate successive: \(|x_{k+1} - x_k|\).
In generale, puoi trovare maggiori dettagli sul libro, sotto le voci "stime d'errore" o "criteri d'arresto".