Distinzione fra differenziale e derivata in R^2

nuwanda1
Ragazzi mi scuso in anticipo per la domanda vergognosa che sto per farvi, ma sono anni che cerco una risposta che al momento non è stata soddisfacente... come da titolo, quando devo usare la derivata e quando il differenziale? Su internet ho trovato tante definizioni: in ciccia, per me la derivata di una funzione è il limite del rapporto incrementale mentre il differenziale è l'approssimazione lineare della funzione nel punto.

Vi spiego dove mi sono bloccato. Negli appunti ho trovato quanto segue: " sia $F: Omega -> RR$ una funzione $C^1$ allora poniamo $dF := (deltaF)/ (deltax) dx + (deltaF) / (deltay) dy$, con $(deltaF)/ (deltax)$ e $(deltaF) /(deltay)$ differenziale di F" (poi scopriremo che questa $F$ è la primitiva di una forma differenziale, ma questa è un'altra storia :) )... ecco, le domande che mi faccio sono: $dF$ è la derivata o il differenziale di F? perchè $(deltaF)/ (deltax)$ e $(deltaF) /(deltay)$ sono il differenziale di F? Per me erano semplicemente delle derivate parziali...

Risposte
gugo82
Ah, vabbé... Allora i differenziali non li hai mai usati come Leibniz. Quindi che lo citi a fare? :lol:

valerio cavolaccio
Io studio fisica, noi le equazioni differenziali (quando sappiamo risolvere XD) le impostiamo con la notazione di Leibniz. Cioè se scriviamo $f'(x)=f(x)$ allora la risolviamo pensando a f' come rapporto fra differenziali.

gugo82
Bravo... E quindi?
Lo sai bene pure tu che quel metodo lì, sebbene utilissimo a livello pratico/mnemonico, non è quello corretto.
D'altra parte, non è nemmeno corretto pensare alla derivata come rapporto di incrementi.
Lo so che il "senso fisico" (ed euristico) della cosa è proprio in queste immagini qui, ma esse, per quanto utili, non corrispondono (anzi, mascherano) e non vanno confuse con la "verità matematica" cui esse soggiacciono.

Ad ogni modo, ritornando IT, dobbiamo aspettare che nuwanda ci illumini riguardo le sue conoscenze circa il differenziale.

nuwanda1
Ragazzi se aspettate me per illuminarvi state lustri... mi pare d'averci un cerino in mano!!

In realtà so che il differenziale è $df=sum_(i = 1)^n (deltaf)/(deltax_i) dx_i$ ed è un funzionale di $RR^2$... mi vengono in mente altre definizioni, ma in pratica non riesco a figurarmelo!

Ma quindi $dg(z)=f(z)dz -> g'(z) = f(z)$, come si risolve? Apparte la notazione di Leibniz (che per quanto mi possa risolvere molti problemi, e sono tanti credetemi, non credo vada bene come risposta ad un possibile orale), come posso giustificarlo?

Inoltre mi sorgono altri due dubbi:
1) Che relazione c'è tra $(deltaf)/(deltaz)$ e $(df)/dz$?
2) Che significa dividere per $dz$? (spiego meglio: è solo una semplice divisione algebrica, oppure cambia qualcosa a livello di differenziale/derivata?)

4mrkv
In una variabile \(\mbox{d}x:\mathbb{R}\rightarrow \mathbb{R}\) è tale che \(\mbox{d}x(x)=x\) (quella in più variabili è \(\mbox{d}x_{i}(x)=x_{i}\)). Così il differenziale di una funzione di una variabile in \(a \in \mathbb{R}\) diventa \(\mbox{d}f(a)=f'(a)\mbox{d}x\) ed è una funzione \(x\mapsto f'(a)\mbox{d}x(x)=f'(a)x\). Se anche per funzioni complesse vale con \(z_{0}\in \mathbb{C}\) la formula \(\mbox{d}f(z_{0})=f'(z_{0})\mbox{d}z\) allora allora stai semplicemente dividendo.

gugo82
"nuwanda":
In realtà so che il differenziale è $df=sum_(i = 1)^n (deltaf)/(deltax_i) dx_i$ ed è un funzionale di $RR^2$... mi vengono in mente altre definizioni, ma in pratica non riesco a figurarmelo!

E che ti vuoi figurare di più? :lol:

Ad ogni modo, è esatto.
In pratica:
Qualsiasi sia lo spazio \(\mathbb{K}^N\) (qui si può prendere indifferentemente \(\mathbb{K}=\mathbb{R}\) o \(= \mathbb{C}\))[nota]Si potrebbero prendere pure un qualsiasi spazio vettoriale normato finito-dimensionale \(\mathbb{V}\) sul campo \(\mathbb{K}=\mathbb{R}\) o \(=\mathbb{C}\) ed \(f:\mathbb{V}\to \mathbb{K}\).[/nota], una funzione \(f:\mathbb{K}^N\to \mathbb{K}\) è detta differenziabile in \(x_0\) se esiste un funzionale lineare \(L=L(x_0;\cdot ):\mathbb{K}^N\to \mathbb{K}\) tale che:
\[
\lim_{x\to x_0} \frac{|f(x)-f(x_0)-L(x_0; x-x_0)|}{|x-x_0|} =0
\]
ossia tale che:
\[
f(x) = f(x_0)+L(x_0;x-x_0)+\text{o}(|x-x_0|)\; .
\]
L'applicazione lineare \(L(x_0;\cdot)\) si chiama differenziale di \(f\) in \(x_0\).

Questa nozione di differenziale, dovuta a Gateaux, ha diverse conseguenze importanti.

    La prima, evidentemente, è la continuità di \(f\) nei punti di differenziabilità.


    La seconda è l'esistenza di tutte le derivate di Fréchet (ossia le derivate direzionali) di \(f\) nei punti di differenziabilità.


    La terza è la formula di rappresentazione del differenziale, ossia l'uguaglianza:
    \[
    L(x_0;h)=\langle \nabla f(x_0), h\rangle = \sum_{n=1}^N \frac{\partial f}{\partial x^n} (x_0)\ h^n
    \]
    in cui le derivate \(\frac{\partial f}{\partial x^n} (x_0)\) denotano le derivate di Fréchet fatte rispetto ai versori della base canonica di \(\mathbb{E}^N\) (i.e. le cosiddette derivate parziali di \(f\)) e \(\langle \cdot ,\cdot \rangle\) denota il prodotto scalare standard di \(\mathbb{K}^N\), che vale per ogni \(h=(h^1,\ldots ,h^N)\in \mathbb{K}^N\). Tale rappresentazione viene fuori quando si fissa il riferimento canonico in \(\mathbb{K}^N\) e discende dal fatto che ogni funzionale lineare si rappresenta mediante il prodotto scalare standard.


    La quarta, che è quella importante nelle applicazioni fisico/ingegneristiche, è che localmente intorno a \(x_0\) vale l'approssimazione:
    \[
    f(x) \approx f(x_0)+\sum_{n=1}^N \frac{\partial f}{\partial x^n} (x_0)\ (x^n-x_0^n)\; ,
    \]
    la quale è lineare nelle variabili \(x^1,\ldots, x^N\) (quindi i conti si fanno semplici, usandola!).[/list:u:2u7bnh7e]

    Ora, per motivi di tradizione e di snellezza notazionale, quasi sempre il differenziale \(L(x_0;h)\) si denota con \(\text{d}f\) omettendo di fatto sia la dipendenza di tale funzionale dal punto \(x_0\) sia la dipendenza dalla vera variabile da cui il differenziale dipende, cioé il generico vettore \(h\in \mathbb{K}^N\).
    Una notazione meno snella, ma più corretta, potrebbe essere \(\text{d} f(x_0;h)\)... Ma non si incontra quasi mai, men che meno nei testi applicativi, per i quali \(\text{d} f\) è semplicemente una scorciatoia per \(\delta f = f(x)-f(x_0)\) quando tale quantità è "piccola".

    Nel caso \(N=1\) (cioé in spazi monodimensionali, come \(\mathbb{R}\) o \(\mathbb{C}\)), il differenziale si rappresenta in maniera semplice, perché di fatto c'è un'unica derivata direzionale di cui tener conto.
    Se, come al solito, si conviene di denotare tale derivata col simbolo \(f^\prime\), il differenziale di \(f\) in \(x_0\) è l'applicazione di \(\text{d} f(x_0;\cdot ):\mathbb{K}\to \mathbb{K}\) definita dall'assegnazione:
    \[
    \tag{A}
    \text{d} f(x_0;h):= f^\prime (x_0)\ h\; .
    \]

    Come vedi non c'è alcun \(\text{d} x\) da nessuna parte.
    Ma allora cosa si intende di solito con \(\text{d} x\)?

    Nell'accezione più semplice[nota]Perché ci sono anche accezioni "più complicate", che nascono da questioni di Geometria Differenziale.[/nota], \(\text{d} x\) è semplicemente il differenziale dell'applicazione identica, i.e. \(i:\mathbb{K}\to \mathbb{K}\) che associa \(i(x):=x\); quindi, fissato un qualsiasi punto \(x_0\in \mathbb{K}\), risulta:
    \[
    \tag{B}
    \text{d} x =\text{d} i(x_0;h) = h
    \]
    per ogni \(h\in \mathbb{K}\). In altre parole, risulta:
    \[
    \text{d} i(x_0;h)=i(h)
    \]
    cosicché il differenziale dell'applicazione identica \(i\) coincide con l'applicazione identica stessa in ogni punto.
    Se in (A) usiamo la notazione tradizionale \(\text{d} f\) al primo membro e se inseriamo (B) al secondo membro, possiamo scrivere le cose "alla maniera di Leibniz", cioé scrivere cose del tipo:
    \[
    \text{d} f = f^\prime (x_0)\ \text{d} x
    \]
    che non significano nulla più e nulla meno di quanto abbiamo detto sopra.

    Analogamente, i simboli \(\text{d}x^1,\ldots ,\text{d} x^N\) si usano per denotare i differenziali delle applicazioni \(\mathbb{K}^N\to \mathbb{K}\) definite ponendo:
    \[
    p_n(x^1,\ldots, x^N):=x^n\qquad \text{per } n=1,\ldots ,N
    \]
    (le \(p_n\), praticamente, sono le proiezioni di \(\mathbb{K}^N\) lungo gli assi coordinati).
    Infatti, facendo i conti si trova che in ogni punto \(x_0\) vale:
    \[
    \text{d} x^n =\text{d} p_n(x_0;h) = h^n
    \]
    per ogni \(n=1,\ldots ,N\) ed ogni \(h=(h^1,\ldots ,h^N)\in \mathbb{K}^N\).
    Quindi, con lo stesso artificio formale di prima, la formula di rappresentazione del differenziale:
    \[
    \text{d} f(x_0;h)= \sum_{n=1}^N \frac{\partial f}{\partial x^n}(x_0)\ h^n
    \]
    si riscrive biecamente "alla maniera di Leibniz":
    \[
    \text{d} f= \sum_{n=1}^N \frac{\partial f}{\partial x^n}(x_0)\ \text{d} x^n\; .
    \]

    "nuwanda":
    Ma quindi $dg(z)=f(z)dz -> g'(z) = f(z)$, come si risolve? Apparte la notazione di Leibniz (che per quanto mi possa risolvere molti problemi, e sono tanti credetemi, non credo vada bene come risposta ad un possibile orale), come posso giustificarlo?

    Rifletti su cosa vuol dire la notazione \(\text{d} g=f^\prime (z)\ \text{d} z\) alla luce di quanto detto sopra.
    Praticamente la notazione ti sta dicendo che il differenziale di una funzione \(g\) (la quale dev'essere assunta differenziabile, ovviamente), cioé l'applicazione di \(\mathbb{C}\to \mathbb{C}\):
    \[
    h \mapsto \text{d} g(z_0;h) = g^\prime (z_0)\ h\; ,
    \]
    coincide per ogni \(z_0\) con l'applicazione di \(\mathbb{C}\to \mathbb{C}\):
    \[
    h \mapsto f(z_0)\ h\; .
    \]
    Tali applicazioni coincidono identicamente se e solo se \(g^\prime (z_0)=f(z_0)\) per ogni \(z_0\); quindi hai \(g^\prime (z)=f(z)\) ovunque (in virtù dell'arbitrarietà nella scelta di \(z_0\)).

    "nuwanda":
    Inoltre mi sorgono altri due dubbi: [...]
    2) Che significa dividere per $dz$? (spiego meglio: è solo una semplice divisione algebrica, oppure cambia qualcosa a livello di differenziale/derivata?)

    Facile: non significa assolutamente niente.

    "nuwanda":
    1) Che relazione c'è tra $(deltaf)/(deltaz)$ e $(df)/dz$?

    Eh... Questa è un po' più difficile.
    Formalmente, tu puoi sempre pensare ogni funzione complessa di \(z\) come funzione di \(\operatorname{Re} z\) ed \(\operatorname{Im} z\); dato che:
    \[
    \operatorname{Re} z = \frac{1}{2} (z+\bar{z})\quad \text{e}\quad \operatorname{Im} z = \frac{1}{2\imath} (z-\bar{z})\; ,
    \]
    puoi sempre pensare ogni funzione complessa di \(z\) come funzione della coppia \((z,\bar{z})\). Ad esempio, la funzione \(f(z):=|z|^2\) è funzione della coppia \((z,\bar{z})\), perché \(f(z)=z\bar{z}\).
    Conseguentemente, per ogni funzione complessa \(f\) puoi sempre pensare di calcolare le due "derivate parziali":
    \[
    \frac{\partial f}{\partial z}\qquad \text{e}\qquad \frac{\partial f}{\partial \bar{z}}\; .
    \]
    Si dimostra che gli operatori di "derivazione parziale" \(\frac{\partial}{\partial z}\) e \(\frac{\partial}{\partial \bar{z}}\) sono legati agli operatori di derivazione parziale \(\frac{\partial}{\partial x}\) e \(\frac{\partial}{\partial y}\) (qui si interpreta canonicamente \(x=\operatorname{Re} z\) ed \(y=\operatorname{Im} z\)) nel modo che sai; inoltre si vede che le condizioni di Cauchy-Riemann, necessarie e sufficienti per la derivabilità in senso complesso, si possono riassumere nell'unica condizione:
    \[
    \tag{C}
    \frac{\partial f}{\partial \bar{z}} =0\; .
    \]
    Intuitivamente, la (C) ti sta dicendo che la dipendenza dalla variabile \(\bar{z}\) introdotta nella funzione \(f\) col trucco di cui sopra è una dipendenza fittizia; in altre parole, la \(f\) non dipende in alcun modo dalla variabile \(\bar{z}\), ma è una vera e propria funzione solo della variabile \(z\). Allora è chiaro che la "derivata parziale" \(\frac{\partial f}{\partial z}\) è in realtà una "derivata totale" (proprio perché \(f\) dipende solo ed unicamente da \(z\)) ed allora puoi usare senza colpo ferire la notazione di Leibniz classica, i.e. \(\frac{\text{d} f}{\text{d} z}\); in altre parole, hai:
    \[
    \frac{\partial f}{\partial z} = \frac{\text{d} f}{\text{d} z}\; .
    \]
    Inoltre, la (C) ti assicura che:
    \[
    \frac{\partial f}{\partial z} = f^\prime
    \]
    (i.e., che per ogni \(z_0\) la derivata \(\frac{\partial f}{\partial z}(z_0)\) è il limite del rapporto incrementale complesso visto qualche post più sopra) e da ciò segue che puoi usare per la derivata complessa la notazione di Leibniz:
    \[
    f^\prime = \frac{\text{d} f}{\text{d} z}\; .
    \]

    Questo è quanto.
    Non so quanto sono stato efficace, ma spero di aver fugato qualche tuo dubbio.
    Se c'è qualcosa da chiarire meglio fai un fischio. :wink:

4mrkv
Una domanda riguardante l'integrale complesso che ho letto da qualche parte sul forum
\[
\begin{split}
\mbox{d}z(z)
&=z \\
&=x+iy \\
&=\mbox{d}x(z)+i\mbox{d}y(z) \\
&=(\mbox{d}x+i\mbox{d}y)(z)
\end{split}
\]
Quindi dato che \(f(z)=f_{1}(z)+if_{2}(z)\) ottengo
\[
\begin{split}
f(z)\mbox{d}z
&=f_{1}(z)\mbox{d}x-f_{2}(z)\mbox{d}y+i(f_{2}(z)\mbox{d}x+f_{1}(z)\mbox{d}y) \\
&=\omega(z)+i\omega^{*}(z)
\end{split}
\]
Quando si definisce l'integrale complesso viene fuori una cosa molto simile. Se considero l'ultima formula come una applicazione \(\varphi(x):\mathbb{C}\supset \Omega\rightarrow (\mathbb{C})^{*}\) potrei definire definire in modo abbastanza diretto il suo il suo integrale lungo una curva \(\gamma:\mathbb{R}\supset [a,b]\rightarrow \Omega\) con la formula
\[
\int_{\gamma}\omega(z)+i\int_{\gamma}\omega^{*}(z)
\]
come se fosse un vettore di 1-forme reali, che è proprio l'integrale su \(\gamma\) di \(f(z)\). Esiste una definizione simile dove si considera \(f(x)\mbox{d}z\) una forma differenziale complessa?

Emar1
Leggendo l'esaustiva risposta di gugo82 mi sono rinfrescato un po' le idee.
A parte il fatto che sono un po' a digiuno di spazi duali e funzionali, una cosa che continuo a non capire è in che modo il differenziale dipenda da $\mathbf{h}$ (o $d\mathbf{x}$) che a dir si voglia.

Ho capito la costruzione del differenziale, ma non capisco, nella pratica (per così dire), in quale modo esso dipenda da $\mathbf{h}$. Fissato il punto in cui voglio calcolare il differenziale, esso è dipendente solamente da $\mathbf{h}$. Ma che vuol dire? In che modo lo vedo? Vorrebbe dire che in un punto ci potrebbero essere più "valori" di differenziale per diversi valori di $\mathbf{h}$.


Scusante il leggero OT. Grazie mille in anticipo per le eventuali delucidazioni :wink:

4mrkv
Se non sbaglio, con \(\Omega\) aperto di \(\mathbb{R}\) nello scrivere il rapporto incrementale in \(x_{0}\in \Omega\) si chiede che \(h\neq 0\) e che \(h+x_{0}\in \Omega\) quindi il rapporto è una funzione di \(h\in\Omega-x_{0}\backslash\{0\}\). L'applicazione che soddisfa la definizione di differenziale avrà la forma \(\alpha h\)* ed è precisamente \(f'(x_{0})h\) (per dim.) che può essere definita anche su tutto \(\mathbb{R}\).
\[
\begin{split}

  • \mbox{d}f(x_{0})(h)
    &=g(h) \\
    &=g(e_{1}h_{1})\\
    &=h_{1}f(e_{1}) \\
    &=h\alpha
    \end{split}
    \]
    Con \(h=h_{1}=h_{1}1=h_{1}e_{1}\) per fare l'analogia con il caso in più variabili. Ti consiglio di dare un'occhiata a Calculus on Manifolds - Spivak, nella prima parte è spiegata in modo chiaro la differenziazione su \(\mathbb{R}^{n}\). Se ricavi da solo la formula per la differenziabilià per funzioni ad una variabile a partire dalla definizione di derivata forse capisci meglio.

    Arriverai ad una formula di differenziazione leggermente diversa da quella di gugo, ma nota che scrivendo il limite del rapporto incrementale \(r(x_{0})(h)\) vale \(||\ ||r(x_{0})(h)||\ ||=||r(x_{0})(h)||\).

    gugo82
    "Emar":
    Leggendo l'esaustiva risposta di gugo82 mi sono rinfrescato un po' le idee.
    A parte il fatto che sono un po' a digiuno di spazi duali e funzionali, una cosa che continuo a non capire è in che modo il differenziale dipenda da $\mathbf{h}$ (o $d\mathbf{x}$) che a dir si voglia.
    Ho capito la costruzione del differenziale, ma non capisco, nella pratica (per così dire), in quale modo esso dipenda da $\mathbf{h}$. Fissato il punto in cui voglio calcolare il differenziale, esso è dipendente solamente da $\mathbf{h}$. Ma che vuol dire? In che modo lo vedo?

    Sinceramente, non capisco la domanda.
    Fissato un punto di differenziabilità \(x_0\), il differenziale \(L(x_0;\cdot )\) è un funzionale lineare su \(\mathbb{K}^N\). La variabile da cui dipende la puoi chiamare come vuoi, \(h\), \(x\), \(\Xi\), \(\text{Diabolik}\), \(\text{Pluto}\), ...: non cambia assolutamente nulla.

    Per quanto riguarda il "calcolare il differenziale", dovresti spiegare meglio cosa vuoi intendere con questa locuzione.

    "Emar":
    Vorrebbe dire che in un punto ci potrebbero essere più "valori" di differenziale per diversi valori di $\mathbf{h}$.

    Il differenziale non è un numero, ma una funzione: quindi è evidente che esso assume infiniti valori, dipendenti dal valore della variabile \(h\).[nota]A meno che il differenziale non sia un'applicazione lineare costante... Ma è noto che le uniche applicazioni lineari costanti sono quelle identicamente nulle; perciò le uniche funzioni che hanno differenziale costante sono quelle che hanno differenziale nullo in ogni punto, i.e. le funzioni costanti.[/nota]

    Ciò che è unico è il vettore che rappresenta l'applicazione \(L(x_0;\cdot)\).
    Infatti, è un fatto noto di Algebra Lineare che, fissata la base canonica di \(\mathbb{K}^N\) (in Analisi ciò è la normalità: un analista ragiona con altre basi solo quando c'è stretta necessità), per ogni funzionale lineare \(\Phi\) su \(\mathbb{K}^N\) esiste un unico vettore \(u_\Phi\in \mathbb{K}^N\) tale che:
    \[
    \Phi(h) = \langle u_\Phi,h\rangle
    \]
    (come al solito \(\langle \cdot ,\cdot \rangle\) è il prodotto scalare standard) per ogni \(h\in \mathbb{K}^N\).
    Nel caso del differenziale \(L(x_0;\cdot )\) tale rappresentante è il vettore gradiente, cioé risulta \(u_{L(x_0;\cdot )}=\nabla f(x_0)\) e dunque:
    \[
    L(x_0;h)=\langle \nabla f(x_0), h\rangle
    \]
    per ogni \(h\in \mathbb{K}^N\).

    Quindi, ricollegandomi con la questione del "calcolare il differenziale"... Per te questa frase che vuol dire?
    Vuol dire conoscere il valore di \(L(x_0;h)\) una volta assegnato il valore di \(h\)?
    Oppure vuol dire conoscere il vettore che rappresenta l'applicazione \(L(x_0;\cdot)\)?

    4mrkv
    Come non detto, vedo che gugo è molto più completo :-D

    nuwanda1
    Il post di Gugo sarebbe da stampare e metterlo tra gli appunti :) grazie della risposta completa! ADesso comincia ad avere molto più senso! Soprattutto mi torna $dg(z) = f(z)dz -> g' = f$ da un punto di vista più matematico... vediamo però se ho capito bene: in situzioni simili, la divisione per $dz$ è solo fittizia (non divido proprio per $dz$, compare al denominatore dell'altro membro solo per notazione) mentre in realtà è una questione di sovrapposizione e uguaglianza di funzioni?

    gugo82
    "nuwanda":
    Il post di Gugo sarebbe da stampare e metterlo tra gli appunti :) grazie della risposta completa!

    Prego.
    Grazie a te per i complimenti.

    "nuwanda":
    Adesso comincia ad avere molto più senso! Soprattutto mi torna $dg(z) = f(z)dz -> g' = f$ da un punto di vista più matematico... vediamo però se ho capito bene: in situzioni simili, la divisione per $dz$ è solo fittizia (non divido proprio per $dz$, compare al denominatore dell'altro membro solo per notazione) mentre in realtà è una questione di sovrapposizione e uguaglianza di funzioni?

    Yes, allo stato attuale della teoria.
    Forse Leibniz non sarebbe stato molto d'accordo, ma sono passati quasi 400 anni dalla sua morte e la Matematica nel frattempo si è evoluta parecchio. :wink:

    4mrkv
    Se ho \(\mbox{d}g(z)=g'(z)\mbox{d}z\) la divisione fra elementi di \(\mathbb{C}^{*}\) è definita a patto che il denominatore sia non nullo. Se \(g'(z_{0})-f(z_{0})=0\) siamo a posto. Se \(g'(z_{0})-f(z_{0})\neq 0\) e \(z \neq 0\) allora \(\mbox{d}z\neq 0\) e posso dividere per \(\mbox{d}z\)
    \[
    \begin{split}
    \mbox{d}g(z_{0})&=f(z_{0})\mbox{d}z \\
    g'(z_{0})\mbox{d}z&=f(z_{0})\mbox{d}z \\
    (g'(z_{0})-f(z_{0}))\mbox{d}z&=0 \\
    g'(z_{0})&=f(z_{0})
    \end{split}
    \]
    Oppure in modo più semplice calcolo \(\mbox{d}z(1)=1\) al terzo passaggio. In che senso non posso dividere per \(\mbox{d}z\)?

    gugo82
    @ 4mrkv: Il \(\text{d}z\), come detto, non è un numero.
    Quindi non puoi mai dividere per \(\text{d}z\).

    Emar1
    Ringrazio entrambi per le delucidazioni.

    Il significato di differenziale come l'applicazione lineare che approssima l'incremento della funzione nel punto $x_0$ mi è abbastanza chiaro. E, correggetemi se sbaglio, nel caso di una funzione $\mathbf{f}: \mathbb{R}^n \to \mathbb{R}^m$ si può dire che la derivata (intesa in generale come matrice Jacobiana) è la matrice che rappresenta il funzionale $df(x_0;\cdot)$, infatti:
    \[d\mathbf{f}(\mathbf{x_0};\mathbf{h}) = \mathbf{f}'(\mathbf{x_0})\mathbf{h}\]
    Dove appunto con il simbolo $\mathbf{f}'(\mathbf{x_0})$ (seguendo tra l'altro Spivak), la matrice Jacobiana che nel caso $f:\mathbb{R}^n\to\mathbb{R}$ è il vettore gradiente e, nel caso più semplice $f:\mathbb{R}\to\mathbb{R}$ si riduce ad uno scalare.

    Al fianco di questa definizione formale si può pensare al differenziale come quella funzione che approssima l'incremento $\Delta\mathbf{f}$ con un errore asintotico a $||\mathbf{h}||$. Quindi, fissato $\mathbf{x_0}$, più piccolo è l'argomento del differenziale, ovvero l'incremento $\mathbf{h}$, meglio l'incremento $\Delta \mathbf{f}$ della funzione è approssimato.

    Questo mi torna, ma diciamo che, probabilmente non avendo dimestichezza con lo spazio duale, mi sembra di non riuscire ad afferrare nella sua totalità il significato di profondo di differenziale. Ora che ci penso mi ero già scontrato con questo argomento qui.

    @4mrkv Il libro di Spivak lo conoscevo. E' rigoroso e sintetico, utile per chiarirsi le idee (come primissimo testo forse sarebbe troppo duro).

    @gugo82 Rispetto a ieri sera ci ho pensato un po' su e mi sono ritrovato. Come di dicevo poco più sopra è forse il concetto di funzionale/spazio duale che mi mette confusione.

    Vi ringrazio ancora ragazzi! :wink:

    4mrkv
    "gugo82":
    @ 4mrkv: Il \(\text{d}z\), come detto, non è un numero.
    Quindi non puoi mai dividere per \(\text{d}z\).

    E' un elemento di \(\mathbb{C}^{*}\) per cui \(\mbox{d}z(z)=z\) con \(z \in \mathbb{C}\). Per quale motivo non posso dividere per una funzione? Se sostituisco direttamente \(\mbox{d}z\) con \(z\) allora diventa un numero 8-) @emar: quando sai un po' di topologia non c'è libro di analisi che non sia accessibile :lol:

    gugo82
    @ 4mrkv: Da quando in qua in uno spazio duale è definita una divisione?
    Un duale è uno spazio vettoriale, mica un campo...

    4mrkv
    Ok ma anche quando scrivo \(f(x)/g(x)\) a partire dalle superiori e fino all'università non è che definisco rigorosamente una struttura algebrica, ciononostante si usa a patto che \(g(x)\neq 0\).

    gugo82
    Ma la scrittura \(f(x)/g(x)\) denota una funzione, non un numero... E la derivata in un punto fissato è un numero, non una funzione. :wink:

    Rispondi
    Per rispondere a questa discussione devi prima effettuare il login.