Differenziale e gradiente
Salve ragazzi volevo sapere qual è la differenza tra differenziale e gradiente oltre al fatto che il gradiente è in colonna e il differenziale è in riga, il gradiente presenta anche termini aggiuntivi(da quello che ho appreso in fisica).
Risposte
Queste cose si apprendono in analisi, in cui c'è una ben precisa definizione che non lascia spazio a fraintendimenti o dubbi (o cose tipo: "uno è in colonna e l'altro è in riga"...)
Analisi II?
"Vulplasir":
Queste cose si apprendono in analisi, in cui c'è una ben precisa definizione che non lascia spazio a fraintendimenti o dubbi (o cose tipo: "uno è in colonna e l'altro è in riga"...)
Non sono d'accordo, con rispetto parlando. In primis, il vero ambito in cui si capisce questa differenza è la geometria Riemanniana, in analisi di solito si fa tutto nello spazio delle coordinate \(\mathbb R^n\), e lì differenziale e gradiente sono praticamente la stessa cosa. In secundis, "uno è in colonna e l'altro è in riga" non è una cavolata, come potrebbe sembrare: è proprio quella la differenza, opportunamente formalizzata col giusto linguaggio.
"dissonance":
[quote="Vulplasir"]Queste cose si apprendono in analisi, in cui c'è una ben precisa definizione che non lascia spazio a fraintendimenti o dubbi (o cose tipo: "uno è in colonna e l'altro è in riga"...)
Non sono d'accordo, con rispetto parlando. In primis, il vero ambito in cui si capisce questa differenza è la geometria Riemanniana, in analisi di solito si fa tutto nello spazio delle coordinate \(\mathbb R^n\), e lì differenziale e gradiente sono praticamente la stessa cosa. In secundis, "uno è in colonna e l'altro è in riga" non è una cavolata, come potrebbe sembrare: è proprio quella la differenza, opportunamente formalizzata col giusto linguaggio.[/quote]
Dissonance potresti dirmi come posso informarmi a riguardo?(Leggere qualcosa in particolare?)
Sono d'accordo con dissonance. Qualche cosa però si può dire, senza immergersi nella geometria differenziale.
[size=150]- Spazi normati[/size]
Dati due spazi vettoriali $V,W$ di dimensione finita indichiamo con \(\mathrm{Hom}(V,W)\) lo spazio delle applicazioni lineari $V \to W$.
Se $V$ e $W$ sono spazi normati possiamo introdurre il differenziale (derivata di Fréchet). Data una mappa $f: V \to W$, a priori non lineare, e dato un punto $x \in V$ diciamo che $f$ è differenziabile in $x$ se esiste una mappa lineare $A_x$ che la approssima in $x$, ovvero:
\[\lim_{h \to 0} \frac{\|f(x + h) - f(x) - A_x (h)\|_W}{\|h\|_V} = 0\]
Tale mappa è lineare e dipende dal punto $x$. La chiamiamo differenziale di $f$ in $x$ e la indichiamo con $df_x$. Definiamo dunque $df_x := A_x$
Senza andar troppo per il sottile supponiamo che $f$ sia differenziabile per ogni punto di $V$, allora, per ogni $x \in V$ abbiamo una funzione lineare \(df_x \in \mathrm{Hom}(V,W)\).
Possiamo dunque costruire una funzione \[V \to \mathrm{Hom}(V,W), \quad x \mapsto df_x\]
Tale mappa è detta differenziale di $f$ e si indica con $df$.
Quando valutiamo $df$ in un punto $x$ otteniamo una mappa lineare $df_x$.
Scelte due basi per $V$ e $W$ per ogni $x$ $df_x$ sarà rappresentata da una matrice che chiameremo jacobiana o gradiente in $x$ e la indicheremo con $D_xf$ o $\nabla f(x)$. Abbiamo definito quindi: \(D_xf := [d_xf]\)
Dove e quadre indicano la matrice associata rispetto alle basi scelte all'applicazione lineare $d_xf$.
Allo stesso modo di prima otteniamo una mappa \[V \to \mathbb{F}^{m \times n}, \quad x \mapsto [df_x] = D_xf\]
con $n,m$ dimensioni degli spazi e $\mathbb{F}$ il campo ( solitamente $RR$ o $CC$).
Questa mappa la chiamiamo jacobiana (o gradiente) e la indichiamo con $Df$ o $\nabla f$
Dato un vettore $h \in V$, detta $[h]$ la sua rappresentazione in coordinate rispetto alla base abbiamo:
\[[d_xf(h)] = D_xf \cdot [h]\]
dove il prodotto è quelo standard. Se intendiamo i vettori come colonne[nota]La scelta di riga o colonna è una convenzione, e quindi è arbitraria. una volta fatta però occorre essere consistenti. Qui facciamo la scelta della colonna per i vettori di $RR^n$ poiché è la più diffusa[/nota], allora è il prodotto riga per colonna.
[size=150]- Spazi $RR^n$[/size]
Se ora ci caliamo negli spazi $RR^n$ tutto si semplifica. Poniamo $V = RR^n$ e $W = RR^m$ e scegliamo su entrambi gli spazi la base standard. Allora, dato qualsiasi vettore $v$ abbiamo $v = [v]$. Ovvero l'isomorfismo è l'identità.
Allora l'ultima formula che abbiamo scritto sopra si può scrivere:
\[d_xf(h) = D_xf \cdot h \]
dove il prodotto è sempre quello riga per colonna.
[size=110]. Caso speciale: $RR^n \to RR$[/size]
Vi è un notevole caso speciale. Se $W = RR$ abbiamo che la matrice $D_xf$ si riduce ad una sola riga. Ma cos'è successo "dietro le quinte"?
in questo caso il differenziale diventa \(df: \mathbb{R}^n \to \mathrm{Hom}(\mathbb{R}^n,\mathbb{R})\). Ma \(\mathrm{Hom}(\mathbb{R}^n,\mathbb{R})\) è per definizione lo spazio duale \((\mathbb{R}^n)^*\), ovvero lo spazio delle funzioni lineari $RR^n \to RR$.
Come sono fatte queste funzioni?
Scelta una base esse sono rappresentate da matrici aventi una sola riga, chiamati per l'appunto vettori riga. Esse possono essere identificate[nota]E qui si nasconde un altro passaggio importante ma che ora non ho tempo di approfondire[/nota] con i vettori di $RR^n$.
Quindi in definitiva abbiamo:
\[df: \mathbb{R}^n \to \mathrm{Hom}(\mathbb{R}^n,\mathbb{R}) \cong \mathbb{R}^{1 \times n} \cong \mathbb{R}^n\]
dove i simboli \(\cong\) sono isomorfismi con la scelta delle basi canoniche.
Ecco dunque perché il gradiente ha questa dualità riga-colonna. Esso è una matrice $1 \times n$ in questo caso specifico, e può essere identificato con una matrice $n \times 1$, ovvero un vettore colonna.
__________________
Purtroppo, come diceva dissonance, è proprio in quel passaggio di identificazione che si nasconde il perché saltino fuori strani coefficienti sul gradiente.
Se avrò un po' di tempo sistemerò un po' questo post e, magari, aggiungerò anche qualche parte in più. Nel frattempo mi farebbe piacere avere un feedback da parte tua sulla comprensibilità di quanto scritto, anche in base al tuo background.
Ciao!
[size=150]- Spazi normati[/size]
Dati due spazi vettoriali $V,W$ di dimensione finita indichiamo con \(\mathrm{Hom}(V,W)\) lo spazio delle applicazioni lineari $V \to W$.
Se $V$ e $W$ sono spazi normati possiamo introdurre il differenziale (derivata di Fréchet). Data una mappa $f: V \to W$, a priori non lineare, e dato un punto $x \in V$ diciamo che $f$ è differenziabile in $x$ se esiste una mappa lineare $A_x$ che la approssima in $x$, ovvero:
\[\lim_{h \to 0} \frac{\|f(x + h) - f(x) - A_x (h)\|_W}{\|h\|_V} = 0\]
Tale mappa è lineare e dipende dal punto $x$. La chiamiamo differenziale di $f$ in $x$ e la indichiamo con $df_x$. Definiamo dunque $df_x := A_x$
Senza andar troppo per il sottile supponiamo che $f$ sia differenziabile per ogni punto di $V$, allora, per ogni $x \in V$ abbiamo una funzione lineare \(df_x \in \mathrm{Hom}(V,W)\).
Possiamo dunque costruire una funzione \[V \to \mathrm{Hom}(V,W), \quad x \mapsto df_x\]
Tale mappa è detta differenziale di $f$ e si indica con $df$.
Quando valutiamo $df$ in un punto $x$ otteniamo una mappa lineare $df_x$.
Scelte due basi per $V$ e $W$ per ogni $x$ $df_x$ sarà rappresentata da una matrice che chiameremo jacobiana o gradiente in $x$ e la indicheremo con $D_xf$ o $\nabla f(x)$. Abbiamo definito quindi: \(D_xf := [d_xf]\)
Dove e quadre indicano la matrice associata rispetto alle basi scelte all'applicazione lineare $d_xf$.
Allo stesso modo di prima otteniamo una mappa \[V \to \mathbb{F}^{m \times n}, \quad x \mapsto [df_x] = D_xf\]
con $n,m$ dimensioni degli spazi e $\mathbb{F}$ il campo ( solitamente $RR$ o $CC$).
Questa mappa la chiamiamo jacobiana (o gradiente) e la indichiamo con $Df$ o $\nabla f$
Dato un vettore $h \in V$, detta $[h]$ la sua rappresentazione in coordinate rispetto alla base abbiamo:
\[[d_xf(h)] = D_xf \cdot [h]\]
dove il prodotto è quelo standard. Se intendiamo i vettori come colonne[nota]La scelta di riga o colonna è una convenzione, e quindi è arbitraria. una volta fatta però occorre essere consistenti. Qui facciamo la scelta della colonna per i vettori di $RR^n$ poiché è la più diffusa[/nota], allora è il prodotto riga per colonna.
[size=150]- Spazi $RR^n$[/size]
Se ora ci caliamo negli spazi $RR^n$ tutto si semplifica. Poniamo $V = RR^n$ e $W = RR^m$ e scegliamo su entrambi gli spazi la base standard. Allora, dato qualsiasi vettore $v$ abbiamo $v = [v]$. Ovvero l'isomorfismo è l'identità.
Allora l'ultima formula che abbiamo scritto sopra si può scrivere:
\[d_xf(h) = D_xf \cdot h \]
dove il prodotto è sempre quello riga per colonna.
[size=110]. Caso speciale: $RR^n \to RR$[/size]
Vi è un notevole caso speciale. Se $W = RR$ abbiamo che la matrice $D_xf$ si riduce ad una sola riga. Ma cos'è successo "dietro le quinte"?
in questo caso il differenziale diventa \(df: \mathbb{R}^n \to \mathrm{Hom}(\mathbb{R}^n,\mathbb{R})\). Ma \(\mathrm{Hom}(\mathbb{R}^n,\mathbb{R})\) è per definizione lo spazio duale \((\mathbb{R}^n)^*\), ovvero lo spazio delle funzioni lineari $RR^n \to RR$.
Come sono fatte queste funzioni?
Scelta una base esse sono rappresentate da matrici aventi una sola riga, chiamati per l'appunto vettori riga. Esse possono essere identificate[nota]E qui si nasconde un altro passaggio importante ma che ora non ho tempo di approfondire[/nota] con i vettori di $RR^n$.
Quindi in definitiva abbiamo:
\[df: \mathbb{R}^n \to \mathrm{Hom}(\mathbb{R}^n,\mathbb{R}) \cong \mathbb{R}^{1 \times n} \cong \mathbb{R}^n\]
dove i simboli \(\cong\) sono isomorfismi con la scelta delle basi canoniche.
Ecco dunque perché il gradiente ha questa dualità riga-colonna. Esso è una matrice $1 \times n$ in questo caso specifico, e può essere identificato con una matrice $n \times 1$, ovvero un vettore colonna.
__________________
Purtroppo, come diceva dissonance, è proprio in quel passaggio di identificazione che si nasconde il perché saltino fuori strani coefficienti sul gradiente.
Se avrò un po' di tempo sistemerò un po' questo post e, magari, aggiungerò anche qualche parte in più. Nel frattempo mi farebbe piacere avere un feedback da parte tua sulla comprensibilità di quanto scritto, anche in base al tuo background.
Ciao!

Molte grazie emar appena mi sistemo questa settimana con gli esami leggerò con attenzione la tua risposta
Come detto giustamente da @Emar, la vera differenza tra gradiente e differenziale salta fuori quando si abbandona la base canonica e si fa uso di un diverso sistema di coordinate. L'isomorfismo tra uno spazio vettoriale e il suo spazio duale non è infatti canonico, ma dipende dalla scelta di una base nei due spazi. Tuttavia, se definiamo un prodotto scalare \( \langle , \rangle \) (o una norma) nel nostro spazio vettoriale, possiamo definire un isomorfismo tra questi due spazi dato da \( v \mapsto \langle v, \cdot \rangle. \) Scelte diverse di prodotti scalari portano a diversi isomorfismi. Se \( G \) è la matrice associata alla nostra forma bilineare \( \langle v, w \rangle = v^t\,G\,w, \) si vede allora che il nostro isomorfismo può essere riscritto nella forma \( v \mapsto v^t\,G \) e il suo inverso come \( \varphi \mapsto G^{-1}\,\varphi^t \). Nel caso di basi canoniche e quindi del classico prodotto scalare, il differenziale e il gradiente sono semplicemente uno il trasposto dell'altro. Nel caso di basi diverse, la formula sopra rappresenta il passaggio tra le due grandezze.
Quando si passa alla geometria riemanniana si ha poi una relazione ancora più complicata. In questo caso si ha infatti un prodotto scalare diverso per ogni punto \(x\). L'isomorfismo tra le due grandezze non è più costante, ma varia in modo continuo (differenziabile) in tutto lo spazio. Il discorso non è comunque molto diverso.
Quando si passa alla geometria riemanniana si ha poi una relazione ancora più complicata. In questo caso si ha infatti un prodotto scalare diverso per ogni punto \(x\). L'isomorfismo tra le due grandezze non è più costante, ma varia in modo continuo (differenziabile) in tutto lo spazio. Il discorso non è comunque molto diverso.
Si penso di aver capito.
Comunque se non sbaglio mi sembra di aver riconosciuto in
$dxf(h)=Dxf⋅h$ la derivata direzionale giusto? Per mappa intendi applicazione lineare?
Vi ringrazio per le risposte alle mie domande banali , volevo chiedervi anche per quanto riguarda il famoso dx il mio prof ha detto che sarebbe un versore e volevo capirne meglio il significato....cioè io qualche anno fa lo chiamavo differenziale,oppure in fisica lo vedevo come una porzione infinitesima ma sbagliavo evidentemente.
Comunque se non sbaglio mi sembra di aver riconosciuto in
$dxf(h)=Dxf⋅h$ la derivata direzionale giusto? Per mappa intendi applicazione lineare?
Vi ringrazio per le risposte alle mie domande banali , volevo chiedervi anche per quanto riguarda il famoso dx il mio prof ha detto che sarebbe un versore e volevo capirne meglio il significato....cioè io qualche anno fa lo chiamavo differenziale,oppure in fisica lo vedevo come una porzione infinitesima ma sbagliavo evidentemente.