Notazione del differenziale di una funzione
Non riesco a capire in che modo si giustifica, partendo dalla definizione di differenziale di una funzione, la scrittura (di cui si fa spesso uso in fisica) $ df(x_0)=sum_(j = 1)^(n) (partial f(x_0))/(partial x_j) dx_j $, e non trovo chiarimenti nemmeno sul mio libro, del quale vi riporto sotto i passaggi che fa per dimostrare la suddetta formula.
Io so che $ df(x_0)h= $ ed il mio libro dice che, poichè se considero $ f(x)=x_j $ (ovvero la funzione che ad una x gli associa la sua jesima componente) si avrà $ df(x)h= = h_j $ prendendo $ dx=(dx_1,...,dx_n) $ allora $ = =sum_(j = 1)^(n) (partial f(x_0))/(partial x_j) dx_j $
Vi ringrazio...
Io so che $ df(x_0)h=
Vi ringrazio...
Risposte
E' un po' più complesso di così. Avete introdotto il concetto di forma differenziale? Se sì, si spiega facilmente:
i vari $(dx_1, dx_2, ... , dx_n)$ denotano la base "canonica" (in realtà non è canonica, ma sorvoliamo) dello spazio duale $(\mathbb{R}^n)^{\star}$. Il differenziale si può esprimere come oggetto dello spazio duale $(\mathbb{R}^n)^{\star}$, e quella che tu cerchi di capire è la sua espressione in componenti rispetto alla base duale.
Se non ti sono chiari questi concetti, vedremo di semplificare un poco, se invece conosci una parte almeno di questa teoria possiamo approfondire un po'.
i vari $(dx_1, dx_2, ... , dx_n)$ denotano la base "canonica" (in realtà non è canonica, ma sorvoliamo) dello spazio duale $(\mathbb{R}^n)^{\star}$. Il differenziale si può esprimere come oggetto dello spazio duale $(\mathbb{R}^n)^{\star}$, e quella che tu cerchi di capire è la sua espressione in componenti rispetto alla base duale.
Se non ti sono chiari questi concetti, vedremo di semplificare un poco, se invece conosci una parte almeno di questa teoria possiamo approfondire un po'.
La formula che dici si capisce bene solo usando gli infinitesimi, come fanno i fisici. I matematici però non possono scrivere la parola "infinitesimo" su un libro (su un articolo di ricerca a volte si), e quindi si sono inventati essenzialmente due maniere di arrampicarsi sugli specchi e giustificare quella formula. Una, quella degli analisti (e del tuo libro), consiste nel considerare $dx_j$ come una funzione che associa ad ogni vettore $h\in \mathbb{R}^n$ la sua componente $j$-esima:
\[
dx_j(h)=h_j.\]
C'è poi quella dei geometri, che è sempre dello stesso stile ma più generale, vale anche sulle varietà differenziabili.
Con questa interpretazione la formula in oggetto diventa semplicemente una riscrittura della regola del gradiente.
\[
dx_j(h)=h_j.\]
C'è poi quella dei geometri, che è sempre dello stesso stile ma più generale, vale anche sulle varietà differenziabili.
Con questa interpretazione la formula in oggetto diventa semplicemente una riscrittura della regola del gradiente.
Non vi sono reali differenze tra quelle degli analisti e quelle dei geometri. Solo che gli analisti nei corsi base si legano ad un vago discorso sull'approssimazione locale. Ma nel momento in cui usi seriamente la matematica per esprimere questo concetto ti ritrovi sommerso tra localizzazioni ( http://it.wikipedia.org/wiki/Localizzazione_(algebra) ) seguite da altre operazioni sugli anelli, e finisci il tutto definendo df come una sezione dell'appropriato fibrato vettoriale.
"Frink":
E' un po' più complesso di così. Avete introdotto il concetto di forma differenziale?
soltanto superficialmente, da quando parli di spazio duale in poi non ti seguo più..
@Dissonance
Il passaggio che non mi è chiaro è quello successivo: si considera questa funzione che a un elemento di $ R^n $ fa corrispondere la sua componente j-esima...ma come passo da ciò alla sommatoria di destra? Cosa metto nel prodotto scalare tra gradiente e vettore generico?
Basta scrivere il prodotto scalare usando la definizione di gradiente:
\[
\langle \nabla f (x), h \rangle = \sum \frac{\partial f}{\partial x_j} h_j = \sum \frac{\partial f}{\partial x_j} dx_j(h).
\]
\[
\langle \nabla f (x), h \rangle = \sum \frac{\partial f}{\partial x_j} h_j = \sum \frac{\partial f}{\partial x_j} dx_j(h).
\]
"dissonance":
Basta scrivere il prodotto scalare usando la definizione di gradiente:
\[
\langle \nabla f (x), h \rangle = \sum \frac{\partial f}{\partial x_j} h_j = \sum \frac{\partial f}{\partial x_j} dx_j(h).
\]
Grazie.
Dato uno spazio vettoriale (per semplicità sceglieremo uno spazio del tipo $\mathbb{R}^n$), si dice spazio duale e si denota con $(\mathbb{R}^n)^{\star}$ lo spazio dei funzionali lineari $f:\mathbb{R}^n \rightarrow \mathbb{R}$. (In realtà si generalizza su un qualsiasi spazio vettoriale $V$ e campo $K$.)
Poiché lavoriamo su uno spazio a dimensione finita, esiste un omeomorfismo tra $\mathbb{R}^n$ e $(\mathbb{R}^n)^{\star}$.
Data la base canonica di $\mathbb{R}^n$ ${e_1, e_2, ..., e_n}$, si può definire una base "canonica" di $(\mathbb{R}^n)^{\star}$, data come $(dx_1, dx_2, ..., dx_n)$, per cui vale
\begin{equation}
dx_i(x_j)= \begin{cases} 1 \: \text{if} \: i=j \\ 0 \: \text{if} \: i\ne j \end{cases} \: \forall i,j =1,...,n
\end{equation}
Sia una funzione $\omega : A \subset \mathbb{R}^n \rightarrow (\mathbb{R}^n)^{\star}$, questa $\omega$ associa a un vettore di $\mathbb{R}^n$ un funzionale lineare. Allora si può scrivere
\[
\omega_x=\sum_{k=1}^n a_k(x)dx_k
\]
Cosa significa? Significa che per un dato $x \in \mathbb{R}^n$, avrò una $\omega_x \in (\mathbb{R}^n)^{\star}$ funzionale lineare. (Sto sottintendendo ora la variabile da cui dipende il funzionale, che a rigore dovrebbe essere scritto $\omega_x(h)=\sum_{k=1}^n a_k(x)dx_k(h)$ con $h \in \mathbb{R}^n$)
Se come funzioni di $x$ scegliamo $a_k(x)=\frac{\del f}{\del x_k}$, giungiamo alla definizione da cui siamo partiti,
\[
\sum_{k=1}^n \frac{\partial f}{\partial x_k}(x)dx_k(h) \hspace{3cm} (1)
\]
Questo è il differenziale della funzione $f$: perché?
Perché sappiamo di poter scrivere il differenziale come prodotto vettoriale
\[
\langle \nabla f(x) ; h \rangle = \sum_{k=1}^n \frac{\partial f}{\partial x_k}(x)h_k \hspace{2cm} (2)
\]
Si vede ora che sono uguali? Infatti $\forall h \in \mathbb{R}^n$, $dx_i(h)=h_i$ e quindi le scritture $(1)$ e $(2)$ si equivalgono.
N.B. Ho scritto tutta questa pappardella un po' per ripasso in vista dell'orale di Analisi 2, quindi prendi tutto con le molle, se vict85 o dissonance trovaste errori, aspetto le correzioni.
Poiché lavoriamo su uno spazio a dimensione finita, esiste un omeomorfismo tra $\mathbb{R}^n$ e $(\mathbb{R}^n)^{\star}$.
Data la base canonica di $\mathbb{R}^n$ ${e_1, e_2, ..., e_n}$, si può definire una base "canonica" di $(\mathbb{R}^n)^{\star}$, data come $(dx_1, dx_2, ..., dx_n)$, per cui vale
\begin{equation}
dx_i(x_j)= \begin{cases} 1 \: \text{if} \: i=j \\ 0 \: \text{if} \: i\ne j \end{cases} \: \forall i,j =1,...,n
\end{equation}
Sia una funzione $\omega : A \subset \mathbb{R}^n \rightarrow (\mathbb{R}^n)^{\star}$, questa $\omega$ associa a un vettore di $\mathbb{R}^n$ un funzionale lineare. Allora si può scrivere
\[
\omega_x=\sum_{k=1}^n a_k(x)dx_k
\]
Cosa significa? Significa che per un dato $x \in \mathbb{R}^n$, avrò una $\omega_x \in (\mathbb{R}^n)^{\star}$ funzionale lineare. (Sto sottintendendo ora la variabile da cui dipende il funzionale, che a rigore dovrebbe essere scritto $\omega_x(h)=\sum_{k=1}^n a_k(x)dx_k(h)$ con $h \in \mathbb{R}^n$)
Se come funzioni di $x$ scegliamo $a_k(x)=\frac{\del f}{\del x_k}$, giungiamo alla definizione da cui siamo partiti,
\[
\sum_{k=1}^n \frac{\partial f}{\partial x_k}(x)dx_k(h) \hspace{3cm} (1)
\]
Questo è il differenziale della funzione $f$: perché?
Perché sappiamo di poter scrivere il differenziale come prodotto vettoriale
\[
\langle \nabla f(x) ; h \rangle = \sum_{k=1}^n \frac{\partial f}{\partial x_k}(x)h_k \hspace{2cm} (2)
\]
Si vede ora che sono uguali? Infatti $\forall h \in \mathbb{R}^n$, $dx_i(h)=h_i$ e quindi le scritture $(1)$ e $(2)$ si equivalgono.
N.B. Ho scritto tutta questa pappardella un po' per ripasso in vista dell'orale di Analisi 2, quindi prendi tutto con le molle, se vict85 o dissonance trovaste errori, aspetto le correzioni.