Differenziale di una forma differenziale
Mi sto avvicinando in questi giorni allo studio delle forme differenziali, abbiate pietà se farò domande stupide.
Sto cercando di far vedere che il differenziale (non ho ben capito ancora perché si chiama 'esterno') di una p-forma differenziale è una (p+1)-forma differenziale.
Una generica p-forma differenziale definita su un dominio \(\displaystyle D\subset \mathbb{R}^n \) per me è una famiglia di funzioni lineari anti-simmetriche (una per ogni punto \(\displaystyle x\in D \)), ognuna delle quali mappa lo spazio vettoriale \(\displaystyle (TD_x)^p \) in \(\displaystyle \mathbb{R} \).
Ho capito che ogni forma differenziale, essendo sia lineare che anti-simmetrica per definizione, si può scrivere sempre come:
\(\displaystyle \omega (x)(\underbrace{\xi_1}_{\in TD_x},...,\underbrace{\xi_p}_{\in TD_x}) = \sum_{1\leq i_1
\xi_1^{i_1} & ... & \xi_1^{i_p} \\
\xi_2^{i_1} & ... & \xi_2^{i_p} \\
...&... &... \\
\xi_p^{i_1} & ... & \xi_p^{i_p} \\
\end{vmatrix} = \)
\(\displaystyle =\sum_{1\leq i_1
dove i coefficienti rappresentano come agisce la forma differenziale sulla base usata per \(\displaystyle TD_x \).
Detto questo, per definizione dico che li differenziale della forma differenziale \(\displaystyle \omega (x) \) è (dando per scontato la differenziabilità dei coefficienti):
\(\displaystyle \mathrm{d}\omega (x) := \sum_{1\leq i_1
e cioé:
\(\displaystyle \mathrm{d}\omega (x) = \sum_{1\leq i_1
\(\displaystyle \mathrm{d}\omega (x) = \sum_{\begin{matrix}
1\leq i_1
\end{matrix} } \underbrace{\frac{\partial a_{i_1,...,i_p}}{\partial x^i}(x)}_{a_{i,i_1,...,i_p}(x)} \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p}
\)
A questo punto, come dovrei proseguire? Io vorrei arrivare a dire che:
\(\displaystyle \mathrm{d}\omega (x) = \sum_{1\leq i< i_1
\)
come faccio a essere certo che i nuovi coefficienti \(\displaystyle \frac{\partial a_{i_1,...,i_p}}{\partial x^i}(x) \) godano ancora di anti-simmetria?
Sto cercando di far vedere che il differenziale (non ho ben capito ancora perché si chiama 'esterno') di una p-forma differenziale è una (p+1)-forma differenziale.
Una generica p-forma differenziale definita su un dominio \(\displaystyle D\subset \mathbb{R}^n \) per me è una famiglia di funzioni lineari anti-simmetriche (una per ogni punto \(\displaystyle x\in D \)), ognuna delle quali mappa lo spazio vettoriale \(\displaystyle (TD_x)^p \) in \(\displaystyle \mathbb{R} \).
Ho capito che ogni forma differenziale, essendo sia lineare che anti-simmetrica per definizione, si può scrivere sempre come:
\(\displaystyle \omega (x)(\underbrace{\xi_1}_{\in TD_x},...,\underbrace{\xi_p}_{\in TD_x}) = \sum_{1\leq i_1
\xi_2^{i_1} & ... & \xi_2^{i_p} \\
...&... &... \\
\xi_p^{i_1} & ... & \xi_p^{i_p} \\
\end{vmatrix} = \)
\(\displaystyle =\sum_{1\leq i_1
dove i coefficienti rappresentano come agisce la forma differenziale sulla base usata per \(\displaystyle TD_x \).
Detto questo, per definizione dico che li differenziale della forma differenziale \(\displaystyle \omega (x) \) è (dando per scontato la differenziabilità dei coefficienti):
\(\displaystyle \mathrm{d}\omega (x) := \sum_{1\leq i_1
e cioé:
\(\displaystyle \mathrm{d}\omega (x) = \sum_{1\leq i_1
\(\displaystyle \mathrm{d}\omega (x) = \sum_{\begin{matrix}
1\leq i_1
\)
A questo punto, come dovrei proseguire? Io vorrei arrivare a dire che:
\(\displaystyle \mathrm{d}\omega (x) = \sum_{1\leq i< i_1
come faccio a essere certo che i nuovi coefficienti \(\displaystyle \frac{\partial a_{i_1,...,i_p}}{\partial x^i}(x) \) godano ancora di anti-simmetria?
Risposte
"Silent":Come tante altre, questa nomenclatura risale a Grassmann, dove parla di prodotto "esterno" in contrapposizione al prodotto "interno"; in un certo senso, per opposizione, perché le forme multilineari simmetriche, e quelle multilineari alternanti, sono in somma diretta (in caratteristica 0, o meglio, diversa da 2).
Mi sto avvicinando in questi giorni allo studio delle forme differenziali, abbiate pietà se farò domande stupide.
Sto cercando di far vedere che il differenziale (non ho ben capito ancora perché si chiama 'esterno') di una p-forma differenziale è una (p+1)-forma differenziale.
Una generica p-forma differenziale definita su un dominio \(\displaystyle D\subset \mathbb{R}^n \) per me è una famiglia di funzioni lineari anti-simmetriche (una per ogni punto \(\displaystyle x\in D \)), ognuna delle quali mappa lo spazio vettoriale \(\displaystyle (TD_x)^p \) in \(\displaystyle \mathbb{R} \).Non solo, questa famiglia deve anche variare continuamente al variare di un punto nel dominio. Che cosa significhi... è un po' nella definizione di varietà e di fibrato.
Ho capito che ogni forma differenziale, essendo sia lineare che anti-simmetrica per definizioneMultilineare. Oppure lineare dal prodotto tensore di $p$ copie di $TD$. Confondere le due cose fa fare molta confusione.
A questo punto, come dovrei proseguire?Inizia osservando che si cancellano un po' di termini da quella sommatoria, perché non appena ci sono due indici ripetuti, l'addendo che stai considerando è zero.
Hai ragione sulla multilinearità, ho detto male io.
Non riesco a vedere perché
Se succede questo, deve per forza venire fuori da una proprietà di \( \displaystyle \frac{\partial a_{i_1,...,i_p}}{\partial x^i}(x) \), e non di \( \displaystyle \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p} \), questo è corretto?
Lo dico perché io vedo \( \displaystyle \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p} \) come un determinante di una matrice che ha per righe alcune coordinate di (p+1) vettori generici di \(\displaystyle TD_x \), per cui anche se (ad esempio) \(\displaystyle i=i_1 \), non è detto che quel determinante si annulli, in quanto sto considerando sì le stesse coordinate, ma di vettori diversi.
"fulcanelli":
non appena ci sono due indici ripetuti, l'addendo che stai considerando è zero
Non riesco a vedere perché

Se succede questo, deve per forza venire fuori da una proprietà di \( \displaystyle \frac{\partial a_{i_1,...,i_p}}{\partial x^i}(x) \), e non di \( \displaystyle \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p} \), questo è corretto?
Lo dico perché io vedo \( \displaystyle \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p} \) come un determinante di una matrice che ha per righe alcune coordinate di (p+1) vettori generici di \(\displaystyle TD_x \), per cui anche se (ad esempio) \(\displaystyle i=i_1 \), non è detto che quel determinante si annulli, in quanto sto considerando sì le stesse coordinate, ma di vettori diversi.
"Silent":
Hai ragione sulla multilinearità, ho detto male io.
[quote="fulcanelli"]non appena ci sono due indici ripetuti, l'addendo che stai considerando è zero
Non riesco a vedere perché

Se succede questo, deve per forza venire fuori da una proprietà di \( \displaystyle \frac{\partial a_{i_1,...,i_p}}{\partial x^i}(x) \), e non di \( \displaystyle \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p} \), questo è corretto?
Lo dico perché io vedo \( \displaystyle \mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge ...\wedge dx^{i_p} \) come un determinante di una matrice che ha per righe alcune coordinate di (p+1) vettori generici di \(\displaystyle TD_x \), per cui anche se (ad esempio) \(\displaystyle i=i_1 \), non è detto che quel determinante si annulli, in quanto sto considerando sì le stesse coordinate, ma di vettori diversi.[/quote]
Vorrei farti notare due cose:
[list=1][*:2pf27907] \(\wedge\) è bilineare, associativa e anticommutativo.[/*:m:2pf27907]
[*:2pf27907] Il determinante di una matrice con due righe uguali è zero e se scambi due righe tra loro cambi il segno del determinante cambia. Insomma ti stai dimenticando che il determinante è multilineare e antisimmetrico.[/*:m:2pf27907][/list:o:2pf27907]
Certo che sono un cretino...
Pensavo alle righe, ma in realtà quando due indici sono uguali sono due colonne a diventare uguali (esempio $i=i_1$):
\( \displaystyle \begin{vmatrix} \xi_1^{i} & \xi_1^{i} & \xi_1^{i_1} & ... & \xi_1^{i_p} \\ \xi_2^{i}&\xi_2^{i} & \xi_2^{i_2} & ... & \xi_2^{i_p} \\ ...&...&... &...&... \\ \xi_p^{i}& \xi_p^{i} & \xi_p^{i_2}&... & \xi_p^{i_p} \\ \end{vmatrix} \)
Ok, stasera cerco di andare avanti, grazie.
Pensavo alle righe, ma in realtà quando due indici sono uguali sono due colonne a diventare uguali (esempio $i=i_1$):
\( \displaystyle \begin{vmatrix} \xi_1^{i} & \xi_1^{i} & \xi_1^{i_1} & ... & \xi_1^{i_p} \\ \xi_2^{i}&\xi_2^{i} & \xi_2^{i_2} & ... & \xi_2^{i_p} \\ ...&...&... &...&... \\ \xi_p^{i}& \xi_p^{i} & \xi_p^{i_2}&... & \xi_p^{i_p} \\ \end{vmatrix} \)
Ok, stasera cerco di andare avanti, grazie.
Dovrei esserci, in quanto per passare da \( \displaystyle \sum_{\begin{matrix} 1\leq i_1
Giusto?
Giusto?
Sinceramente, ci ho pensato un po' e non capisco che stai esattamente dimostrando. Cioè tu hai una operazione (che non hai definito formalmente) su uno spazio (che hai mal definito) e vuoi dimostrare che il codominio dell'operazione è un certo spazio. Insomma, quando scrivi \( \displaystyle f(\mathbf{x})\,\mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge\dotsb\wedge dx^{i_p} \) hai già in mano un \((p+1)\)-forma, anche nel caso in cui \( \displaystyle f(\mathbf{x})\,\mathrm{d}x^i \wedge dx^{i_1}\wedge dx^{i_2}\wedge \dotsb\wedge dx^{i_p} = \mathbf{0}\).
"vict85":
tu hai una operazione (che non hai definito formalmente)
Perché non ho definito formalmente? Eccola:
\( \displaystyle \mathrm{d}\omega (x) := \sum_{1\leq i_1
che le manca a questa definizione?
"vict85":
su uno spazio (che hai mal definito)
Lo spazio è un dominio \(\displaystyle D\subset\mathbb{R}^n \), perché è mal definito?
"vict85":
Insomma, quando scrivi f(x)dxi∧dxi1∧dxi2∧⋯∧dxip hai già in mano un (p+1)-forma, anche nel caso in cui f(x)dxi∧dxi1∧dxi2∧⋯∧dxip=0.
Sì, ora ti rispondo di sì, ma prima avendo ancora un pò di cose da capire non mi era così immediato. Ora ho capito qualcosina in più e la situazione mi si sta delineando meglio.
Prova a farti un esempio. Scrivi una 0-forma differenziale a caso:
\[ \alpha(x) = \cos 3x \] (una 0-forma è solo una funzione opportunamente liscia; facciamo che è tutto \(C^\infty\) per fissare le idee). Allora
\[\text{d}\alpha = -3\sin 3x \,\text{d}x\] è una 1-forma. Ovviamente la sua derivata esterna è zero.
Scrivi una 1-forma (in due variabili) a caso:
\[\beta(x,y) = x^2y \,\text{d}x + \sin xy\, \text{d}y\] la sua derivata esterna è
\[\text{d}\beta(x,y) = (2xy\,\text{d}x + x^2\,\text{d}y)\land\text{d}x + (y\cos xy\,\text{d}x + x\cos xy\,\text{d}y)\land \text{d}y\] e ora espandendo per bilinearità (e usando il fatto che \(\text{d}x\land \text{d}x=0\) e che \(\text{d}x\land\text{d}y = -\text{d}y\land \text{d}x\))...
Non c'è niente più di questo, sono solo più difficili i conti.
Curiosamente, capire le regole di questo calcolo (che, ripeto, è molto semplice) è più facile se accetti di rappresentare l'operazione di derivata "à la façon de Leibniz": per esempio, la derivata di $x$ è \(\text{d}x\), e come hai visto sopra, la derivata di \(\cos 3x\) è \(-3\sin 3x\); la morale è che imparare le forme differenziali rende consistente la notazione \(\int f(x)\,\text{d}x\): stai precisamente prendendo la 1-forma \(f(x)\,\text{d}x\) e la stai "integrando".
\[ \alpha(x) = \cos 3x \] (una 0-forma è solo una funzione opportunamente liscia; facciamo che è tutto \(C^\infty\) per fissare le idee). Allora
\[\text{d}\alpha = -3\sin 3x \,\text{d}x\] è una 1-forma. Ovviamente la sua derivata esterna è zero.
Scrivi una 1-forma (in due variabili) a caso:
\[\beta(x,y) = x^2y \,\text{d}x + \sin xy\, \text{d}y\] la sua derivata esterna è
\[\text{d}\beta(x,y) = (2xy\,\text{d}x + x^2\,\text{d}y)\land\text{d}x + (y\cos xy\,\text{d}x + x\cos xy\,\text{d}y)\land \text{d}y\] e ora espandendo per bilinearità (e usando il fatto che \(\text{d}x\land \text{d}x=0\) e che \(\text{d}x\land\text{d}y = -\text{d}y\land \text{d}x\))...
Non c'è niente più di questo, sono solo più difficili i conti.
Curiosamente, capire le regole di questo calcolo (che, ripeto, è molto semplice) è più facile se accetti di rappresentare l'operazione di derivata "à la façon de Leibniz": per esempio, la derivata di $x$ è \(\text{d}x\), e come hai visto sopra, la derivata di \(\cos 3x\) è \(-3\sin 3x\); la morale è che imparare le forme differenziali rende consistente la notazione \(\int f(x)\,\text{d}x\): stai precisamente prendendo la 1-forma \(f(x)\,\text{d}x\) e la stai "integrando".
Il dominio dell'operazione \(\mathrm{d}\) non è \(D\subseteq \mathbb{R}^n\) ma l'insieme delle forme differenziali su \(D\). L'operazione è mal definita perché non hai scritto dominio e codominio della stessa (sei nella sezione di analisi superiore in fondo, non in quella di base). Da notare comunque che \(\mathrm{d}\) è una applicazione lineare tra spazi vettoriali quindi la definizione bastava farla su elementi semplici.
Di fatto hai due scelte: definire l'operazione da tutte le forme differenziali \(\Omega^{\ast}(D) = \bigoplus_k \Omega^{k}(D)\) a tutte le forme differenziali \(\Omega^{\ast}(D)\), oppure definirla come una operazione dalle \(p\)-forme \(\Omega^{p}(D)\) alle \((p+1)\)-forme \(\Omega^{p+1}(D)\). Nel secondo caso non è necessario dimostrare che il risultato è una \((p+1)\)-forma, è insito nella definizione. Al più potrebbe avere senso dimostrare che la definizione ha effettivamente senso.
Dalla definizione che hai usato, che tra l'altro non è l'unica, si evince che hai scelto la seconda opzione. Quindi capirai che per me non hai molto senso che tu stia cercando di dimostrare che il codominio di una funzione sia effettivamente il suo codominio.
Di fatto hai due scelte: definire l'operazione da tutte le forme differenziali \(\Omega^{\ast}(D) = \bigoplus_k \Omega^{k}(D)\) a tutte le forme differenziali \(\Omega^{\ast}(D)\), oppure definirla come una operazione dalle \(p\)-forme \(\Omega^{p}(D)\) alle \((p+1)\)-forme \(\Omega^{p+1}(D)\). Nel secondo caso non è necessario dimostrare che il risultato è una \((p+1)\)-forma, è insito nella definizione. Al più potrebbe avere senso dimostrare che la definizione ha effettivamente senso.
Dalla definizione che hai usato, che tra l'altro non è l'unica, si evince che hai scelto la seconda opzione. Quindi capirai che per me non hai molto senso che tu stia cercando di dimostrare che il codominio di una funzione sia effettivamente il suo codominio.
Grazie ad entrambi.