Gradiente in coordinate curvilinee
Ho ripreso lo studio sulle forme differenziali, farò certamente domande idiote ma abbiate pazienza, sto facendo da autodidatta.
Prendiamo un dominio \(\displaystyle D \) dentro \(\displaystyle \mathbb{R}^2 \), parametrizzato dalla carta \(\displaystyle \phi(t_1,t_2):I_2\to D \), con \(\displaystyle I_2 \) il quadrato senza bordo di lati unitari. Facciamo conto che in tale dominio sia definita una funzione \(\displaystyle f(x,y):D\to\mathbb{R} \) avente gradiente \(\displaystyle \nabla f(x,y)=\left[\frac{\partial f}{\partial x}(x,y), \frac{\partial f}{\partial y}(x,y)\right] \).
Esprimendo \(\displaystyle f(x,y) \) nelle nuove coordinate \(\displaystyle (t_1,t_2) \), ovvero \(\displaystyle f(x(t_1,t_2),y(t_1,t_2),z(t_1,t_2)) \), ottengo una nuova espressione del tipo \(\displaystyle f(t_1,t_2) \). A questo punto voglio calcolare il gradiente di \(\displaystyle f \) nelle nuove coordinate. Da definizione (se l'ho capita) per formare il vettore gradiente io devo scrivere l'espressione della forma differenziale \(\displaystyle \mathrm{d}\phi^*f(t_1,t_2)(\tau) \) e pescarne i coefficienti; il gradiente sarà quel vettore che ha tali coefficienti per componenti. Ma quella forma differenziale io la scriverei così:
$$\mathrm{d}\phi^*f(t_1,t_2)(\tau) = \frac{\partial f}{\partial t_1}(t_1,t_2) \mathrm{d}t_1(\tau) + \frac{\partial f}{\partial t_2}(t_1,t_2) \mathrm{d}t_2(\tau)$$
dove \(\displaystyle \tau \) è il generico vettore applicato in \(\displaystyle (t_1,t_2) \), mentre \(\displaystyle \mathrm{d}t_1(\tau) \) e \(\displaystyle \mathrm{d}t_2(\tau) \) sono rispettivamente le componenti del vettore \(\displaystyle \tau \) lungo i versori ortonormali di base applicati in \(\displaystyle (t_1,t_2) \), che per me sono sempre gli stessi applicati in qualunque altro punto di \(\displaystyle I_2 \), ovvero \(\displaystyle \begin{bmatrix}
1\\0
\end{bmatrix} \) e \(\displaystyle \begin{bmatrix}
0\\1
\end{bmatrix} \).
Qui devo aver sicuramente commesso qualche errore nel ragionamento, poiché se tutto fosse giusto, dovrei concludere che \(\displaystyle \nabla f(t_1,t_2)=\left[\frac{\partial f}{\partial t_1}(t_1,t_2), \frac{\partial f}{\partial t_2}(t_1,t_2)\right] \), dove non compaiono i coefficienti metrici, e non capisco dove dovrebbero spuntar fuori nel discorso di sopra.
Dov'è che ho fatto il passo falso?
Grazie in anticipo.
Prendiamo un dominio \(\displaystyle D \) dentro \(\displaystyle \mathbb{R}^2 \), parametrizzato dalla carta \(\displaystyle \phi(t_1,t_2):I_2\to D \), con \(\displaystyle I_2 \) il quadrato senza bordo di lati unitari. Facciamo conto che in tale dominio sia definita una funzione \(\displaystyle f(x,y):D\to\mathbb{R} \) avente gradiente \(\displaystyle \nabla f(x,y)=\left[\frac{\partial f}{\partial x}(x,y), \frac{\partial f}{\partial y}(x,y)\right] \).
Esprimendo \(\displaystyle f(x,y) \) nelle nuove coordinate \(\displaystyle (t_1,t_2) \), ovvero \(\displaystyle f(x(t_1,t_2),y(t_1,t_2),z(t_1,t_2)) \), ottengo una nuova espressione del tipo \(\displaystyle f(t_1,t_2) \). A questo punto voglio calcolare il gradiente di \(\displaystyle f \) nelle nuove coordinate. Da definizione (se l'ho capita) per formare il vettore gradiente io devo scrivere l'espressione della forma differenziale \(\displaystyle \mathrm{d}\phi^*f(t_1,t_2)(\tau) \) e pescarne i coefficienti; il gradiente sarà quel vettore che ha tali coefficienti per componenti. Ma quella forma differenziale io la scriverei così:
$$\mathrm{d}\phi^*f(t_1,t_2)(\tau) = \frac{\partial f}{\partial t_1}(t_1,t_2) \mathrm{d}t_1(\tau) + \frac{\partial f}{\partial t_2}(t_1,t_2) \mathrm{d}t_2(\tau)$$
dove \(\displaystyle \tau \) è il generico vettore applicato in \(\displaystyle (t_1,t_2) \), mentre \(\displaystyle \mathrm{d}t_1(\tau) \) e \(\displaystyle \mathrm{d}t_2(\tau) \) sono rispettivamente le componenti del vettore \(\displaystyle \tau \) lungo i versori ortonormali di base applicati in \(\displaystyle (t_1,t_2) \), che per me sono sempre gli stessi applicati in qualunque altro punto di \(\displaystyle I_2 \), ovvero \(\displaystyle \begin{bmatrix}
1\\0
\end{bmatrix} \) e \(\displaystyle \begin{bmatrix}
0\\1
\end{bmatrix} \).
Qui devo aver sicuramente commesso qualche errore nel ragionamento, poiché se tutto fosse giusto, dovrei concludere che \(\displaystyle \nabla f(t_1,t_2)=\left[\frac{\partial f}{\partial t_1}(t_1,t_2), \frac{\partial f}{\partial t_2}(t_1,t_2)\right] \), dove non compaiono i coefficienti metrici, e non capisco dove dovrebbero spuntar fuori nel discorso di sopra.
Dov'è che ho fatto il passo falso?
Grazie in anticipo.
Risposte
Ragionare in termini di forme differenziali è certamente più semplice, perché stai considerando lo jacobiano di \(\varphi\) per poi espandere per bilinearità e antisimmetria (ma nel caso di 1-forme, non c'è molto da espandere...) l'espressione \(\sum_{i=1}^n \frac{\partial f}{\partial x_i}dx_i\) sapendo che \(dx_i = \sum_{j=1}^n \frac{\partial\phi_i}{\partial t_j}dt_j\). Quindi, se le \(x_i\) sono funzioni delle \(t_j\), la roba che vuoi scrivere è
\[ \sum_{i,j=1}^n \frac{\partial f}{\partial x_i}\frac{\partial\phi_i}{\partial t_j} dt_j\] che alla fin fine è una funzione delle $t_j$.
\[ \sum_{i,j=1}^n \frac{\partial f}{\partial x_i}\frac{\partial\phi_i}{\partial t_j} dt_j\] che alla fin fine è una funzione delle $t_j$.
Intanto grazie.
Vorrei proporre quello che (fin dove l'ho capito, se l'ho capito) è il ragionamento che fa il mio libro, che vorrei capire fino in fondo.
Lui parte da \(\displaystyle \phi^*f(t_1,t_2) \) (il pullback di $f$ da $D$ in $I_2$), costruisce poi la forma differenziale:
\[ \mathrm{d}\phi^*f(t_1,t_2)(\tau) = \frac{\partial f}{\partial t_1}(t_1,t_2) \mathrm{d}t_1(\tau) + \frac{\partial f}{\partial t_2}(t_1,t_2) \mathrm{d}t_2(\tau) \]
e la calcola nel particolare vettore \(\displaystyle \tau=\mathrm{grad}f =G_1 \mathbf{e}_1(t_1,t_2)+G_2 \mathbf{e}_2(t_1,t_2)\), dove \(\displaystyle \mathbf{e}_1(t_1,t_2) \) e \(\displaystyle \mathbf{e}_2(t_1,t_2) \) NON sono i versori canonici di \(\displaystyle I_2 \) (che sarebbero \( \displaystyle \begin{bmatrix} 1\\0 \end{bmatrix} \) e \( \displaystyle \begin{bmatrix} 0\\1 \end{bmatrix} \), pure indipendenti da \(\displaystyle (t_1,t_2) \)), ma sono una riscalatura di questi ultimi data dai coefficienti metrici (i moduli dei vettori che formano le colonne di \(\displaystyle \phi'(t_1,t_2) \)):
\(\displaystyle \mathbf{e}_1(t_1,t_2)=\begin{bmatrix} 1/\left |\begin{pmatrix}
\frac{\partial \phi_1}{\partial t_1}\\
\frac{\partial \phi_2}{\partial t_1}
\end{pmatrix} \right | \\0 \end{bmatrix}=\begin{bmatrix} 1/\sqrt{E_1(t_1,t_2)} \\0 \end{bmatrix} \)
\(\displaystyle \mathbf{e}_2(t_1,t_2)=\begin{bmatrix} 0\\ 1/\left |\begin{pmatrix}
\frac{\partial \phi_1}{\partial t_2}\\
\frac{\partial \phi_2}{\partial t_2}
\end{pmatrix} \right | \end{bmatrix}=\begin{bmatrix} 0\\1/\sqrt{E_2(t_1,t_2)} \end{bmatrix} \)
che sono quindi proprio quei vettori che generano, tramite la carta $\phi$, versori ortonormali per lo spazio tangente nel punto \(\displaystyle (x,y)=\phi(t_1,t_2) \).
Facendo il conto, si ha:
\[ \mathrm{d}\phi^*f(t_1,t_2)(G_1 \mathbf{e}_1(t_1,t_2)+G_2 \mathbf{e}_2(t_1,t_2)) = \frac{\partial f}{\partial t_1}(t_1,t_2) \frac{G_1}{\sqrt{E_1(t_1,t_2)}} + \frac{\partial f}{\partial t_2}(t_1,t_2) \frac{G_2}{\sqrt{E_2(t_1,t_2)}} \]
e da qui deduce in qualche modo che ancora non capisco che quindi deve essere:
\(\displaystyle \mathrm{grad}f =\frac{1}{\sqrt{E_1(t_1,t_2)}}\frac{\partial f}{\partial t_1}(t_1,t_2) \mathbf{e}_1(t_1,t_2)+\frac{1}{\sqrt{E_2(t_1,t_2)}}\frac{\partial f}{\partial t_2}(t_1,t_2) \mathbf{e}_2(t_1,t_2)\)
Se questo modo di ragionare (in termini di questi vettori di base 'ad-hoc' \(\displaystyle \mathbf{e}_1(t_1,t_2) \) e \(\displaystyle \mathbf{e}_2(t_1,t_2) \)) ti è familiare, mi potresti spiegare per favore come va vista la situazione in questi termini?
Vorrei proporre quello che (fin dove l'ho capito, se l'ho capito) è il ragionamento che fa il mio libro, che vorrei capire fino in fondo.
Lui parte da \(\displaystyle \phi^*f(t_1,t_2) \) (il pullback di $f$ da $D$ in $I_2$), costruisce poi la forma differenziale:
\[ \mathrm{d}\phi^*f(t_1,t_2)(\tau) = \frac{\partial f}{\partial t_1}(t_1,t_2) \mathrm{d}t_1(\tau) + \frac{\partial f}{\partial t_2}(t_1,t_2) \mathrm{d}t_2(\tau) \]
e la calcola nel particolare vettore \(\displaystyle \tau=\mathrm{grad}f =G_1 \mathbf{e}_1(t_1,t_2)+G_2 \mathbf{e}_2(t_1,t_2)\), dove \(\displaystyle \mathbf{e}_1(t_1,t_2) \) e \(\displaystyle \mathbf{e}_2(t_1,t_2) \) NON sono i versori canonici di \(\displaystyle I_2 \) (che sarebbero \( \displaystyle \begin{bmatrix} 1\\0 \end{bmatrix} \) e \( \displaystyle \begin{bmatrix} 0\\1 \end{bmatrix} \), pure indipendenti da \(\displaystyle (t_1,t_2) \)), ma sono una riscalatura di questi ultimi data dai coefficienti metrici (i moduli dei vettori che formano le colonne di \(\displaystyle \phi'(t_1,t_2) \)):
\(\displaystyle \mathbf{e}_1(t_1,t_2)=\begin{bmatrix} 1/\left |\begin{pmatrix}
\frac{\partial \phi_1}{\partial t_1}\\
\frac{\partial \phi_2}{\partial t_1}
\end{pmatrix} \right | \\0 \end{bmatrix}=\begin{bmatrix} 1/\sqrt{E_1(t_1,t_2)} \\0 \end{bmatrix} \)
\(\displaystyle \mathbf{e}_2(t_1,t_2)=\begin{bmatrix} 0\\ 1/\left |\begin{pmatrix}
\frac{\partial \phi_1}{\partial t_2}\\
\frac{\partial \phi_2}{\partial t_2}
\end{pmatrix} \right | \end{bmatrix}=\begin{bmatrix} 0\\1/\sqrt{E_2(t_1,t_2)} \end{bmatrix} \)
che sono quindi proprio quei vettori che generano, tramite la carta $\phi$, versori ortonormali per lo spazio tangente nel punto \(\displaystyle (x,y)=\phi(t_1,t_2) \).
Facendo il conto, si ha:
\[ \mathrm{d}\phi^*f(t_1,t_2)(G_1 \mathbf{e}_1(t_1,t_2)+G_2 \mathbf{e}_2(t_1,t_2)) = \frac{\partial f}{\partial t_1}(t_1,t_2) \frac{G_1}{\sqrt{E_1(t_1,t_2)}} + \frac{\partial f}{\partial t_2}(t_1,t_2) \frac{G_2}{\sqrt{E_2(t_1,t_2)}} \]
e da qui deduce in qualche modo che ancora non capisco che quindi deve essere:
\(\displaystyle \mathrm{grad}f =\frac{1}{\sqrt{E_1(t_1,t_2)}}\frac{\partial f}{\partial t_1}(t_1,t_2) \mathbf{e}_1(t_1,t_2)+\frac{1}{\sqrt{E_2(t_1,t_2)}}\frac{\partial f}{\partial t_2}(t_1,t_2) \mathbf{e}_2(t_1,t_2)\)
Se questo modo di ragionare (in termini di questi vettori di base 'ad-hoc' \(\displaystyle \mathbf{e}_1(t_1,t_2) \) e \(\displaystyle \mathbf{e}_2(t_1,t_2) \)) ti è familiare, mi potresti spiegare per favore come va vista la situazione in questi termini?
Beh, se non dici da che libro viene... la geometria differenziale è notoria per avere le notazioni meno canoniche del mondo. Se, poi, stai leggendo un libro di/per fisici, abbandona ogni speranza di avere altro che spiegazioni-paccottiglia, i libri veramente rigorosi sono pochissimi (nella vita ne ho visti molti e diversi, rimanendo spesso deluso...).
Pensavo fosse un ragionamento abbastanza standard, comunque il libro è V. Zorich, Mathematical Analysis II, pag. 270.
Comunque un punto fermo l'ho messo. Ho capito che, in generale, data una 1-forma differenziale:
\[ \omega(t_1,t_2)(\tau) = a_1(t_1,t_2) \mathrm{d}t_1(\tau) + a_2(t_1,t_2) \mathrm{d}t_2(\tau) \]
le posso sempre associare il vettore:
\(\displaystyle \mathbf{V}_\omega(t_1,t_2)=\omega(t_1,t_2)\left(\begin{bmatrix} 1\\0 \end{bmatrix}\right) \mathbf{e}_1(t_1,t_2) + \omega(t_1,t_2)\left(\begin{bmatrix} 0\\1 \end{bmatrix}\right) \mathbf{e}_2(t_1,t_2) = \\ =\frac{a_1(t_1,t_2)}{\sqrt{E_1(t_1,t_2)}} \mathbf{e}_1(t_1,t_2) + \frac{a_2(t_1,t_2)}{\sqrt{E_2(t_1,t_2)}}\mathbf{e}_2(t_1,t_2)\)
dove \(\displaystyle \mathbf{e}_1(t_1,t_2) \), \(\displaystyle \mathbf{e}_2(t_1,t_2) \), \(\displaystyle \sqrt{E_1(t_1,t_2)} \) e \(\displaystyle \sqrt{E_2(t_1,t_2)} \) sono le grandezze che ho definito nel mio messaggio precedente.
Con ciò in mente capisco subito che, prendendo come definizione di gradiente di una funzione $f(t_1,t_2)$ il "vettore associato" alla forma differenziale \(\displaystyle \mathrm{d}\phi^*f(t_1,t_2)(\tau) = \frac{\partial f}{\partial t_1}(t_1,t_2) \mathrm{d}t_1(\tau) + \frac{\partial f}{\partial t_2}(t_1,t_2) \mathrm{d}t_2(\tau) \), esso deve avere dunque espressione:
\( \displaystyle \mathrm{grad}f(t_1,t_2)=\frac{\frac{\partial f}{\partial t_1}(t_1,t_2)}{\sqrt{E_1(t_1,t_2)}} \mathbf{e}_1(t_1,t_2) + \frac{\frac{\partial f}{\partial t_2}(t_1,t_2)}{\sqrt{E_2(t_1,t_2)}}\mathbf{e}_2(t_1,t_2). \)
Detto ciò, mi sorge qualche domanda solo a livello intuitivo. Il gradiente l'ho sempre immaginato come quel vettore da moltiplicare scalarmente per un vettore "spostamento", ottenendo come risultato un numero che mi dice (al primo ordine) quanto cambierebbe il valore della funzione se effettuassi proprio quello spostamento. Perché in coordinate curvilinee, tale "spostamento" non devo riferirlo ai versori canonici di $I_2$, ma ai vettori \(\displaystyle \mathbf{e}_1(t_1,t_2) \), \(\displaystyle \mathbf{e}_2(t_1,t_2) \) (che non sono fissi, ma si riscalano punto per punto)?
Se, ad esempio, penso alle coordinate polari (\(\displaystyle t_1=r, t_2=\theta \)), sto sostanzialmente dicendo che non devo pensare a uno spostamento in \(\displaystyle \theta \) misurato in radianti, ma devo pensarlo in radianti/metro? Se è effettivamente così, questa cosa mi appare (ma è perché sono ancora troppo ignorante) come una complicazione anziché una semplificazione.
Comunque un punto fermo l'ho messo. Ho capito che, in generale, data una 1-forma differenziale:
\[ \omega(t_1,t_2)(\tau) = a_1(t_1,t_2) \mathrm{d}t_1(\tau) + a_2(t_1,t_2) \mathrm{d}t_2(\tau) \]
le posso sempre associare il vettore:
\(\displaystyle \mathbf{V}_\omega(t_1,t_2)=\omega(t_1,t_2)\left(\begin{bmatrix} 1\\0 \end{bmatrix}\right) \mathbf{e}_1(t_1,t_2) + \omega(t_1,t_2)\left(\begin{bmatrix} 0\\1 \end{bmatrix}\right) \mathbf{e}_2(t_1,t_2) = \\ =\frac{a_1(t_1,t_2)}{\sqrt{E_1(t_1,t_2)}} \mathbf{e}_1(t_1,t_2) + \frac{a_2(t_1,t_2)}{\sqrt{E_2(t_1,t_2)}}\mathbf{e}_2(t_1,t_2)\)
dove \(\displaystyle \mathbf{e}_1(t_1,t_2) \), \(\displaystyle \mathbf{e}_2(t_1,t_2) \), \(\displaystyle \sqrt{E_1(t_1,t_2)} \) e \(\displaystyle \sqrt{E_2(t_1,t_2)} \) sono le grandezze che ho definito nel mio messaggio precedente.
Con ciò in mente capisco subito che, prendendo come definizione di gradiente di una funzione $f(t_1,t_2)$ il "vettore associato" alla forma differenziale \(\displaystyle \mathrm{d}\phi^*f(t_1,t_2)(\tau) = \frac{\partial f}{\partial t_1}(t_1,t_2) \mathrm{d}t_1(\tau) + \frac{\partial f}{\partial t_2}(t_1,t_2) \mathrm{d}t_2(\tau) \), esso deve avere dunque espressione:
\( \displaystyle \mathrm{grad}f(t_1,t_2)=\frac{\frac{\partial f}{\partial t_1}(t_1,t_2)}{\sqrt{E_1(t_1,t_2)}} \mathbf{e}_1(t_1,t_2) + \frac{\frac{\partial f}{\partial t_2}(t_1,t_2)}{\sqrt{E_2(t_1,t_2)}}\mathbf{e}_2(t_1,t_2). \)
Detto ciò, mi sorge qualche domanda solo a livello intuitivo. Il gradiente l'ho sempre immaginato come quel vettore da moltiplicare scalarmente per un vettore "spostamento", ottenendo come risultato un numero che mi dice (al primo ordine) quanto cambierebbe il valore della funzione se effettuassi proprio quello spostamento. Perché in coordinate curvilinee, tale "spostamento" non devo riferirlo ai versori canonici di $I_2$, ma ai vettori \(\displaystyle \mathbf{e}_1(t_1,t_2) \), \(\displaystyle \mathbf{e}_2(t_1,t_2) \) (che non sono fissi, ma si riscalano punto per punto)?
Se, ad esempio, penso alle coordinate polari (\(\displaystyle t_1=r, t_2=\theta \)), sto sostanzialmente dicendo che non devo pensare a uno spostamento in \(\displaystyle \theta \) misurato in radianti, ma devo pensarlo in radianti/metro? Se è effettivamente così, questa cosa mi appare (ma è perché sono ancora troppo ignorante) come una complicazione anziché una semplificazione.
"Silent":
Il gradiente l'ho sempre immaginato come quel vettore
Il gradiente è un campo vettoriale in cui in ogni punto dello spazio è definito un vettore che contiene l'informazione sulla direzione e su "peso" dell'incremento del campo scalare. I vettori hanno un significato geometrico, esistono come tali indipendentemente dall'esistenza di un sistema di coordinate. Un sistema di coordinate vale l'altro, si passa da uno all'altro tramite una trasformazione lineare ( la matrice Jacobiana ) e di solito se ne sceglie uno che permette di semplificare i calcoli.
"Silent":
da moltiplicare scalarmente per un vettore "spostamento", ottenendo come risultato un numero che mi dice (al primo ordine) quanto cambierebbe il valore della funzione se effettuassi proprio quello spostamento.
Ha questa caratteristica interessante, prendendo un vettore e proiettandolo sul vettore gradiende in quel punto, si ottiene il differenziale della funzione scalare in quel punto. Questa è una verità assoluta e deve valere in ogni sistema di coordinate, anche in nessuno.
"Silent":
Perché in coordinate curvilinee, tale "spostamento" non devo riferirlo ai versori canonici di $I_2$, ma ai vettori \(\displaystyle \mathbf{e}_1(t_1,t_2) \), \(\displaystyle \mathbf{e}_2(t_1,t_2) \) (che non sono fissi, ma si riscalano punto per punto)?
Perchè sia le componenti del vettore che i vettori di base, in generale, variano da punto a punto, e lo fanno mantenendo vere le proprietà geometriche di cui sopra.
"Silent":
Se, ad esempio, penso alle coordinate polari (\(\displaystyle t_1=r, t_2=\theta \)), sto sostanzialmente dicendo che non devo pensare a uno spostamento in \(\displaystyle \theta \) misurato in radianti, ma devo pensarlo in radianti/metro? Se è effettivamente così, questa cosa mi appare (ma è perché sono ancora troppo ignorante) come una complicazione anziché una semplificazione.
Facciamo un esempio in coordinate polari:
Il vettore posizione $R: (x, y)$ è espresso tramite una parametrizzazione $R: ( x(\rho, \theta), y(\rho, \theta) ) = (\rho cos \theta, \rho sen \theta )$
Lo spazio tangente nelle coordinate $(\rho, \theta)$ a questa parametrizzazione è generato dai vettori tangenti al vettore posizione R:
$e_{\rho} = \frac{\partial R}{\partial \rho} = \frac{\partial (\rho cos \theta, \rho sen \theta )}{\partial \rho} = ( cos \theta, sen \theta ) = cos \theta * e_x + sen \theta * e_y$
$e_{\theta} = \frac{\partial R}{\partial \theta} = \frac{\partial (\rho cos \theta, \rho sen \theta )}{\partial \theta} = ( -\rho sen \theta, \rho cos \theta ) = -\rho sen \theta * e_x + \rho cos \theta * e_y$
La base in $(\rho \theta )$ è espressa come combinazione lineare della base $( e_x, e_y )$
Da qui si vede che entrambi i vettori base non sono costanti, ma variano da punto a punto essendo funzioni di $(\rho, \theta)$
il vettore base $e_{\rho}$ non cambia in modulo, ma sicuramente cambia in direzione.
il vettore base $e_{\theta}$ invece, oltre che nella direzione cambia anche in modulo, ed in particolare aumenta allontanandosi dall' origine del sistema di coordinate polari. E lo deve fare per forza, se rimanesse costante calcoleremmo la lunghezza delle circonferenze in un altro modo.
Parlando di forme differenziali, che era l'argomento con cui era partito questo topic, dobbiamo considerare la base duale a questa che è formata dai vettori controvarianti $e^{\rho}$ ed $e^{\theta}$
Sono quei vettori tali che $e^i * e_j = \delta_j^i$
Possiamo ricavarli come esercizio in questo modo.
Per prima cosa ci calcoliamo il tensore metrico g, le cui componenti sono i prodotti scalari dei vettori base $e_{\rho}$ ed $e_{\theta}$:
$g_{\rho \rho } = ( cos \theta, sen \theta ) * ( cos \theta, sen \theta ) = cos^2 \theta + sen^2 \theta = 1$
$g_{\rho \theta} = g_{\theta \rho} = ( cos \theta, sen \theta ) * ( -\rho sen \theta, \rho cos \theta ) = -\rho cos \theta sen \theta + \rho cos \theta sen \theta = 0$
$g_{\theta\theta} = ( -\rho sen \theta, \rho cos \theta ) * ( -\rho sen \theta, \rho cos \theta ) = \rho^2 cos^2 \theta + \rho^2 sen^2 \theta = \rho^2 ( cos^2 \theta + sen^2 \theta ) = \rho^2$
Quindi il tensore metrico è espresso in forma di matrice
\begin{gather}g = \begin{bmatrix} 1 & 0 \\ 0 & \rho^2 \end{bmatrix}\end{gather} il cui determinante vale $\rho^2$ e le componenti sono le $g_{i j}$
L'inversa di questa matrice è il tensore metrico controvariante ed è facile da calcolare:
\begin{gather}g^{-1} = \frac{1}{\rho^2} \begin{bmatrix} \rho^2 & 0 \\ 0 & 1 \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & \frac{1}{\rho^2} \end{bmatrix}\end{gather} il cui determinante vale $\frac{1}{\rho^2}$ e le componenti sono le $g^{i j}$
Finalmente arriviamo ai vettori delle base controvarianti, utilizziamo il tensore metrico controvariante per alzare gli indici dei vettori di base covariante:
$e^i = e_j * g^{i j}$
Quindi:
$e^{\rho} = d\rho = e_{\rho} * g^{\rho \rho} + e_{\theta} * g^{\rho \theta} = (cos \theta, sen \theta) * 1 + (-\rho sen \theta, \rho cos \theta) * 0 = (cos \theta, sen \theta)$
$e^{\theta} = d\theta = e_{\rho} * g^{\theta \rho} + e_{\theta} * g^{\theta \theta} = (cos \theta, sen \theta) * 0 + (-\rho sen \theta, \rho cos \theta) * \frac{1}{\rho^2} = ( -\frac{1}{\rho} sen \theta, \frac{1}{\rho} cos \theta)$
Anche le basi controvarianti $e^{\rho}, e^{\theta}$ che sono le $d\rho, d\theta$ delle forme differenziali, variano da punto a punto nel piano ma $e^{\theta}$ varia come $\rho^{-1}$
Entrambe le basi sono sempre parallele agli assi coordinati.
Ora, come variano le basi $e_{\rho}$ ed $e_{\theta}$?
Deriviamole, ottenendo dei vettori che chiameremo $\Gamma_{i j}$
$\Gamma_{\rho \rho} = \frac{\partial}{\partial \rho} e_{\rho} = \frac{\partial}{\partial \rho} ( cos \theta, sen \theta ) = ( 0, 0 )$
$\Gamma_{\rho \theta} = \frac{\partial}{\partial \theta} e_{\rho} = \frac{\partial}{\partial \theta} ( cos \theta, sen \theta ) = ( -sen \theta, cos \theta )$
$\Gamma_{\theta \rho} = \frac{\partial}{\partial \rho} e_{\theta} = \frac{\partial}{\partial \rho} ( -\rho sen \theta, \rho cos \theta ) = ( -sen \theta, cos \theta )$
$\Gamma_{\theta \theta} = \frac{\partial}{\partial \theta} e_{\theta} = \frac{\partial}{\partial \theta} ( -\rho sen \theta, \rho cos \theta ) = ( -\rho cos \theta, -\rho sen \theta )$
Notare che $\Gamma_{\rho \theta} = \Gamma_{\theta \rho}$
Per conoscere le componenti di questi vettori, li proiettiamo sulle rispettive basi controvarienti ottenendo 2*2*2=8 componenti
$\Gamma_{\rho \rho}^{\rho } = \Gamma_{\rho \rho} * e^{\rho }= ( 0, 0 ) * ( cos \theta, sen \theta ) = 0$
$\Gamma_{\rho \rho}^{\theta} = \Gamma_{\rho \rho} * e^{\theta}= ( 0, 0 ) * ( -\frac{1}{\rho} sen \theta, \frac{1}{\rho} cos \theta) = 0$
$\Gamma_{\rho \theta}^{\rho } = \Gamma_{\rho \theta} * e^{\rho }= ( -sen \theta, cos \theta ) * ( cos \theta, sen \theta ) = -cos \theta sen \theta + cos \theta sen \theta = 0$
$\Gamma_{\rho \theta}^{\theta} = \Gamma_{\rho \theta} * e^{\theta}= ( -sen \theta, cos \theta ) * ( -\frac{1}{\rho} sen \theta, \frac{1}{\rho} cos \theta) = \frac{1}{\rho}( sen^2 \theta + cos^2 \theta ) = \frac{1}{\rho}$
$\Gamma_{\theta \rho}^{\rho } = \Gamma_{\theta \rho} * e^{\rho }= ( -sen \theta, cos \theta ) * ( cos \theta, sen \theta ) = -cos \theta sen \theta + cos \theta sen \theta = 0$
$\Gamma_{\theta \rho}^{\theta} = \Gamma_{\theta \rho} * e^{\theta}= ( -sen \theta, cos \theta ) * ( -\frac{1}{\rho} sen \theta, \frac{1}{\rho} cos \theta) = \frac{1}{\rho}( sen^2 \theta + cos^2 \theta ) = \frac{1}{\rho}$
$\Gamma_{\theta \theta}^{\rho } = \Gamma_{\theta \theta} * e^{\rho }= ( -\rho cos \theta, -\rho sen \theta ) * ( cos \theta, sen \theta ) = -\rho ( sen^2 \theta + cos^2 \theta ) = -\rho$
$\Gamma_{\theta \theta}^{\theta} = \Gamma_{\theta \theta} * e^{\theta}= ( -\rho cos \theta, -\rho sen \theta ) * ( -\frac{1}{\rho} sen \theta, \frac{1}{\rho} cos \theta) = \frac{\rho}{\rho} ( cos \theta sen \theta - cos \theta sen \theta ) = 0$
Notiamo che le componenti di $\Gamma$ sono simmetriche rispetto agli indici covarianti.
Le uniche componenti non nulle sono:
$\Gamma_{\rho \theta}^{\theta} = \Gamma_{\theta \rho}^{\theta} = \frac{1}{\rho}$
Questa ci dice che che la variazione di $\theta$ rispetto a $\rho$ (o di $\rho$ rispetto a $\theta$ ) è un vettore la cui componente lungo $\theta$ vale $\frac{1}{\rho}$
$\Gamma_{\theta \theta}^{\rho } = -\rho$
Questa ci dice che che la variazione di $\theta$ rispetto a $\theta$ è un vettore la cui componente lungo $\rho$ vale $-\rho$
P.S. Non ho avuto molto tempo per ricontrollare, chiedo scusa per eventuali strafalcioni e sentitevi liberi di correggermi.
"IlGuru":
Ha questa caratteristica interessante, prendendo un vettore e proiettandolo sul vettore gradiende in quel punto, si ottiene il differenziale della funzione scalare in quel punto. Questa è una verità assoluta e deve valere in ogni sistema di coordinate, anche in nessuno.
Quindi nessuno mi impediva di usare \( \displaystyle \begin{bmatrix} 1\\0 \end{bmatrix} \) e \( \displaystyle \begin{bmatrix} 0\\1 \end{bmatrix} \) come base in qualunque \(\displaystyle (t_1,t_2) \). Se avessi fatto così però, il gradiente sarebbe stato semplicemente il vettore delle derivate parziali (senza i coefficienti \(\displaystyle \sqrt{E_1(t_1,t_2)} \) e \(\displaystyle \sqrt{E_2(t_1,t_2)} \) a denominatore).
"IlGuru":
Perchè sia le componenti del vettore che i vettori di base, in generale, variano da punto a punto, e lo fanno mantenendo vere le proprietà geometriche di cui sopra.
Variano da punto a punto perché l'ho deciso io, facendo la scelta di prendere come vettori di base \( \displaystyle \mathbf{e}_1(t_1,t_2) \) e \( \displaystyle \mathbf{e}_2(t_1,t_2) \).
Infatti la mia domanda è: perché decido di sviluppare i vettori applicati nel generico \(\displaystyle (t_1,t_2) \) su una base diversa da \( \displaystyle \begin{bmatrix} 1\\0 \end{bmatrix} \) e \( \displaystyle \begin{bmatrix} 0\\1 \end{bmatrix} \)? Dov'è il vantaggio?
Inoltre, questa osservazione:
"Silent":
Se, ad esempio, penso alle coordinate polari \(\displaystyle (t_1=r,t_2=\theta) \), sto sostanzialmente dicendo che non devo pensare a uno spostamento in θ misurato in radianti, ma devo pensarlo in radianti/metro? Se è effettivamente così, questa cosa mi appare (ma è perché sono ancora troppo ignorante) come una complicazione anziché una semplificazione.
è giusta?