Jacobiano
Salve a tutti, sapreste fornirmi la dimostrazione del teorema sul ruolo del determinante della matrice di jacobi nel cambiamento di variabili, soprattutto per quanto concerne le variabili di integrazione? Mi riferisco dunque al teorema che mi permette di scrivere:
\(\displaystyle dxdydz=|J(x,y,z)|drd\theta d\phi \)
\(\displaystyle dxdydz=|J(x,y,z)|drd\theta d\phi \)
Risposte
Il differenziale esterno commuta col pullback di forme differenziali: allora, se $(x,y,z)=(r \sin\theta \cos\varphi , r \sin\theta \sin\varphi , r \cos\theta )$ è il cambo di coordinate da cartesiane a sferiche, facendo il differenziale totale di ciascuna coordinata ti viene
\[
\begin{cases}
dx &= \sin\theta \cos\varphi dr + r \cos\theta \cos\varphi d\theta - r \sin\theta \sin\varphi d\varphi\\
dy &= \sin\theta \sin\varphi dr + r \cos\theta \sin\varphi d\theta + r \sin\theta \cos\varphi d\varphi\\
dz &= \cos\theta dr - r \sin\theta d\theta
\end{cases}
\] E quindi $dxdydz = dx^^ dy ^^ dz$ (l'elemento di volume corrispondente al generatore di $\Lambda^3(RR^3)\cong RR$) viene dal prodotto esterno $\det J(x,y,z) drd\thetad\varphi$ (essenzialmente perché, come è immediato dimostrare, \(Fv\land Fu \land Fw = \det F \cdot (v\land u\land w)\)).
\[
\begin{cases}
dx &= \sin\theta \cos\varphi dr + r \cos\theta \cos\varphi d\theta - r \sin\theta \sin\varphi d\varphi\\
dy &= \sin\theta \sin\varphi dr + r \cos\theta \sin\varphi d\theta + r \sin\theta \cos\varphi d\varphi\\
dz &= \cos\theta dr - r \sin\theta d\theta
\end{cases}
\] E quindi $dxdydz = dx^^ dy ^^ dz$ (l'elemento di volume corrispondente al generatore di $\Lambda^3(RR^3)\cong RR$) viene dal prodotto esterno $\det J(x,y,z) drd\thetad\varphi$ (essenzialmente perché, come è immediato dimostrare, \(Fv\land Fu \land Fw = \det F \cdot (v\land u\land w)\)).
Scusami, non ho capito. Purtroppo mi mancano le nozioni di differenziale esterno e pullback. Inoltre non so con che accezione stai usando il simbolo di prodotto \(\displaystyle \wedge \)
"kBoltz":
Scusami, non ho capito. Purtroppo mi mancano le nozioni di differenziale esterno e pullback. Inoltre non so con che accezione stai usando il simbolo di prodotto \(\displaystyle \wedge \)
E' il prodotto esterno...in termini più generali...fra vettori invece è più noto come prodotto vettoriale.
Voglio provare a a darti una descrizione terra terra di ciò che ha scritto killing_buddha e di cosa stai effettivamente facendo quando cambi il sistema di riferimento (il cambio di variabili).
Disegna uno spazio cartesiano a tre dimensioni, tre assi, ok?
Sull'asse delle x disegna un vettore di magnitudine $ Delta x $, ovvero $ Delta x hat(i)=
Stessa cosa sugli altri due assi e hai i vettori $ Delta y hat(j)=<0, Delta y, 0 >$ e $ Delta z hat(k)=<0, 0, Delta z>$.
Se li colleghi, viene fuori un bel parallelepido P, no?
L'area di P è semplicemente il determinante di:
$ | ( Delta x , 0 , 0 ),( 0 , Delta y , 0 ),( 0 , 0 , Delta z ) | =Delta x*Delta y*Delta z$
Banale no? Se passi agli infinitesimi diventa ovviamente $dx*dy*dz$...un parallepipedo con un volume che tende a zero.
Ora dall'algebra lineare sai che se cambi il sistema di riferimento, allora significa che applichi a quello precedente una trasformazione lineare, ovvero una matrice che prende gli assi cartesiani (in questo caso) e li passa in coordinate polari/sferiche.
Il nostro microscopico parallepipedo P in questo sistema di riferimento avrà un'area diversa.
Ovvero il determinante dei differenziali della matrice di trasformazione, ovvero il determinate della Jacobiana.
E se sostituiamo le variabili cambiando sistema di riferimento allora dobbiamo anche cambiare l'area del nostro P.
Purtroppo mi sono perso nelle ultime tre righe. Visualizzare il prodotto \(\displaystyle dxdydz \) come il determinante della matrice mi porta a pensare che la soluzione del mio problema derivi dall'applicazione del teorema di Binet alla relazione:
\begin{matrix}dx & 0 & 0 \\ 0 & dy & 0 \\ 0 & 0 & dz\end{matrix} \(\displaystyle =J* \) \begin{matrix}dr & 0 & 0 \\ 0 & d\theta & 0 \\ 0 & 0 & d\phi\end{matrix}
che tuttavia è falsa
\begin{matrix}dx & 0 & 0 \\ 0 & dy & 0 \\ 0 & 0 & dz\end{matrix} \(\displaystyle =J* \) \begin{matrix}dr & 0 & 0 \\ 0 & d\theta & 0 \\ 0 & 0 & d\phi\end{matrix}
che tuttavia è falsa
"kBoltz":
\begin{matrix}dr & 0 & 0 \\ 0 & d\theta & 0 \\ 0 & 0 & d\phi\end{matrix}
Ma se secondo te quella è la jacobiana della trasformazione?
Hai semplicemente cambiato i nomi alle variabili da "pino" a sergio" e sei rimasto nello spazio di partenza.
Prova con una trasformazione in coordinate polari con due variabili:
$x=rcos(vartheta)$
$y=rsin(vartheta)$
Quella è la trasfomazione, ma tu vuoi anche sapere cosa accade all'area $dx*dy$ dopo la trasformazione...quindi trovali
Ricava prima dx, il differenziale totale, sapendo (o almeno dovresti) che è la somma delle derivate parziali.
Poi stessa cosa per dy e mi scrivi:
$dx= etc etc$
$dy=etc etc$
Trova etc etc e poi andiamo avanti....
https://it.wikipedia.org/wiki/Derivata_totale
...
Boh, capisco che mi stai dando una mano e nessuno ti costringe a farlo, ma prima di trattarmi da scemo potresti almeno assicurarti di aver letto bene.
1. non ho mai scritto che la matrice $ ( ( dr , 0 , 0 ),( 0 , d\theta , 0 ),( 0 , 0 , d\phi ) ) $ sia quella jacobiana.
2. La \(\displaystyle J \) è la matrice jacobiana e so come è fatta.
3. Mi scuso perché ho esposto una mia riflessione che effettivamente potevo risparmiarmi, visto che è superflua e ti ha mandato in confusione. Per chiarire provo a riscriverla:
Relazione che vorrei sapere da dove esce: \(\displaystyle dxdydz=|J|drd\theta d\phi \)
Trasformazione di coordinate: $ ( (dx), (dy), (dz) ) =J ( (dr), (d\theta), (d\phi) )$
Relazione che hai scritto tu: $ | ( dx , 0 , 0 ),( 0 , dy , 0 ),( 0 , 0 , dz ) |=dxdydz $
Cosa che ho pensato: "Ma non è forse che...$( ( dx , 0 , 0 ),( 0 , dy , 0 ),( 0 , 0 , dz ) )=J ( ( dr , 0 , 0 ),( 0 , d\theta , 0 ),( 0 , 0 , d\phi ) ) $ ????"
Se questa relazione fosse vera, attraverso il teorema di Binet (che dice che \(\displaystyle det(AB) =detA*detB\)) la relazione \(\displaystyle dxdydz=|J|drd\theta d\phi \) sarebbe dimostrata.
MA, risolvendo il prodotto tra matrici, l'uguaglianza non è soddisfatta, come tra l'altro ho scritto:
4. So come è fatto etcetc. Andiamo avanti?
Boh, capisco che mi stai dando una mano e nessuno ti costringe a farlo, ma prima di trattarmi da scemo potresti almeno assicurarti di aver letto bene.
1. non ho mai scritto che la matrice $ ( ( dr , 0 , 0 ),( 0 , d\theta , 0 ),( 0 , 0 , d\phi ) ) $ sia quella jacobiana.
2. La \(\displaystyle J \) è la matrice jacobiana e so come è fatta.
3. Mi scuso perché ho esposto una mia riflessione che effettivamente potevo risparmiarmi, visto che è superflua e ti ha mandato in confusione. Per chiarire provo a riscriverla:
Relazione che vorrei sapere da dove esce: \(\displaystyle dxdydz=|J|drd\theta d\phi \)
Trasformazione di coordinate: $ ( (dx), (dy), (dz) ) =J ( (dr), (d\theta), (d\phi) )$
Relazione che hai scritto tu: $ | ( dx , 0 , 0 ),( 0 , dy , 0 ),( 0 , 0 , dz ) |=dxdydz $
Cosa che ho pensato: "Ma non è forse che...$( ( dx , 0 , 0 ),( 0 , dy , 0 ),( 0 , 0 , dz ) )=J ( ( dr , 0 , 0 ),( 0 , d\theta , 0 ),( 0 , 0 , d\phi ) ) $ ????"
Se questa relazione fosse vera, attraverso il teorema di Binet (che dice che \(\displaystyle det(AB) =detA*detB\)) la relazione \(\displaystyle dxdydz=|J|drd\theta d\phi \) sarebbe dimostrata.
MA, risolvendo il prodotto tra matrici, l'uguaglianza non è soddisfatta, come tra l'altro ho scritto:
"kBoltz":
che tuttavia è falsa
4. So come è fatto etcetc. Andiamo avanti?
Infatti io ho scritto:
E sono qua per farti vedere come.
Scrivi il sistema differenziale.
"Bokonon":
Il nostro microscopico parallepipedo P in questo sistema di riferimento avrà un'area diversa.
Ovvero il determinante dei differenziali della matrice di trasformazione, ovvero il determinate della Jacobiana.
E se sostituiamo le variabili cambiando sistema di riferimento allora dobbiamo anche cambiare l'area del nostro P.
"kBoltz":
.4. So come è fatto etcetc. Andiamo avanti?
E sono qua per farti vedere come.
Scrivi il sistema differenziale.
$((dx),(dy),(dz))=( ( cos\theta cos\phi, -rcos\phi sen\theta , -rcos\theta sen\phi ),( cos\theta sen\phi, -rsen\theta sen\phi , rcos\theta cos\phi ),( sen\theta , rcos\theta , 0 ) ) ((dr),(d\theta),(d\phi))$
E ora trasforma i differenziali in vettori e visto che ti interessa l'area prendi i determinanti da ambo i lati esattamente come hai scritto. E ottieni appunto l'area "prima" e "dopo" la trasformazione.
Ma fallo con il sistema di Buddha perchè non ho la più pallida idea da dove tu abbia derivato il tuo.
Ma fallo con il sistema di Buddha perchè non ho la più pallida idea da dove tu abbia derivato il tuo.
Cosa intendi per trasformare i differenziali in vettori?
"kBoltz":
Cosa intendi per trasformare i differenziali in vettori?
Rileggi il mio primo post.
Il concetto è semplicissimo, non ci sono misteri profondi.
Preso un vettore dx, il suo determinante è la sua lunghezza. E' il caso univariato. Prendo il differenziale, lo moltiplico per l'"altezza" della curva, sommo i rettangoli in un intervallo definito e ottengo l'area sotto la curva.
Presi due vettori (dx,0) e (0,dy), il loro determinante è l'area. E' il caso bivariato, prendi le aree differenziali dxdy, le moltiplico per l'"altezza" della curva, sommo i parallelepipedi lungo tutto il dominio e ottengo l'area sotto la curva.
Tre vettori (dx,0,0) (0,dy,0) (0,0,dz) Stavolta il determinante è un volume...etc etc.
E' l'integrale di riemann nell'ottica dell'algebra lineare, ovvero matrici, ovvero vettori.
"Bokonon":
non ho la più pallida idea da dove tu abbia derivato il tuo.
Per esempio, da questa fonte attendibile:
http://mathworld.wolfram.com/SphericalCoordinates.html
(cercare "To express partial derivatives with respect to Cartesian axes...")
Aggiungo inoltre che il linguaggio di KB, basato sulle forme differenziali, non può essere usato per dimostrare rigorosamente la relazione
\[\tag{1}
\iiint f\, dxdydz = \iiint f\, r^2dr d\theta d\phi.\]
È come calcolare \(\lim \sin x /x\) con la regola di l'Hôpital: per costruire il linguaggio delle forme differenziali, bisogna prima avere stabilito che gli integrali si trasformano secondo (1). E questa è una cosa analitica che va fatta "the hard way", non c'è altro modo.
(Sono comunque d'accordo che si tratti di un linguaggio utile che può valere la pena conoscere. Ma non è così fondamentale - "Use differential forms only if the formalism makes your life easier and not harder.").
Anche i suggerimenti di Bokonon (al quale mi permetto di raccomandare un pizzico di umiltà in più) non sono una dimostrazione formale, ma degli spunti intuitivi sul perché la (1) dovrebbe essere vera.
"dissonance":
Aggiungo inoltre che il linguaggio di KB, basato sulle forme differenziali, non può essere usato per dimostrare rigorosamente la relazione
\[\tag{1}
\iiint f\, dxdydz = \iiint f\, r^2dr d\theta d\phi.\]
È come calcolare \(\lim \sin x /x\) con la regola di l'Hôpital: per costruire il linguaggio delle forme differenziali, bisogna prima avere stabilito che gli integrali si trasformano secondo (1). E questa è una cosa analitica che va fatta "the hard way", non c'è altro modo.
Ma va, cosa dici?

Se ricordo bene (ora non posso controllare con dovizia di dettaglio) esiste una spiegazione abbastanza chiara di questa unicità di linguaggio, che descrive volta per volta le strutture che si associano alle coomologie che si possono affibiare a uno spazio nell'introduzione del libro
From Quantum Cohomology to Integrable Systems,
che trovi qui.
Tu sei legato ad una descrizione analitica perché sei più padrone del linguaggio dell'analisi, ma la tua descrizione non è intrinseca nello stesso senso in cui non lo è la descrizione di una varietà laddove tu abbia scelto delle coordinate.
"dissonance":
[quote="Bokonon"]non ho la più pallida idea da dove tu abbia derivato il tuo.
Per esempio, da questa fonte attendibile: [/quote]
Non hai nemmeno guardato cosa ha scritto nella jacobiana, vero?
"kBoltz":
$((dx),(dy),(dz))=( ( cos\theta cos\phi, -rcos\phi sen\theta , -rcos\theta sen\phi ),( cos\theta sen\phi, -rsen\theta sen\phi , rcos\theta cos\phi ),( sen\theta , rcos\theta , 0 ) ) ((dr),(d\theta),(d\phi))$
"dissonance":
Anche i suggerimenti di Bokonon (al quale mi permetto di raccomandare un pizzico di umiltà in più) non sono una dimostrazione formale, ma degli spunti intuitivi sul perché la (1) dovrebbe essere vera.
"Bokonon":
Voglio provare a a darti una descrizione terra terra di ciò che ha scritto killing_buddha e di cosa stai effettivamente facendo quando cambi il sistema di riferimento (il cambio di variabili).
Accetto di buon grado anche critiche e i consigli ma anche tu.....assicurati di leggere tutto

@Bokonon : e tu, guarda il link. Troverai esattamente la stessa formula.
"dissonance":
@Bokonon : e tu, guarda il link. Troverai esattamente la stessa formula.
Ma ti droghi o cosa?
Dal tuo link (non che che ce ne fosse bisogno per calcolare derivate parziali così banali)

"kBoltz":
$((dx),(dy),(dz))=( ( cos\theta cos\phi, -rcos\phi sen\theta , -rcos\theta sen\phi ),( cos\theta sen\phi, -rsen\theta sen\phi , rcos\theta cos\phi ),( sen\theta , rcos\theta , 0 ) ) ((dr),(d\theta),(d\phi))$
...e per te sono la stessa cosa?
Proprio identica identica?