Campo vettoriale su varietà
Fino a qualche mese fa, quando ero ancora un giovane e innocente studente di Analisi II (
), un campo vettoriale era tout court una funzione [tex]f: A \subseteq \mathbb{R}^{m} \to \mathbb{R}^{n}$[/tex]. Con questa definizione, potevo calcolare limiti, scrivere la jacobiana etc.
Bene queste certezze sono un po' crollate.
Sia [tex]M[/tex] una varietà differenziabile (di dimensione [tex]n[/tex]) e siano [tex]q^i[/tex] le coordinate su [tex]M[/tex]. Preso un punto [tex]x\in M[/tex], posso definire in maniera abbastanza semplice lo spazio tangente a [tex]M[/tex] in [tex]x[/tex]. Precisamente, questo spazio - denotato con [tex]T_{x}M[/tex] - è uno spazio vettoriale di dimensione [tex]n[/tex] una cui base è data dagli [tex]n[/tex] vettori [tex]\displaystyle \frac{\partial x}{\partial q^{i}}[/tex].
(Intermezzo: è ben scritto fino a qui? Mi sono espresso correttamente?)
Ora, definito il fibrato tangente come [tex]\displaystyle TM = \bigcup_{x \in M} T_{x}M[/tex], posso definire una mappa che lavora in modo ovvio: [tex]\pi: TM \mapsto M[/tex], associando ad ogni vettore tangente il punto in cui esso tange la varietà.
A questo punto "inverto": una qualunque sezione di [tex]\pi[/tex], i.e. una mappa [tex]\psi: M \to TM[/tex] tale che [tex]\pi \circ \psi = id[/tex], è detta campo vettoriale su [tex]M[/tex].
Alcune questioni:
(1) per essere una sezione, [tex]\psi[/tex] deve essere tale che [tex]\pi \circ \psi = id[/tex], giusto? Altre condizioni? Una qualunque sezione del fibrato tangente è un campo vettoriale?
(2) Riuscite a farmi un esempio, per piacere? Nulla di troppo complesso, mi basta una mano o un input poi vado avanti da solo.
Vi ringrazio.

Bene queste certezze sono un po' crollate.
Sia [tex]M[/tex] una varietà differenziabile (di dimensione [tex]n[/tex]) e siano [tex]q^i[/tex] le coordinate su [tex]M[/tex]. Preso un punto [tex]x\in M[/tex], posso definire in maniera abbastanza semplice lo spazio tangente a [tex]M[/tex] in [tex]x[/tex]. Precisamente, questo spazio - denotato con [tex]T_{x}M[/tex] - è uno spazio vettoriale di dimensione [tex]n[/tex] una cui base è data dagli [tex]n[/tex] vettori [tex]\displaystyle \frac{\partial x}{\partial q^{i}}[/tex].
(Intermezzo: è ben scritto fino a qui? Mi sono espresso correttamente?)
Ora, definito il fibrato tangente come [tex]\displaystyle TM = \bigcup_{x \in M} T_{x}M[/tex], posso definire una mappa che lavora in modo ovvio: [tex]\pi: TM \mapsto M[/tex], associando ad ogni vettore tangente il punto in cui esso tange la varietà.
A questo punto "inverto": una qualunque sezione di [tex]\pi[/tex], i.e. una mappa [tex]\psi: M \to TM[/tex] tale che [tex]\pi \circ \psi = id[/tex], è detta campo vettoriale su [tex]M[/tex].
Alcune questioni:
(1) per essere una sezione, [tex]\psi[/tex] deve essere tale che [tex]\pi \circ \psi = id[/tex], giusto? Altre condizioni? Una qualunque sezione del fibrato tangente è un campo vettoriale?
(2) Riuscite a farmi un esempio, per piacere? Nulla di troppo complesso, mi basta una mano o un input poi vado avanti da solo.
Vi ringrazio.

Risposte
Una 1-forma è semplicemente una sezione del fibrato cotangente. Per comprendere le k-forme differenziali devi prima di tutto imparare che cos'è l'algebra esterna (leggi per esempio su wikipedia). A questo punto, le k-forme non sono altro che la sezione del fibrato vettoriale le cui fibre sono le potenze esterne dello spazio cotangente. Il vantaggio del lavorare con le forme invece che con i campi è la presenza di un prodotto ([tex]\wedge[/tex]) e del differenziale. Ma se vuoi approfondire ti consiglio di lasciar perdere il Sernesi e provare a dare un occhiata a un qualche libro più avanzato, per esempio "Foundations of differentiable manifolds and Lie groups" di Warner.
"Paolo90":
[quote="apatriarca"]È esattamente così che si risolvono quegli esercizi (e molti altri di geometria differenziale). L'altro strumento fondamentale sono le partizioni dell'unità, ma credo che le vedrai solo alla specialistica (non ricordo di averle fatte nei corsi della triennale ma nel frattempo i corsi sono cambiati).
Ottimo, sono contento che vada bene. Grazie per le osservazioni e le anticipazioni (le partizioni dell'unità le ho viste sul Sernesi: non servono per il teorema di Whitney? Penso darò un'occhiata più approfondita quando avrò un po' di tempo).[/quote]
Beh, sì, ma non solo. Comunque, quoto tutto quello che ha detto apatriarca e in particolare, se vuoi studiare il teorema di Whitney ti consiglio di non utilizzare il Sernesi, perché fa un po' di casino.
Le partizioni sono fondamentali anche solo per definire il concetto di integrazione delle n-forme su una varietà di dimensione n!
E, sì, alla triennale non si vedono (oggi ho dato l'ultimo esame della triennale, quindi posso confermarlo sul serio). A parte se te le studi da solo, naturalmente!
Invece, se vuoi un compendio della parte di algebra multilineare necessaria ad introdurre le forme, trovo che il Sernesi vada abbastanza bene allo scopo: è abbastanza sintetico, ma è anche chiaro.
Rileggendo con più attenzione mi sono accorto di questa tua affermazione:
Ecco, questo è falso! Il fibrato tangente ha struttura di varietà differenziabile di dimensione [tex]2n[/tex]! Ad esempio, il fibrato tangente di [tex]\mathcal S^1[/tex] è diffeomorfo ad un cilindro!
Il fibrato cotangente, semmai, è l'unione dei duali degli spazi tangenti. Questo sarà perfettamente normale una volta che ti sarai educato alle forme differenziali, ma io sono troppo poco esperto di questi argomenti e cedo volentieri il posto alle più sagge parole di apatriarca.
Uhm, il problema è che prima di tutto hai bisogno della definizione, per cogliere la sottigliezza di certe cose. Comunque, provo a farti l'esempio più naturale che possa venire in mente. Ricordo la definizione che ho imparato io di forma. Una k-forma è il dato di un [tex]k[/tex]-tensore alternato per ogni punto della varietà.
Prima dell'esempio, voglio ancora ricordare una cosa. Se [tex]f : X \to Y[/tex] è un diffeomorfismo di varietà, il differenziale di [tex]f[/tex] nel punto [tex]\bold x_0 \in X[/tex] è un'applicazione lineare [tex]df[\bold x_0](\cdot) : T_{\bold x_0}X \to T_{f(\bold x_0)}Y[/tex], definita da [tex]df[\bold x_0](\bold v_{\bold x_0}) (F) = \bold v(F \circ f)_{\bold x_0}[/tex] per ogni [tex]F \in \mathcal E_{f(\bold x_0)}(Y)[/tex] (utilizzando la mia prima definizione di vettore tangente). Oppure [tex]df[\bold x_0](\mathbf v) = [f \circ \gamma][/tex], dove [tex]\gamma[/tex] è un rappresentante della classe [tex]\mathbf v[/tex] e con [tex][\cdot][/tex] denoto la classe di equivalenza che avevo introdotto qualche post fa per parlare dei vettori tangenti.
Bene, adesso fissiamo una varietà [tex]M[/tex] e una funzione differenziabile [tex]f : M \to \mathbb R[/tex]. Per ogni [tex]\bold x_0 \in M[/tex] possiamo considerare l'applicazione lineare [tex]df[\bold x_0](\cdot) : T_{\bold x_0}M \to T_{f(\bold x_0)} \mathbb R \simeq \mathbb R[/tex]. Ora è chiaro che [tex]df[\bold x_0](\cdot) \in T_{\bold x_0}^* M[/tex] e quindi è un [tex]1[/tex]-tensore alternato (semplicemente un covettore!).
Pertanto l'applicazione [tex]df \colon M \to T^*M[/tex] definita da [tex]df(\bold x_0) = df[\bold x_0](\cdot)[/tex] è, per definizione, una [tex]1[/tex]-forma differenziale, detto differenziale della funzione [tex]f[/tex].
Ad esempio, se ci mettiamo in [tex]\mathbb R^n[/tex], puoi considerare le proiezioni canoniche [tex]\pi_i : \mathbb R^n \to \mathbb R[/tex] che al vettore [tex]\mathbf x[/tex] associa la sua i-esima componente. Qual è il differenziale di [tex]\pi_i[/tex]? E' esattamente l'applicazione costante che ad ogni punto associa l'i-esimo covettore, cioè l'i-esima elemento della base duale canonica di [tex]\mathbb R^n[/tex], che io denoto [tex]\bold e^i[/tex]. Solitamente si denota questo elemento con [tex]\text{d} \bold x_i[/tex].
Ora, le forme si possono sommare puntualmente e moltiplicare per uno scalare. Quindi formano uno spazio vettoriale. Inoltre, classici teoremi di algebra multilineare assicurano che lo spazio dei [tex]k[/tex]-tensori alternati è generato esattamente dai prodotti esterni [tex]\bold e^{i_1} \wedge \bold e^{i_2} \wedge \ldots \wedge \bold e^{i_k}[/tex], dove [tex]1 \le i_1 < i_2 < \ldots < i_k \le n[/tex] (da cui puoi facilmente ricavare la dimensione di questi spazi vettoriali, visto che questi elementi sono pure indipendenti
). Nel caso [tex]k = 1[/tex] non otteniamo nulla di nuovo, cioè otteniamo la base che conoscevamo già. Ma questo mi serve per farti riflettere che, di fatto, conoscere una base per ogni spazio cotangente, ci porta a conoscere una base per tutte le forme. E, siccome [tex]\bold e^1, \ldots, \bold e^n[/tex] sono una base per l'insieme degli 1-tensori su ogni spazio tangente, segue che le forme costantemente uguali a questi covettori sono una base per lo spazio delle 1-forme su [tex]M[/tex].
Riassumendo, [tex]\text{d} \bold{x}_1, \text{d} \bold{x}_2, \ldots, \text{d} \bold{x}_n[/tex] formano una base dello spazio vettoriale delle 1-forme in [tex]\mathbb R^n[/tex]! E da questo, mediante il prodotto esterno definito puntualmente, ottieni una base per le [tex]k[/tex]-forme!
Et voilà! Abbiamo dato finalmente un significato alla scrittura [tex]dx[/tex], che ci ha tormentato per anni! (quando ho scoperto questa cosa, volevo andare da qualche fisico a bullarmi della mia scoperta!
)
"Paolo90":
Prendo la mia solità varietà [tex]M[/tex], e considero il fibrato tangente [tex]TM[/tex]. Questo è uno spazio vettoriale di dimensione [tex]n[/tex]; ne considero il duale, che si chiama fibrato cotangente, [tex]T^{*}M[/tex] che è di nuovo uno spazio vettoriale di dimensione [tex]n[/tex].
Ecco, questo è falso! Il fibrato tangente ha struttura di varietà differenziabile di dimensione [tex]2n[/tex]! Ad esempio, il fibrato tangente di [tex]\mathcal S^1[/tex] è diffeomorfo ad un cilindro!
Il fibrato cotangente, semmai, è l'unione dei duali degli spazi tangenti. Questo sarà perfettamente normale una volta che ti sarai educato alle forme differenziali, ma io sono troppo poco esperto di questi argomenti e cedo volentieri il posto alle più sagge parole di apatriarca.

"Paolo90":
Per tornare di nuovo al punto di partenza, c'è un esempio non troppo complesso su cui posso ragionare, per piacere?
Non sono interessato in questo momento ai concetti che normalmente si fanno quando si studiano le forme (chiusura, esattezza, potenziali), ma ho bisogno di capire la definizione astratta.
Uhm, il problema è che prima di tutto hai bisogno della definizione, per cogliere la sottigliezza di certe cose. Comunque, provo a farti l'esempio più naturale che possa venire in mente. Ricordo la definizione che ho imparato io di forma. Una k-forma è il dato di un [tex]k[/tex]-tensore alternato per ogni punto della varietà.
Prima dell'esempio, voglio ancora ricordare una cosa. Se [tex]f : X \to Y[/tex] è un diffeomorfismo di varietà, il differenziale di [tex]f[/tex] nel punto [tex]\bold x_0 \in X[/tex] è un'applicazione lineare [tex]df[\bold x_0](\cdot) : T_{\bold x_0}X \to T_{f(\bold x_0)}Y[/tex], definita da [tex]df[\bold x_0](\bold v_{\bold x_0}) (F) = \bold v(F \circ f)_{\bold x_0}[/tex] per ogni [tex]F \in \mathcal E_{f(\bold x_0)}(Y)[/tex] (utilizzando la mia prima definizione di vettore tangente). Oppure [tex]df[\bold x_0](\mathbf v) = [f \circ \gamma][/tex], dove [tex]\gamma[/tex] è un rappresentante della classe [tex]\mathbf v[/tex] e con [tex][\cdot][/tex] denoto la classe di equivalenza che avevo introdotto qualche post fa per parlare dei vettori tangenti.
Bene, adesso fissiamo una varietà [tex]M[/tex] e una funzione differenziabile [tex]f : M \to \mathbb R[/tex]. Per ogni [tex]\bold x_0 \in M[/tex] possiamo considerare l'applicazione lineare [tex]df[\bold x_0](\cdot) : T_{\bold x_0}M \to T_{f(\bold x_0)} \mathbb R \simeq \mathbb R[/tex]. Ora è chiaro che [tex]df[\bold x_0](\cdot) \in T_{\bold x_0}^* M[/tex] e quindi è un [tex]1[/tex]-tensore alternato (semplicemente un covettore!).
Pertanto l'applicazione [tex]df \colon M \to T^*M[/tex] definita da [tex]df(\bold x_0) = df[\bold x_0](\cdot)[/tex] è, per definizione, una [tex]1[/tex]-forma differenziale, detto differenziale della funzione [tex]f[/tex].
Ad esempio, se ci mettiamo in [tex]\mathbb R^n[/tex], puoi considerare le proiezioni canoniche [tex]\pi_i : \mathbb R^n \to \mathbb R[/tex] che al vettore [tex]\mathbf x[/tex] associa la sua i-esima componente. Qual è il differenziale di [tex]\pi_i[/tex]? E' esattamente l'applicazione costante che ad ogni punto associa l'i-esimo covettore, cioè l'i-esima elemento della base duale canonica di [tex]\mathbb R^n[/tex], che io denoto [tex]\bold e^i[/tex]. Solitamente si denota questo elemento con [tex]\text{d} \bold x_i[/tex].
Ora, le forme si possono sommare puntualmente e moltiplicare per uno scalare. Quindi formano uno spazio vettoriale. Inoltre, classici teoremi di algebra multilineare assicurano che lo spazio dei [tex]k[/tex]-tensori alternati è generato esattamente dai prodotti esterni [tex]\bold e^{i_1} \wedge \bold e^{i_2} \wedge \ldots \wedge \bold e^{i_k}[/tex], dove [tex]1 \le i_1 < i_2 < \ldots < i_k \le n[/tex] (da cui puoi facilmente ricavare la dimensione di questi spazi vettoriali, visto che questi elementi sono pure indipendenti

Riassumendo, [tex]\text{d} \bold{x}_1, \text{d} \bold{x}_2, \ldots, \text{d} \bold{x}_n[/tex] formano una base dello spazio vettoriale delle 1-forme in [tex]\mathbb R^n[/tex]! E da questo, mediante il prodotto esterno definito puntualmente, ottieni una base per le [tex]k[/tex]-forme!
Et voilà! Abbiamo dato finalmente un significato alla scrittura [tex]dx[/tex], che ci ha tormentato per anni! (quando ho scoperto questa cosa, volevo andare da qualche fisico a bullarmi della mia scoperta!

"maurer":
Rileggendo con più attenzione mi sono accorto di questa tua affermazione:
[quote="Paolo90"]
Prendo la mia solità varietà [tex]M[/tex], e considero il fibrato tangente [tex]TM[/tex]. Questo è uno spazio vettoriale di dimensione [tex]n[/tex]; ne considero il duale, che si chiama fibrato cotangente, [tex]T^{*}M[/tex] che è di nuovo uno spazio vettoriale di dimensione [tex]n[/tex].
Ecco, questo è falso! Il fibrato tangente ha struttura di varietà differenziabile di dimensione [tex]2n[/tex]! Ad esempio, il fibrato tangente di [tex]\mathcal S^1[/tex] è diffeomorfo ad un cilindro!
Il fibrato cotangente, semmai, è l'unione dei duali degli spazi tangenti. Questo sarà perfettamente normale una volta che ti sarai educato alle forme differenziali, ma io sono troppo poco esperto di questi argomenti e cedo volentieri il posto alle più sagge parole di apatriarca.

[/quote]

Posso chiedere una cosa?
Non capisco in che senso dici che un fibrato vettoriale non è una varietà. Soprattutto visto che poi dici che [tex]E[/tex] è una varietà.
Tanto più che
questa proprietà mi sembra idonea a ricostruire un atlante differenziabile su [tex]E[/tex]. Non capisco dove sbaglio...
"apatriarca":
Nella definizione più generale (nel senso di fibrati vettoriali su varietà differenziabili), un fibrato vettoriale non è nemmeno una varietà. [...], un fibrato vettoriale è cioè un morfismo suriettivo [tex]\pi : E \to B[/tex] tra una varietà [tex]E[/tex] (che in inglese credo prenda il nome di total space) e di una seconda varietà [tex]B[/tex] (che in inglese prende il nome di base space).
Non capisco in che senso dici che un fibrato vettoriale non è una varietà. Soprattutto visto che poi dici che [tex]E[/tex] è una varietà.
Tanto più che
"apatriarca":
Questa mappa ha la proprietà che [tex]\pi^{-1}(x) \cong \mathbb R^k[/tex] per un qualche [tex]k[/tex] e che per ogni punto [tex]x \in B[/tex] esiste un suo intorno [tex]U[/tex] tale che esiste un diffeomorfismo [tex]\varphi : U \times \mathbb R^k \to \pi^{-1}(U)[/tex].
questa proprietà mi sembra idonea a ricostruire un atlante differenziabile su [tex]E[/tex]. Non capisco dove sbaglio...
Era tardi e cercando di essere conciso ho finito per essere fin troppo criptico. Un fibrato è “qualcosa di più” che una varietà. Dicendo che [tex]E[/tex] è un fibrato vettoriale su [tex]B[/tex] si sta dicendo che esiste una morfismo [tex]\pi : E \to B[/tex] suriettivo, che la controimmagine di ogni punto di [tex]B[/tex] attraverso [tex]\pi[/tex] può essere dotato di una struttura di spazio vettoriale, che queste fibre sono tra loro isomorfe e che per ogni punto esiste un intorno per il quale esiste il diffeomorfismo [tex]\phi[/tex] del post precedente. Un fibrato vettoriale è il dato di tutte queste cose, non si limita ad [tex]E[/tex]. Quando si parla di fibrati vettoriali è infatti comune dire “dato il fibrato vettoriale [tex]E \xrightarrow{\pi} B[/tex]” (o notazioni equivalenti) invece del più impreciso “dato il fibrato vettoriale [tex]E[/tex] di [tex]B[/tex]” (nota che anche in questo caso si fa sempre e comunque riferimento anche allo spazio di base.
Ok, adesso mi è chiarissimo!!! In effetti, l'analogia con i rivestimenti aiuta non poco!
[Piccolo OT]
Qui a Bari le partizioni dell'unità le abbiam fatte, proprio nel corso di Geometria differenziale.
PS complimenti Maurer per il traguardo!
[/OT]
Qui a Bari le partizioni dell'unità le abbiam fatte, proprio nel corso di Geometria differenziale.
PS complimenti Maurer per il traguardo!
[/OT]
Che bello il libro di Warner! Ne ho visto un po' di pagine in un'anteprima online e mi sembra davvero ben fatto.
Hai ragione, che cretino, ho proprio sparato una scemenza. E dire che lo sapevo anche! Avevo il cervello staccato, sorry.
Per quanto riguarda la questione forme-tensori, mi è chiaro il discorso (molto bello
) che fai a proposito del differenziale, del significato di [tex]dx[/tex] (considerando il caso delle proiezioni sui fattori).
Purtroppo però mi manca tutta la parte dell'algebra esterna, quindi le operazioni sono un po' nebulose.
Poi non capisco che cosa significa
Che cosa significa "alternato"? Puoi spiegarmi un po' di più per piacere? Inoltre, il punto in cui proprio mi perdo è questo:
Parallelamente a questo (anzi, dovrei dire dualmente
) sto continuando con lo studio dei campi vettoriali, con cui finalmente comincio a prendere dimestichezza. In particolare, ho imparato a fare il push forward di campi vettoriali e il pull back di covettori (immagino che tutto si possa generalizzare con tensori, ma per ora mi accontento
) e ora dovrei definire la derivata di Lie.
Il problema non sta tanto nella definizione stessa che fa uso del pull back, quanto in un altro concetto che non conosco: che cos'è il flusso di un campo vettoriale (su una varietà [tex]M[/tex])? Qui si vedono le mie lacune in Analisi...
Prendiamo [tex]F: M \to TM[/tex] campo vettoriale su [tex]M[/tex]. E' corretto dire questo? Il flusso di [tex]F[/tex] è l'insieme
[tex]\left\{\Phi_{t}: M \to M, \, t \in \mathbb{R}\right\}[/tex]
dove [tex]\Phi_{0}(p) = p[/tex], per ogni [tex]p \in M[/tex] e [tex]\displaystyle \frac{d}{dt}\Phi_{t}\vert_{t=t_{0}}=F(\Phi_{t_{0}})[/tex].
Adesso, prendiamo il campo vettoriale di uno dei primi post di questo thread, quello su [tex]$S^{2}$[/tex] definito da [tex]\psi(x,y,z)=(y,-x,0)[/tex]. Qual è il suo flusso?
Se avessi visto come si risolvono i sistemi dinamici, forse avrei le idee un po' più chiare, ma quest'anno me li hanno tolti dal programma
...
Grazie
"maurer":
Ecco, questo è falso! Il fibrato tangente ha struttura di varietà differenziabile di dimensione [tex]2n[/tex]! Ad esempio, il fibrato tangente di [tex]\mathcal S^1[/tex] è diffeomorfo ad un cilindro!
Il fibrato cotangente, semmai, è l'unione dei duali degli spazi tangenti. Questo sarà perfettamente normale una volta che ti sarai educato alle forme differenziali, ma io sono troppo poco esperto di questi argomenti e cedo volentieri il posto alle più sagge parole di apatriarca.
Hai ragione, che cretino, ho proprio sparato una scemenza. E dire che lo sapevo anche! Avevo il cervello staccato, sorry.
Per quanto riguarda la questione forme-tensori, mi è chiaro il discorso (molto bello

Purtroppo però mi manca tutta la parte dell'algebra esterna, quindi le operazioni sono un po' nebulose.
Poi non capisco che cosa significa
"maurer":
Una k-forma è il dato di un [tex]k[/tex]-tensore alternato per ogni punto della varietà.
Che cosa significa "alternato"? Puoi spiegarmi un po' di più per piacere? Inoltre, il punto in cui proprio mi perdo è questo:
"maurer":
Inoltre, classici teoremi di algebra multilineare assicurano che lo spazio dei [tex]k[/tex]-tensori alternati è generato esattamente dai prodotti esterni [tex]\bold e^{i_1} \wedge \bold e^{i_2} \wedge \ldots \wedge \bold e^{i_k}[/tex], dove [tex]1 \le i_1 < i_2 < \ldots < i_k \le n[/tex] (da cui puoi facilmente ricavare la dimensione di questi spazi vettoriali, visto che questi elementi sono pure indipendenti). Nel caso [tex]k = 1[/tex] non otteniamo nulla di nuovo, cioè otteniamo la base che conoscevamo già. Ma questo mi serve per farti riflettere che, di fatto, conoscere una base per ogni spazio cotangente, ci porta a conoscere una base per tutte le forme. E, siccome [tex]\bold e^1, \ldots, \bold e^n[/tex] sono una base per l'insieme degli 1-tensori su ogni spazio tangente, segue che le forme costantemente uguali a questi covettori sono una base per lo spazio delle 1-forme su [tex]M[/tex].
Parallelamente a questo (anzi, dovrei dire dualmente


Il problema non sta tanto nella definizione stessa che fa uso del pull back, quanto in un altro concetto che non conosco: che cos'è il flusso di un campo vettoriale (su una varietà [tex]M[/tex])? Qui si vedono le mie lacune in Analisi...
Prendiamo [tex]F: M \to TM[/tex] campo vettoriale su [tex]M[/tex]. E' corretto dire questo? Il flusso di [tex]F[/tex] è l'insieme
[tex]\left\{\Phi_{t}: M \to M, \, t \in \mathbb{R}\right\}[/tex]
dove [tex]\Phi_{0}(p) = p[/tex], per ogni [tex]p \in M[/tex] e [tex]\displaystyle \frac{d}{dt}\Phi_{t}\vert_{t=t_{0}}=F(\Phi_{t_{0}})[/tex].
Adesso, prendiamo il campo vettoriale di uno dei primi post di questo thread, quello su [tex]$S^{2}$[/tex] definito da [tex]\psi(x,y,z)=(y,-x,0)[/tex]. Qual è il suo flusso?
Se avessi visto come si risolvono i sistemi dinamici, forse avrei le idee un po' più chiare, ma quest'anno me li hanno tolti dal programma

Grazie

"Paolo90":
Poi non capisco che cosa significa
[quote="maurer"]Una k-forma è il dato di un [tex]k[/tex]-tensore alternato per ogni punto della varietà.
Che cosa significa "alternato"? Puoi spiegarmi un po' di più per piacere? [/quote]
Volentieri. Innanzi tutto, che cos'è un tensore? Se hai avuto la sventura come me di seguire un corso di nome Fisica 2, avrai anche avuto la sventura di incontrare i tensori come li definiscono i fisici, cioè in un modo completamente incomprensibile pure a loro. Semplicemente, invece, noi ci accontentiamo di definire un [tex]k[/tex] tensore su un [tex]K[/tex]-spazio vettoriale [tex]V[/tex] come un'applicazione [tex]T : V^k \to K[/tex], dove [tex]V^k = V \times V \times \ldots \times V[/tex], tale che [tex]T(\bold v_1, \ldots, \lambda \bold v_i + \mu \bold w_i, \ldots, \bold v_n) = \lambda T(\bold v_1, \ldots, \bold v_i, \ldots, \bold v_n) + \mu T(\bold v_1, \ldots, \bold w_i, \ldots, \bold v_n)[/tex], ovvero che sia lineare in ogni suo argomento (i.e. multilineare). Denotiamo con [tex]\mathcal T^k(V^*)[/tex] la famiglia dei [tex]k[/tex]-tensori su [tex]V[/tex] (con [tex]V^*[/tex] denoto il duale dello spazio vettoriale). Possiamo definire la somma di tensori nel modo ovvio e possiamo anche definire il prodotto per uno scalare, sicché [tex]\mathcal T^k(V^*)[/tex] diventa in maniera naturale un [tex]K[/tex]-spazio vettoriale. Ci piacerebbe calcolare la dimensione. Iniziamo ad osservare che per [tex]k = 1[/tex] si ha banalmente [tex]\mathcal T^1(V^*) = V^*[/tex], ossia lo spazio duale. In questo caso la dimensione è la stessa dello spazio vettoriale di partenza e una base è ad esempio la base duale canonica.
Per trattare il caso generale, introduciamo ancora un'operazione, che chiamiamo prodotto tensoriale:
[tex]\otimes: \mathcal T^k (V^*) \times \mathcal T^h(V^*) \to \mathcal T^{k+h}(V^*)[/tex]
definito da [tex](F\otimes G)(\bold v_1, \ldots, \bold v_k, \bold w_1, \ldots, \bold w_h) := F(\bold v_1, \ldots, \bold v_k) G(\bold w_1, \ldots, \bold w_h)[/tex].
Diremo che un k-tensore [tex]F[/tex] è decomponibile se esistono k [tex]1[/tex]-tensori [tex]G_1, \ldots, G_k[/tex] tali che [tex]F = G_1 \otimes G_2 \otimes \ldots \otimes G_k[/tex]. Non tutti i tensori sono decomponibili. Forse a questo punto è però necessario un esempio. Prendiamo [tex]k = 2[/tex]. Allora un [tex]2[/tex]-tensore è un'applicazione multilineare da [tex]V \times V[/tex] a [tex]K[/tex]. E questa è una forma bilineare su [tex]V[/tex]! Non tutte le forme bilineari sono decomponibili. Ad esempio se [tex]V = \mathbb R^n[/tex], la forma [tex]\varphi(\bold x, \bold y) = x_1 y_1[/tex] è decomponibile, mentre [tex]\psi(\bold x, \bold y) = \langle \bold x, \bold y \rangle[/tex] non lo è.
Question. Supponiamo che [tex]V[/tex] sia uno spazio vettoriale di dimensione [tex]n[/tex]. Mi sapresti dare un esempio di [tex]n[/tex]-tensore su [tex]V[/tex]?
Adesso arriva il primo teorema che ci interessa. E' piuttosto semplice e ti lascio il compito di dimostrarlo, perché può aiutarti a prendere confidenza con i concetti introdotti.
Teorema Sia [tex]V[/tex] un [tex]K[/tex]-spazio vettoriale di dimensione n. Allora l'insieme [tex]\{\bold e^{i_1} \otimes \bold e^{i_2} \otimes \ldots \otimes \bold e^{i_k}, 1 \le i_1, i_2, \ldots, i_k \le n[/tex] è una base di [tex]\mathcal T^k(V^*)[/tex] e quindi in particolare [tex]\text{dim}_K(\mathcal T^k(V^*)) = n^k[/tex].
Veniamo adesso alla questione dei tensori alternati. Sicuramente ti ricorderai che il segno [tex]\epsilon(\cdot)[/tex] di una permutazione è l'unico omomorfismo non banale da [tex]\mathcal S_n[/tex] a [tex]\{\pm 1\}[/tex].
Definizione. Diciamo che il tensore [tex]F \in \mathcal T^k(V^*)[/tex] è alternato se [tex]F(\bold v_{\sigma(1)}, \bold v_{\sigma(2)}, \ldots, \bold v_{\sigma(k)}) = \epsilon(\sigma) F(\bold v_1, \bold v_2, \ldots, \bold v_k)[/tex].
I tensori alternati ci piacciono per un sacco di motivi. Credo, ma invito chiunque ne sappia più di me a contraddirmi, che le forme differenziali vengano fondate sui tensori alternati per motivi di orientazione della superficie (vorremmo che l'integrale di una funzione cambiasse di segno se cambiamo orientazione; e cambiare orientazione equivale in qualche modo ad operare una trasposizione sulla base di tutti gli spazi vettoriali tangenti del fibrato tangente; se i tensori sono alternati, cambiano automaticamente di segno in ogni punto e l'integrale risultante cambia pure lui il segno, che è appunto quello che desideriamo).
La somma di tensori alternati è ancora un tensore alternato. Ancora più banalmente, il prodotto di un tensore alternato per uno scalare è ancora un tensore alternato. Quindi l'insieme dei tensori alternati forma un sottospazio vettoriale di [tex]\mathcal T^k(V^*)[/tex]. Denotiamo questo sottospazio con [tex]\bigwedge^k V^*[/tex].
Per comodità, se [tex]\sigma \in \mathcal S_k[/tex] e [tex]F \in \mathcal T^k(V^*)[/tex] definiamo [tex]F^\sigma(\bold v_1, \ldots, \bold v_k) := F(\bold v_{\sigma(1)}, \ldots, \bold v_{\sigma(k)})[/tex]. Adesso, se [tex]F[/tex] è un k-tensore, il nuovo tensore [tex]\text{Alt}(F)[/tex] definito da
[tex]\displaystyle \text{Alt}(F) := \frac{1}{k!} \sum_{\sigma \in \mathcal S_k} \epsilon(\sigma) F^\sigma[/tex]
è un tensore alternato che prende il nome di alternato di [tex]F[/tex].
Possiamo finalmente definire il prodotto esterno di due tensori alternati nel modo seguente: [tex]\wedge : \bigwedge^k V^* \times \bigwedge^h V^* \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
Si dimostra che una base di [tex]\bigwedge^k V^*[/tex] è data da [tex]\bold e^{i_1} \wedge \bold e^{i_2} \wedge \ldots \wedge \bold e^{i_k}[/tex] con [tex]1 \le i_1 < i_2 < \ldots < i_k \le n[/tex]. Quindi la dimensione di questo spazio vettoriale è [tex]\displaystyle n \choose k[/tex].
Questa è, in estrema sintesi, l'algebra multilineare che ti serve. Non ho dimostrato granché, ma quasi tutto quello che ho utilizzato puoi ricavartelo da solo partendo solo dalle definizioni (tranne forse l'ultimo risultato per cui occorrono un po' di lemmi). Naturalmente, nel mezzo ci sono anche un sacco di altri risultati che ti torneranno utili, per i quali ti rimando al testo di Sernesi (dove io li ho studiati la prima volta). Naturalmente, se qualcuno ha consigli migliori si faccia avanti, perché anch'io sarei interessato a migliorare le mie conoscenze in questa direzione.
"Paolo90":
Il problema non sta tanto nella definizione stessa che fa uso del pull back, quanto in un altro concetto che non conosco: che cos'è il flusso di un campo vettoriale (su una varietà [tex]M[/tex])? Qui si vedono le mie lacune in Analisi...
Prendiamo [tex]F: M \to TM[/tex] campo vettoriale su [tex]M[/tex]. E' corretto dire questo? Il flusso di [tex]F[/tex] è l'insieme
[tex]\left\{\Phi_{t}: M \to M, \, t \in \mathbb{R}\right\}[/tex]
dove [tex]\Phi_{0}(p) = p[/tex], per ogni [tex]p \in M[/tex] e [tex]\displaystyle \frac{d}{dt}\Phi_{t}\vert_{t=t_{0}}=F(\Phi_{t_{0}})[/tex].
Uhm... Il problema non sono le tue lacune, perché per trattare in modo dignitoso quest'argomento occorre per lo meno il teorema di esistenza ed unicità locale per sistemi di equazioni differenziali ordinarie, che a Torino non si studia prima del terzo anno (**) (analisti di tutto il forum, per favore, non svenite!!!).
Comunque, vediamo che si può fare. Il flusso, innanzi tutto, non è un insieme, ma una funzione. In generale non è nemmeno definita su tutta la varietà (anche se noi nel nostro corso di Meccanica avevamo chiuso un occhio).
Definizione. Sia [tex]X : M \to TM[/tex] un campo vettoriale. Diciamo che una curva differenziabile [tex]\sigma : (a,b) \to M[/tex] è una curva integrale di [tex]X[/tex] se [tex]\sigma'(t) = X(\sigma(t))[/tex] per ogni [tex]t \in (a,b)[/tex](*).
Adesso, fissa una parametrizzazione locale [tex]\varphi^{-1} : \varphi(U) \to M[/tex] e supponi che [tex]\sigma : (a,b) \to U[/tex] sia una curva differenziabile. In [tex]U[/tex] possiamo naturalmente scrivere [tex]X \circ \varphi = X^i \varphi_i[/tex] (uso la notazione di Einstein, che in questo caso risulta particolarmente comoda e denoto con [tex]\varphi_i[/tex] la derivata rispetto all'i-esima componente di [tex]\varphi[/tex], ossia il vettore tangente [tex]\displaystyle \left( \frac{\partial}{\partial q^i} \right)[/tex] - sapresti giustificare quest'ultima affermazione?). Adesso se scriviamo [tex]\sigma(t) = \varphi(\sigma^1(t), \ldots, \sigma^n(t))[/tex] con [tex]\sigma^i : (a,b) \to \varphi(U) \subset \mathbb R^n[/tex], la condizione "[tex]\sigma[/tex] è curva integrale di [tex]X[/tex]" diventa (verifica!) [tex](\sigma^i)' = X^i(\sigma^1, \ldots, \sigma^n)[/tex]. E questo è un sistema di equazioni differenziali ordinario, che per il teorema di Cauchy ha un'unica soluzione locale una volta fissate le condizioni iniziali.
Sostanzialmente, ti sto dicendo che per ogni punto della varietà passa una curva integrale. Inoltre, il teorema di Cauchy assicura l'unicità locale, con cui arriviamo alla conclusione che se due curve integrali coincidono in un punto, allora coincidono nell'intersezione dei domini (a patto di un'opportuna traslazione nel dominio di base, eventualmente). Inoltre l'unicità locale ci consente di definire la nozione di curva integrale massimale, ossia di curva integrale non ulteriormente ampliabile (vado veloce perché gli argomenti non sono difficili, ma se desideri chiarimenti non esitare a chiedere). Diciamo che un campo vettoriale è completo in un punto se il dominio della curva integrale massimale passante per quel punto è tutto [tex]\mathbb R[/tex]. Diciamo che un campo vettoriale è completo tout-court se è completo in ogni punto.
Adesso entra in gioco un altro classico teorema sulle equazioni differenziali che non vedrai fino all'anno prossimo: la dipendenza continua (differenziabile) dai dati iniziali. In sostanza, prima abbiamo utilizzato un teorema che adattato al nostro caso diceva: fissato [tex]p \in M[/tex] esistono [tex]\epsilon > 0[/tex] e [tex]\sigma : (-\epsilon, \epsilon) \to M[/tex] tale che [tex]\sigma(0) = p[/tex] e [tex]\sigma[/tex] è una curva integrale del campo vettoriale [tex]X[/tex].
Questo teorema si può raffinare nel modo seguente: per ogni [tex]p \in M[/tex] esistono un intorno [tex]V[/tex] di [tex]p[/tex] su [tex]M[/tex] e [tex]\epsilon > 0[/tex] tali che per ogni [tex]q \in V[/tex] esiste [tex]\sigma_q : (-\epsilon, \epsilon) \to M[/tex] tale che [tex]\sigma_q(0) = q[/tex] e [tex]\sigma_q(\cdot)[/tex] è una curva integrale di [tex]X[/tex].
Adesso finalmente possiamo definire il flusso! In effetti, il flusso è l'applicazione [tex]\Sigma : V \times (-\epsilon, \epsilon) \to M[/tex] definita da [tex]\Sigma(q,t) := \sigma_q(t)[/tex], dove ho mantenuto tutte le notazioni del paragrafo precedente.
Spero che ti possa essere un minimo chiaro

--------------
(*) Ho usato la notazione convenzionale [tex]\sigma'[/tex] per denotare la "derivata" di [tex]\sigma[/tex]. E' meglio precisare che questo "buffo" oggetto (come lo chiamerebbe il mio ex-docente di Meccanica) è definito rigorosamente come [tex]\displaystyle \sigma'(t_0) := d\sigma[t_0] \left( \frac{d}{dt} \right)[/tex] (vedi le precedenti definizioni che ho dato di differenziale di un morfismo di varietà e osserva che con [tex]\frac{d}{dt}[/tex] denoto il vettore tangente di [tex]T_{t_0} \mathbb R \simeq \mathbb R[/tex].
(**) Forse però ve li hanno enunciati a Meccanica. Da noi lo avevano fatto. Naturalmente senza dimostrazione.
"maurer":
Diciamo che un campo vettoriale è completo in un punto se il dominio della curva integrale massimale passante per quel punto è tutto [tex]\mathbb R[/tex]. Diciamo che un campo vettoriale è completo tout-court se è completo in ogni punto.
Osserva che se il campo vettoriale è completo, allora il flusso è definito su [tex]M \times \mathbb R[/tex] (e questa è la tipica situazione dei sistemi dinamici). Ti potrà interessare il seguente
Teorema. Se [tex]M[/tex] è una varietà differenziabile compatta, allora ogni campo vettoriale differenziabile [tex]X : M \to TM[/tex] è completo.
La dimostrazione non è nemmeno troppo difficile

Volevo scriverlo prima, ma poi mi chiamavano a mangiare e nella fretta ho dimenticato!
Altra dimenticanza!
"mistake89":
[Piccolo OT]
Qui a Bari le partizioni dell'unità le abbiam fatte, proprio nel corso di Geometria differenziale.
PS complimenti Maurer per il traguardo!
[/OT]
Grazie mistake89! Però che invidia!
Ultima dimenticanza, lo giuro!
"apatriarca":
In realtà la definizione di maurer è valida solo per varietà lisce ([tex]C^{\infty}[/tex]). Lo spazio vettoriale delle derivazioni di classe inferiore a [tex]\infty[/tex] è infatti di dimensione infinita e non [tex]n[/tex]. In molti libri di geometria differenziale si preferisce però limitarsi al caso di varietà lisce per comodità.
Hai ragione! Non che ne dubitassi, ma oggi ho letto le prime pagine del Warner e ho finalmente capito che cosa intendevi. Veramente inutile dire quanto mi sono esaltato quando mi sono reso conto che su strutture [tex]C^\infty[/tex] la nozione di vettore tangente può essere introdotta utilizzando solo gli anelli locali!!! Stavo facendo i salti dalla gioia

Come al solito i tuoi post sono estremamente ricchi di sostanza e molto chiari: ti ringrazio.
Ancora sui tensori.
Molto bene, non conoscevo questa definizione, ne conoscevo una "simile". Per me un tensore [tex]T_q^p[/tex] era un'applicazione multilineare che andava da [tex]V^p \times {V^{*}}^{q} \to K[/tex], che quindi prendeva [tex]$p$[/tex] vettori, [tex]q[/tex] covettori e restituiva un elemento del campo.
Deduco che nelle tue notazioni, un [tex]$k$[/tex]-tensore non è altro che un tensore di tipo [tex]$T_0^k$[/tex] dei miei.
Sì, ok mi trovo perfettamente fino a qui.
Se ho capito bene, devo darti un'applicazione multilineare che riceve in ingresso [tex]n[/tex] vettori e restituisce un numero. Vado sul semplice, sperando di non sparare scemenze: [tex]T(v_1, \ldots , v_n)[/tex] che restituisce il prodotto della prima componente di [tex]v_1[/tex] con la prima componente di [tex]v_2[/tex], ..., con la prima componente di [tex]v_n[/tex]. Mi pare multilineare: evito di formalizzare il tutto perché mi perderei negli indici (l'idea è quella di fissare una base in [tex]V[/tex], scrivere i vettori in componenti e da lì si vede la linearità: ad esempio, [tex]T(\alpha\bold{v}+\beta\bold{w}, \bold{z}) = \alpha T(\bold{v},\bold{z}) + \beta T(\bold{w}, \bold{z})[/tex]).
Ok?
Forse non è molto originale; hai un altro esempio più furbo, per piacere
?
Ti chiedo scusa, mi devo essere perso qualcosa: come lavorano i tensori [tex]\bold e^{i_j}[/tex]? Sono per caso parenti del mio [tex]n[/tex]-tensore di sopra?
Sì, qui ti seguo; c'è un unica differenza, nella definizione di prodotto esterno; noi, in Meccanica, lo abbiamo definito come te ma moltiplicando tutto per [tex]\frac{(k+h)!}{k!h!}[/tex]: non mi chiedere il perché di questa scelta, forse delle altre costanti in altri conti si semplificano. Boh.
Sui campi vettoriali; flussi; derivata di Lie.
Be', dovrebbe essere semplice: è proprio la definizione di campo vettoriale su un varietà, definizione con cui abbiamo aperto questo thread (e ho cominciato a stressarti)
.
Giusto?
Ok; non sono in grado di formalizzare nulla di questi concetti, ma l'idea l'ho capita (stranamente era più o meno chiaro già dal corso; tu comunque hai messo in ordine, ti ringrazio
).
Wow! Ho capito, mi è molto chiaro come l'hai spiegato tu. Devo digerire ancora il tutto (mi sa che ci va un po'), però più o meno ci sono.
C'è solo un problema: io so fare il pull back di una forma lungo una mappa tra varietà.
A me serve fare il pull back di un campo vettoriale (?) lungo il flusso per calcolarmi 'sta benedetta derivata di Lie.
Come mettere insieme tutti i pezzi?
Grazie, come al solito, di tutto
[Comincio a credere che non passerò mai questo esame. Peccato, è tutta roba stra-bella, ma mamma mia, quanta roba!
]
P.S.
Sì, esatto, anche con noi hanno fatto così.

Ancora sui tensori.
"maurer":
Volentieri. Innanzi tutto, che cos'è un tensore? Se hai avuto la sventura come me di seguire un corso di nome Fisica 2, avrai anche avuto la sventura di incontrare i tensori come li definiscono i fisici, cioè in un modo completamente incomprensibile pure a loro. Semplicemente, invece, noi ci accontentiamo di definire un [tex]k[/tex] tensore su un [tex]K[/tex]-spazio vettoriale [tex]V[/tex] come un'applicazione [tex]T : V^k \to K[/tex], dove [tex]V^k = V \times V \times \ldots \times V[/tex], tale che [tex]T(\bold v_1, \ldots, \lambda \bold v_i + \mu \bold w_i, \ldots, \bold v_n) = \lambda T(\bold v_1, \ldots, \bold v_i, \ldots, \bold v_n) + \mu T(\bold v_1, \ldots, \bold w_i, \ldots, \bold v_n)[/tex], ovvero che sia lineare in ogni suo argomento (i.e. multilineare).
Denotiamo con [tex]\mathcal T^k(V^*)[/tex] la famiglia dei [tex]k[/tex]-tensori su [tex]V[/tex] (con [tex]V^*[/tex] denoto il duale dello spazio vettoriale).
Molto bene, non conoscevo questa definizione, ne conoscevo una "simile". Per me un tensore [tex]T_q^p[/tex] era un'applicazione multilineare che andava da [tex]V^p \times {V^{*}}^{q} \to K[/tex], che quindi prendeva [tex]$p$[/tex] vettori, [tex]q[/tex] covettori e restituiva un elemento del campo.
Deduco che nelle tue notazioni, un [tex]$k$[/tex]-tensore non è altro che un tensore di tipo [tex]$T_0^k$[/tex] dei miei.
"maurer":
Possiamo definire la somma di tensori nel modo ovvio e possiamo anche definire il prodotto per uno scalare, sicché [tex]\mathcal T^k(V^*)[/tex] diventa in maniera naturale un [tex]K[/tex]-spazio vettoriale. Ci piacerebbe calcolare la dimensione. Iniziamo ad osservare che per [tex]k = 1[/tex] si ha banalmente [tex]\mathcal T^1(V^*) = V^*[/tex], ossia lo spazio duale. In questo caso la dimensione è la stessa dello spazio vettoriale di partenza e una base è ad esempio la base duale canonica.
Per trattare il caso generale, introduciamo ancora un'operazione, che chiamiamo prodotto tensoriale:
[tex]\otimes: \mathcal T^k (V^*) \times \mathcal T^h(V^*) \to \mathcal T^{k+h}(V^*)[/tex]
definito da [tex](F\otimes G)(\bold v_1, \ldots, \bold v_k, \bold w_1, \ldots, \bold w_h) := F(\bold v_1, \ldots, \bold v_k) G(\bold w_1, \ldots, \bold w_h)[/tex].
Sì, ok mi trovo perfettamente fino a qui.
"maurer":
Question. Supponiamo che [tex]V[/tex] sia uno spazio vettoriale di dimensione [tex]n[/tex]. Mi sapresti dare un esempio di [tex]n[/tex]-tensore su [tex]V[/tex]?
Se ho capito bene, devo darti un'applicazione multilineare che riceve in ingresso [tex]n[/tex] vettori e restituisce un numero. Vado sul semplice, sperando di non sparare scemenze: [tex]T(v_1, \ldots , v_n)[/tex] che restituisce il prodotto della prima componente di [tex]v_1[/tex] con la prima componente di [tex]v_2[/tex], ..., con la prima componente di [tex]v_n[/tex]. Mi pare multilineare: evito di formalizzare il tutto perché mi perderei negli indici (l'idea è quella di fissare una base in [tex]V[/tex], scrivere i vettori in componenti e da lì si vede la linearità: ad esempio, [tex]T(\alpha\bold{v}+\beta\bold{w}, \bold{z}) = \alpha T(\bold{v},\bold{z}) + \beta T(\bold{w}, \bold{z})[/tex]).
Ok?
Forse non è molto originale; hai un altro esempio più furbo, per piacere

"maurer":
Teorema Sia [tex]V[/tex] un [tex]K[/tex]-spazio vettoriale di dimensione n. Allora l'insieme [tex]\{\bold e^{i_1} \otimes \bold e^{i_2} \otimes \ldots \otimes \bold e^{i_k}, 1 \le i_1, i_2, \ldots, i_k \le n[/tex] è una base di [tex]\mathcal T^k(V^*)[/tex] e quindi in particolare [tex]\text{dim}_K(\mathcal T^k(V^*)) = n^k[/tex].
Ti chiedo scusa, mi devo essere perso qualcosa: come lavorano i tensori [tex]\bold e^{i_j}[/tex]? Sono per caso parenti del mio [tex]n[/tex]-tensore di sopra?
"maurer":
Definizione. Diciamo che il tensore [tex]F \in \mathcal T^k(V^*)[/tex] è alternato se [tex]F(\bold v_{\sigma(1)}, \bold v_{\sigma(2)}, \ldots, \bold v_{\sigma(k)}) = \epsilon(\sigma) F(\bold v_1, \bold v_2, \ldots, \bold v_k)[/tex].
I tensori alternati ci piacciono per un sacco di motivi. Credo, ma invito chiunque ne sappia più di me a contraddirmi, che le forme differenziali vengano fondate sui tensori alternati per motivi di orientazione della superficie (vorremmo che l'integrale di una funzione cambiasse di segno se cambiamo orientazione; e cambiare orientazione equivale in qualche modo ad operare una trasposizione sulla base di tutti gli spazi vettoriali tangenti; se i tensori sono alternati, cambiano automaticamente di segno in ogni punto e l'integrale risultante cambia pure lui il segno, che è appunto quello che desideriamo).
La somma di tensori alternati è ancora un tensore alternato. Ancora più banalmente, il prodotto di un tensore alternato per uno scalare è ancora un tensore alternato. Quindi l'insieme dei tensori alternati forma un sottospazio vettoriale di [tex]\mathcal T^k(V^*)[/tex]. Denotiamo questo sottospazio con [tex]\bigwedge^k V^*[/tex].
Per comodità, se [tex]\sigma \in \mathcal S_k[/tex] e [tex]F \in \mathcal T^k(V^*)[/tex] definiamo [tex]F^\sigma(\bold v_1, \ldots, \bold v_k) := F(\bold v_{\sigma(1)}, \ldots, \bold v_{\sigma(k)})[/tex]. Adesso, se [tex]F[/tex] è un k-tensore, il nuovo tensore [tex]\text{Alt}(F)[/tex] definito da
[tex]\displaystyle \text{Alt}(F) := \frac{1}{k!} \sum_{\sigma \in \mathcal S_k} \epsilon(\sigma) F^\sigma[/tex]
è un tensore alternato che prende il nome di alternato di [tex]F[/tex].
Possiamo finalmente definire il prodotto esterno di due tensori alternati nel modo seguente: [tex]\wedge : \bigwedge^k V^* \times \bigwedge^h V^* \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
Si dimostra che una base di [tex]\bigwedge^k V^*[/tex] è data da [tex]\bold e^{i_1} \wedge \bold e^{i_2} \wedge \ldots \wedge \bold e^{i_k}[/tex] con [tex]1 \le i_1 < i_2 < \ldots < i_k \le n[/tex]. Quindi la dimensione di questo spazio vettoriale è [tex]\displaystyle n \choose k[/tex].
Sì, qui ti seguo; c'è un unica differenza, nella definizione di prodotto esterno; noi, in Meccanica, lo abbiamo definito come te ma moltiplicando tutto per [tex]\frac{(k+h)!}{k!h!}[/tex]: non mi chiedere il perché di questa scelta, forse delle altre costanti in altri conti si semplificano. Boh.
Sui campi vettoriali; flussi; derivata di Lie.
"maurer":
In [tex]U[/tex] possiamo naturalmente scrivere [tex]X \circ \varphi = X^i \varphi_i[/tex] (uso la notazione di Einstein, che in questo caso risulta particolarmente comoda e denoto con [tex]\varphi_i[/tex] la derivata rispetto all'i-esima componente di [tex]\varphi[/tex], ossia il vettore tangente [tex]\displaystyle \left( \frac{d}{dq^i} \right)[/tex] - sapresti giustificare quest'ultima affermazione?).
Be', dovrebbe essere semplice: è proprio la definizione di campo vettoriale su un varietà, definizione con cui abbiamo aperto questo thread (e ho cominciato a stressarti)


Giusto?
"maurer":
Adesso se scriviamo [tex]\sigma(t) = \varphi(\sigma^1(t), \ldots, \sigma^n(t))[/tex] con [tex]\sigma^i : (a,b) \to \varphi(U) \subset \mathbb R^n[/tex], la condizione "[tex]\sigma[/tex] è curva integrale di [tex]X[/tex]" diventa (verifica!) [tex](\sigma^i)' = X^i(\sigma^1, \ldots, \sigma^n)[/tex]. E questo è un sistema di equazioni differenziali ordinario, che per il teorema di Cauchy ha un'unica soluzione locale una volta fissate le condizioni iniziali.
Sostanzialmente, ti sto dicendo che per ogni punto della varietà passa una curva integrale. Inoltre, il teorema di Cauchy assicura l'unicità locale, con cui arriviamo alla conclusione che se due curve integrali coincidono in un punto, allora coincidono nell'intersezione dei domini (a patto di un'opportuna traslazione nel dominio di base, eventualmente). Inoltre l'unicità locale ci consente di definire la nozione di curva integrale massimale, ossia di curva integrale non ulteriormente ampliabile (vado veloce perché gli argomenti non sono difficili, ma se desideri chiarimenti non esitare a chiedere). Diciamo che un campo vettoriale è completo in un punto se il dominio della curva integrale massimale passante per quel punto è tutto [tex]\mathbb R[/tex]. Diciamo che un campo vettoriale è completo tout-court se è completo in ogni punto.
Ok; non sono in grado di formalizzare nulla di questi concetti, ma l'idea l'ho capita (stranamente era più o meno chiaro già dal corso; tu comunque hai messo in ordine, ti ringrazio

"maurer":
Adesso entra in gioco un altro classico teorema sulle equazioni differenziali che non vedrai fino all'anno prossimo: la dipendenza continua (differenziabile) dai dati iniziali. In sostanza, prima abbiamo utilizzato un teorema che adattato al nostro caso diceva: fissato [tex]p \in M[/tex] esistono [tex]\epsilon > 0[/tex] e [tex]\sigma : (-\epsilon, \epsilon) \to M[/tex] tale che [tex]\sigma(0) = p[/tex] e [tex]\sigma[/tex] è una curva integrale del campo vettoriale [tex]X[/tex].
Questo teorema si può raffinare nel modo seguente: per ogni [tex]p \in M[/tex] esistono un intorno [tex]V[/tex] di [tex]p[/tex] su [tex]M[/tex] e [tex]\epsilon > 0[/tex] tali che per ogni [tex]q \in V[/tex] esiste [tex]\sigma_q : (-\epsilon, \epsilon) \to M[/tex] tale che [tex]\sigma_q(0) = q[/tex] e [tex]\sigma_q(\cdot)[/tex] è una curva integrale di [tex]X[/tex].
Adesso finalmente possiamo definire il flusso! In effetti, il flusso è l'applicazione [tex]\Sigma : V \times (-\epsilon, \epsilon) \to M[/tex] definita da [tex]\Sigma(q,t) := \sigma_q(t)[/tex], dove ho mantenuto tutte le notazioni del paragrafo precedente.
Wow! Ho capito, mi è molto chiaro come l'hai spiegato tu. Devo digerire ancora il tutto (mi sa che ci va un po'), però più o meno ci sono.
C'è solo un problema: io so fare il pull back di una forma lungo una mappa tra varietà.
A me serve fare il pull back di un campo vettoriale (?) lungo il flusso per calcolarmi 'sta benedetta derivata di Lie.
Come mettere insieme tutti i pezzi?
Grazie, come al solito, di tutto

[Comincio a credere che non passerò mai questo esame. Peccato, è tutta roba stra-bella, ma mamma mia, quanta roba!

P.S.
"maurer":
(**) Forse però ve li hanno enunciati a Meccanica. Da noi lo avevano fatto. Naturalmente senza dimostrazione.
Sì, esatto, anche con noi hanno fatto così.
Direi di partire da un esempio. Voglio mostrare il significato della [tex]n[/tex]-forma [tex]\omega = dx_1 \wedge \cdots \wedge dx_n[/tex] in [tex]\mathbb R^n[/tex] (sto lavorando con spazi vettoriali in questo caso e [tex]\{ dx_i \}_{1 \le i \le n}[/tex] è la base duale di [tex]\mathbb R^n[/tex]). Si tratta prima di tutto di una forma [tex]n[/tex]-lineare alternante [tex]\omega : (\mathbb R^n)^n \to \mathbb R[/tex]. Sia [tex]v_{i,j}[/tex] l'[tex]i[/tex]-esimo componente del [tex]j[/tex]-esimo vettore ottenibile attraverso la formula [tex]dx_i(v_j) = v_{i,j}[/tex]. Abbiamo allora il seguente:
[tex]\omega(v_1, \dots, v_n) = \sum_{i_1 =1}^n \cdots \sum_{i_n = 1}^n v_{i_1, 1} \cdots v_{i_n, n} \, \omega(e_{i_1}, \dots, e_{i_n})[/tex] ([tex]\omega[/tex] è multilineare)
Siccome [tex]\omega[/tex] è alternante [tex]\omega(e_{i_1}, \dots, e_{i_n})[/tex] è diversa da zero solo quando [tex]i_1 \neq \cdots \neq i_n[/tex]* e abbiamo che [tex]\omega(e_{\sigma(1)}, \dots, e_{\sigma(n)}) = \epsilon
(\sigma)\omega(e_1, \dots, e_n)[/tex] per ogni permutazione [tex]\sigma \in S_n[/tex]. La formula precedente diventa quindi:
[tex]\omega(v_1, \dots, v_n) = \sum_{\sigma \in S_n} \epsilon(\sigma) v_{\sigma(1), 1} \cdots v_{\sigma(n), n} \, \omega(e_1, \dots, e_n) = \det(V) \, \omega(e_1, \dots, e_n)[/tex] ([tex]V = (v_{i,j})[/tex]).
Rimane quindi solo da calcolare [tex]\omega(e_1, \dots, e_n)[/tex].
Te lo lascio per esercizio.. Nota che esistono diverse convenzioni sulla definizione del wedge product [tex]\wedge : \Lambda^s \times \Lambda^r \to \Lambda^{s + r}[/tex]. Le due più comuni sono le seguenti e ti invito a ripetere questa ultima parte dell'esercizio con entrambe le definizioni:
(DEF 1.) [tex](\mu \wedge \xi) (v_1, \dots, v_{s+r}) = \frac{1}{s!r!} \sum_{\sigma \in S_{s + r}} \epsilon(\sigma) \, \mu(v_{\sigma(1)}, \dots, v_{\sigma(s)}) \, \xi(v_{\sigma(s+1)}, \dots, v_{\sigma(s+r)})[/tex]
(DEF 2.) [tex](\mu \wedge \xi) (v_1, \dots, v_{s+r}) = \frac{1}{(s + r)!} \sum_{\sigma \in S_{s + r}} \epsilon(\sigma) \, \mu(v_{\sigma(1)}, \dots, v_{\sigma(s)}) \, \xi(v_{\sigma(s+1)}, \dots, v_{\sigma(s+r)})[/tex]
Io preferisco la prima delle due perché permette di avere meno costanti in giro. Ma si deve stare attenti quando si lavora con le forme di questo tipo. Come ultimo esercizio puoi provare a dare un'interpretazione delle forme del tipo [tex]dx_{i_1} \wedge \cdots \wedge dx_{i_k}[/tex] con [tex]i_1 < \cdots < 1_k[/tex]. Una volta capito come interpretare le basi dell'algebra esterna dovresti capire molte cose. Inoltre ti faccio notare come già negli spazi vettoriali questi oggetti siano legati al calcolo dei volumi... Ulteriore esempio. Supponi che [tex]v^*[/tex] e [tex]w^*[/tex] siano i duali di due vettori [tex]v, w \in \mathbb R^3[/tex] per il prodotto scalare standard, che cosa mi puoi dire di [tex]v^* \wedge w^*[/tex]?
* È facile osservare che se un vettore si ripete come argomento di una forma alternante e la caratteristica del campo è diversa da due, il risultato è zero. Inoltre se due elementi si scambiano cambia il segno, per cui si chiamano a volte anche forme anti-simmetriche. Se vuoi puoi fare anche questo come esercizio.
[tex]\omega(v_1, \dots, v_n) = \sum_{i_1 =1}^n \cdots \sum_{i_n = 1}^n v_{i_1, 1} \cdots v_{i_n, n} \, \omega(e_{i_1}, \dots, e_{i_n})[/tex] ([tex]\omega[/tex] è multilineare)
Siccome [tex]\omega[/tex] è alternante [tex]\omega(e_{i_1}, \dots, e_{i_n})[/tex] è diversa da zero solo quando [tex]i_1 \neq \cdots \neq i_n[/tex]* e abbiamo che [tex]\omega(e_{\sigma(1)}, \dots, e_{\sigma(n)}) = \epsilon
(\sigma)\omega(e_1, \dots, e_n)[/tex] per ogni permutazione [tex]\sigma \in S_n[/tex]. La formula precedente diventa quindi:
[tex]\omega(v_1, \dots, v_n) = \sum_{\sigma \in S_n} \epsilon(\sigma) v_{\sigma(1), 1} \cdots v_{\sigma(n), n} \, \omega(e_1, \dots, e_n) = \det(V) \, \omega(e_1, \dots, e_n)[/tex] ([tex]V = (v_{i,j})[/tex]).
Rimane quindi solo da calcolare [tex]\omega(e_1, \dots, e_n)[/tex].

(DEF 1.) [tex](\mu \wedge \xi) (v_1, \dots, v_{s+r}) = \frac{1}{s!r!} \sum_{\sigma \in S_{s + r}} \epsilon(\sigma) \, \mu(v_{\sigma(1)}, \dots, v_{\sigma(s)}) \, \xi(v_{\sigma(s+1)}, \dots, v_{\sigma(s+r)})[/tex]
(DEF 2.) [tex](\mu \wedge \xi) (v_1, \dots, v_{s+r}) = \frac{1}{(s + r)!} \sum_{\sigma \in S_{s + r}} \epsilon(\sigma) \, \mu(v_{\sigma(1)}, \dots, v_{\sigma(s)}) \, \xi(v_{\sigma(s+1)}, \dots, v_{\sigma(s+r)})[/tex]
Io preferisco la prima delle due perché permette di avere meno costanti in giro. Ma si deve stare attenti quando si lavora con le forme di questo tipo. Come ultimo esercizio puoi provare a dare un'interpretazione delle forme del tipo [tex]dx_{i_1} \wedge \cdots \wedge dx_{i_k}[/tex] con [tex]i_1 < \cdots < 1_k[/tex]. Una volta capito come interpretare le basi dell'algebra esterna dovresti capire molte cose. Inoltre ti faccio notare come già negli spazi vettoriali questi oggetti siano legati al calcolo dei volumi... Ulteriore esempio. Supponi che [tex]v^*[/tex] e [tex]w^*[/tex] siano i duali di due vettori [tex]v, w \in \mathbb R^3[/tex] per il prodotto scalare standard, che cosa mi puoi dire di [tex]v^* \wedge w^*[/tex]?
* È facile osservare che se un vettore si ripete come argomento di una forma alternante e la caratteristica del campo è diversa da due, il risultato è zero. Inoltre se due elementi si scambiano cambia il segno, per cui si chiamano a volte anche forme anti-simmetriche. Se vuoi puoi fare anche questo come esercizio.
"apatriarca":
Direi di partire da un esempio. Voglio mostrare il significato della [tex]n[/tex]-forma [tex]\omega = dx_1 \wedge \cdots \wedge dx_n[/tex] in [tex]\mathbb R^n[/tex] (sto lavorando con spazi vettoriali in questo caso e [tex]\{ dx_i \}_{1 \le i \le n}[/tex] è la base duale di [tex]\mathbb R^n[/tex]). Si tratta prima di tutto di una forma [tex]n[/tex]-lineare alternante [tex]\omega : (\mathbb R^n)^n \to \mathbb R[/tex]. Sia [tex]v_{i,j}[/tex] l'[tex]i[/tex]-esimo componente del [tex]j[/tex]-esimo vettore ottenibile attraverso la formula [tex]dx_i(v_j) = v_{i,j}[/tex]. Abbiamo allora il seguente:
[tex]\omega(v_1, \dots, v_n) = \sum_{i_1 =1}^n \cdots \sum_{i_n = 1}^n v_{i_1, 1} \cdots v_{i_n, n} \, \omega(e_{i_1}, \dots, e_{i_n})[/tex] ([tex]\omega[/tex] è multilineare)
Siccome [tex]\omega[/tex] è alternante [tex]\omega(e_{i_1}, \dots, e_{i_n})[/tex] è diversa da zero solo quando [tex]i_1 \neq \cdots \neq i_n[/tex]* e abbiamo che [tex]\omega(e_{\sigma(1)}, \dots, e_{\sigma(n)}) = \epsilon
(\sigma)\omega(e_1, \dots, e_n)[/tex] per ogni permutazione [tex]\sigma \in S_n[/tex]. La formula precedente diventa quindi:
[tex]\omega(v_1, \dots, v_n) = \sum_{\sigma \in S_n} \epsilon(\sigma) v_{\sigma(1), 1} \cdots v_{\sigma(n), n} \, \omega(e_1, \dots, e_n) = \det(V) \, \omega(e_1, \dots, e_n)[/tex] ([tex]V = (v_{i,j})[/tex]).
Meraviglioso! Bello, ti ringrazio!
"apatriarca":
Rimane quindi solo da calcolare [tex]\omega(e_1, \dots, e_n)[/tex].Te lo lascio per esercizio..
Se uso la definizione di base duale, la base costituita dalle forme [tex]\epsilon^{i}$[/tex] per cui [tex]\epsilon^{i}(e_{j})=\delta_j^i[/tex], dovrei avere che [tex]\omega(e_1, \dots, e_n) = \epsilon^{1} \wedge \ldots \wedge \epsilon^{n}[/tex]. Posso dire altro?
Forse devo fare il conto:
[tex]\omega(e_1, \dots, e_n) = \epsilon^{1} \wedge \ldots \wedge \epsilon^{n}=\sum_{\sigma \in \mathcal{S}_{n}} |\sigma| \epsilon^{1}(v_{\sigma (1)}) \ldots \epsilon^{n}(v_{\sigma(n)})[/tex]. Sento che mi sfugge qualcosa...
"apatriarca":
Ulteriore esempio. Supponi che [tex]v^*[/tex] e [tex]w^*[/tex] siano i duali di due vettori [tex]v, w \in \mathbb R^3[/tex] per il prodotto scalare standard, che cosa mi puoi dire di [tex]v^* \wedge w^*[/tex]?
Ci proverò sicuramente domattina di buon'ora, ma ora è meglio che vada a dormire, sono stanco e non sto capendo bene.

Nel frattempo, GRAZIE.
Notte

Ancora sui tensori.
E, simmetricamente, io non avevo mai sentito questa. La tua ultima affermazione è sicuramente corretto, eppure sento che mi sta sfuggendo qualcosa. Chiedo lumi! Qualcosa mi suggerisce che le due definizioni non sono così tanto distinte l'una dall'altra... però adesso non saprei...
Mi sembra comunque funzionare. L'esempio che avevo in mente io era il determinante, che è pure alternante, ma apatriarca mi ha preceduto
Compenso dicendo che il determinante è, sostanzialmente (= a meno di costanti moltiplicative), l'unico tensore alternante di dimensione n.
Con [tex]\bold e^{i_j}[/tex] intendo un semplicissimo elemento della base duale dello spazio vettoriale. In effetti è un 1-tensore, perché come avevo osservato da qualche parte, [tex]\mathcal T^1(V^*) = V^*[/tex].
In effetti, mi sembra che tu ti perda nei conti (semplicemente, non ricordi che [tex]\bold v_i = \bold e_i[/tex]). Utilizzando le notazioni di apatriarca, cioè denotando con [tex]dx_1, \ldots, dx_n[/tex] la base duale dello spazio vettoriale (che tu denoti con [tex]\epsilon^1, \ldots \epsilon^n[/tex]) hai che se [tex]\sigma \ne \text{id}[/tex], allora
[tex]dx_1(\bold e^{\sigma(1)}) dx_2(\bold e^{\sigma(2)}) \ldots dx_n(\bold e^{\sigma(n)}) = 0[/tex]
mentre se [tex]\sigma = \text{id}[/tex], si ha [tex]dx_1(\bold e^{\sigma(1)}) \ldots dx_n(\bold e^{\sigma(n)}) = 1[/tex]. Quindi [tex]\omega(\bold e_1, \ldots, \bold e_n) = 1[/tex], utilizzando la prima definizione di prodotto esterno data da apatriarca, mentre [tex]\omega(\bold e_1, \ldots, \bold e_n) = \frac{1}{n!}[/tex] utilizzando la seconda (e anche la mia, se l'ora tarda non mi fa sbagliare i conti!).
Sui campi vettoriali; flussi; derivata di Lie.
Be', dovrebbe essere semplice: è proprio la definizione di campo vettoriale su un varietà, definizione con cui abbiamo aperto questo thread (e ho cominciato a stressarti)
.
Giusto?[/quote]
Sì, in realtà ho sbagliato io perché al posto di [tex]\varphi[/tex] ci andava la sua inversa.
Per rimediare, poniamo [tex]\psi = \varphi^{-1}[/tex] e facciamo vedere che [tex]\psi_i = \left( \frac{\partial}{\partial q^i} \right)[/tex] dove [tex]q^i := x_i \circ \varphi[/tex]. Si ha [tex]\psi_i(\bold x_0) := d \psi [\bold x_0] \left( \frac{\partial}{\partial x_i} \right)[/tex]. E adesso se [tex]F \in \mathcal E_{\varphi(\boldx_0)}(M)[/tex] si ha
[tex]\displaystyle d \psi [\bold x_0] \left( \frac{\partial}{\partial x_i} \right) (F) = \left( \frac{\partial}{\partial x_i} \right) (F \circ \psi) = \left( \frac{\partial}{\partial q^i} \right) (F)[/tex]
da cui l'uguaglianza cercata. Era più che altro un esercizio per prendere familiarità con tutte le varie definizioni che abbiamo dato di vettori tangenti! Tra l'altro non è un esercizio da buttare completamente via: ti fa vedere che se parametrizzi una varietà "usuale" (cioè immersa in [tex]\mathbb R^N[/tex]) con una funzione [tex]\psi : A \subset \mathbb R^n \to M \subset \mathbb R^N[/tex], allora le derivate parziali di [tex]\psi[/tex] costituiscono proprio una base dello spazio tangente, come uno si aspetta (ad esempio una base dello spazio tangente di una curva in [tex]\mathbb R^3[/tex] è il vettore tangente - e questo lo diciamo senza tutto l'apparato che abbiamo introdotto adesso!). Quindi le definizioni che abbiamo dato sono la giusta generalizzazione di casi più intuitivi.
Spero di essermi spiegato in modo comprensibile, data l'ora.
Felice di aver fatto chiarezza. Però, almeno per stasera, passo il testimone sul pull back di un campo vettoriale. Per quello che mi ricordo, non l'ho mai sentito, ma magari sono io che sono tanardo ed è una scemenza che non mi viene in mente. Domani a mente lucida ci rifletto. Se qualcun altro ne sa qualcosa, è il benvenuto ad insegnare ad entrambi!
Se vuoi il mio parere, ti stai forgiando delle conoscenze che vanno ben al di là di questo esame. E non ho il minimo dubbio che lo passerai molto bene!
"Paolo90":
Molto bene, non conoscevo questa definizione, ne conoscevo una "simile". Per me un tensore [tex]T_q^p[/tex] era un'applicazione multilineare che andava da [tex]V^p \times {V^{*}}^{q} \to K[/tex], che quindi prendeva [tex]$p$[/tex] vettori, [tex]q[/tex] covettori e restituiva un elemento del campo.
Deduco che nelle tue notazioni, un [tex]$k$[/tex]-tensore non è altro che un tensore di tipo [tex]$T_0^k$[/tex] dei miei.
E, simmetricamente, io non avevo mai sentito questa. La tua ultima affermazione è sicuramente corretto, eppure sento che mi sta sfuggendo qualcosa. Chiedo lumi! Qualcosa mi suggerisce che le due definizioni non sono così tanto distinte l'una dall'altra... però adesso non saprei...
"Paolo90":
Forse non è molto originale; hai un altro esempio più furbo, per piacere?
Mi sembra comunque funzionare. L'esempio che avevo in mente io era il determinante, che è pure alternante, ma apatriarca mi ha preceduto

Compenso dicendo che il determinante è, sostanzialmente (= a meno di costanti moltiplicative), l'unico tensore alternante di dimensione n.
"Paolo90":
Ti chiedo scusa, mi devo essere perso qualcosa: come lavorano i tensori [tex]\bold e^{i_j}[/tex]? Sono per caso parenti del mio [tex]n[/tex]-tensore di sopra?
Con [tex]\bold e^{i_j}[/tex] intendo un semplicissimo elemento della base duale dello spazio vettoriale. In effetti è un 1-tensore, perché come avevo osservato da qualche parte, [tex]\mathcal T^1(V^*) = V^*[/tex].
"Paolo90":
Se uso la definizione di base duale, la base costituita dalle forme [tex]\epsilon^{i}$[/tex] per cui [tex]\epsilon^{i}(e_{j})=\delta_j^i[/tex], dovrei avere che [tex]\omega(e_1, \dots, e_n) = \epsilon^{1} \wedge \ldots \wedge \epsilon^{n}[/tex]. Posso dire altro?
Forse devo fare il conto:
[tex]\omega(e_1, \dots, e_n) = \epsilon^{1} \wedge \ldots \wedge \epsilon^{n}=\sum_{\sigma \in \mathcal{S}_{n}} |\sigma| \epsilon^{1}(v_{\sigma (1)}) \ldots \epsilon^{n}(v_{\sigma(n)})[/tex]. Sento che mi sfugge qualcosa...
In effetti, mi sembra che tu ti perda nei conti (semplicemente, non ricordi che [tex]\bold v_i = \bold e_i[/tex]). Utilizzando le notazioni di apatriarca, cioè denotando con [tex]dx_1, \ldots, dx_n[/tex] la base duale dello spazio vettoriale (che tu denoti con [tex]\epsilon^1, \ldots \epsilon^n[/tex]) hai che se [tex]\sigma \ne \text{id}[/tex], allora
[tex]dx_1(\bold e^{\sigma(1)}) dx_2(\bold e^{\sigma(2)}) \ldots dx_n(\bold e^{\sigma(n)}) = 0[/tex]
mentre se [tex]\sigma = \text{id}[/tex], si ha [tex]dx_1(\bold e^{\sigma(1)}) \ldots dx_n(\bold e^{\sigma(n)}) = 1[/tex]. Quindi [tex]\omega(\bold e_1, \ldots, \bold e_n) = 1[/tex], utilizzando la prima definizione di prodotto esterno data da apatriarca, mentre [tex]\omega(\bold e_1, \ldots, \bold e_n) = \frac{1}{n!}[/tex] utilizzando la seconda (e anche la mia, se l'ora tarda non mi fa sbagliare i conti!).
Sui campi vettoriali; flussi; derivata di Lie.
"Paolo90":
[quote="maurer"]
In [tex]U[/tex] possiamo naturalmente scrivere [tex]X \circ \varphi = X^i \varphi_i[/tex] (uso la notazione di Einstein, che in questo caso risulta particolarmente comoda e denoto con [tex]\varphi_i[/tex] la derivata rispetto all'i-esima componente di [tex]\varphi[/tex], ossia il vettore tangente [tex]\displaystyle \left( \frac{d}{dq^i} \right)[/tex] - sapresti giustificare quest'ultima affermazione?).
Be', dovrebbe essere semplice: è proprio la definizione di campo vettoriale su un varietà, definizione con cui abbiamo aperto questo thread (e ho cominciato a stressarti)


Giusto?[/quote]
Sì, in realtà ho sbagliato io perché al posto di [tex]\varphi[/tex] ci andava la sua inversa.
Per rimediare, poniamo [tex]\psi = \varphi^{-1}[/tex] e facciamo vedere che [tex]\psi_i = \left( \frac{\partial}{\partial q^i} \right)[/tex] dove [tex]q^i := x_i \circ \varphi[/tex]. Si ha [tex]\psi_i(\bold x_0) := d \psi [\bold x_0] \left( \frac{\partial}{\partial x_i} \right)[/tex]. E adesso se [tex]F \in \mathcal E_{\varphi(\boldx_0)}(M)[/tex] si ha
[tex]\displaystyle d \psi [\bold x_0] \left( \frac{\partial}{\partial x_i} \right) (F) = \left( \frac{\partial}{\partial x_i} \right) (F \circ \psi) = \left( \frac{\partial}{\partial q^i} \right) (F)[/tex]
da cui l'uguaglianza cercata. Era più che altro un esercizio per prendere familiarità con tutte le varie definizioni che abbiamo dato di vettori tangenti! Tra l'altro non è un esercizio da buttare completamente via: ti fa vedere che se parametrizzi una varietà "usuale" (cioè immersa in [tex]\mathbb R^N[/tex]) con una funzione [tex]\psi : A \subset \mathbb R^n \to M \subset \mathbb R^N[/tex], allora le derivate parziali di [tex]\psi[/tex] costituiscono proprio una base dello spazio tangente, come uno si aspetta (ad esempio una base dello spazio tangente di una curva in [tex]\mathbb R^3[/tex] è il vettore tangente - e questo lo diciamo senza tutto l'apparato che abbiamo introdotto adesso!). Quindi le definizioni che abbiamo dato sono la giusta generalizzazione di casi più intuitivi.
Spero di essermi spiegato in modo comprensibile, data l'ora.

"Paolo90":
Wow! Ho capito, mi è molto chiaro come l'hai spiegato tu. Devo digerire ancora il tutto (mi sa che ci va un po'), però più o meno ci sono.
C'è solo un problema: io so fare il pull back di una forma lungo una mappa tra varietà.
A me serve fare il pull back di un campo vettoriale (?) lungo il flusso per calcolarmi 'sta benedetta derivata di Lie.
Come mettere insieme tutti i pezzi?
Grazie, come al solito, di tutto![]()
Felice di aver fatto chiarezza. Però, almeno per stasera, passo il testimone sul pull back di un campo vettoriale. Per quello che mi ricordo, non l'ho mai sentito, ma magari sono io che sono tanardo ed è una scemenza che non mi viene in mente. Domani a mente lucida ci rifletto. Se qualcun altro ne sa qualcosa, è il benvenuto ad insegnare ad entrambi!

"Paolo90":
[Comincio a credere che non passerò mai questo esame. Peccato, è tutta roba stra-bella, ma mamma mia, quanta roba!]
Se vuoi il mio parere, ti stai forgiando delle conoscenze che vanno ben al di là di questo esame. E non ho il minimo dubbio che lo passerai molto bene!

"Paolo90":
[quote="apatriarca"]Rimane quindi solo da calcolare [tex]\omega(e_1, \dots, e_n)[/tex].Te lo lascio per esercizio..
Se uso la definizione di base duale, la base costituita dalle forme [tex]\epsilon^{i}$[/tex] per cui [tex]\epsilon^{i}(e_{j})=\delta_j^i[/tex], dovrei avere che [tex]\omega(e_1, \dots, e_n) = \epsilon^{1} \wedge \ldots \wedge \epsilon^{n}[/tex]. Posso dire altro?
Forse devo fare il conto:
[tex]\omega(e_1, \dots, e_n) = \epsilon^{1} \wedge \ldots \wedge \epsilon^{n}=\sum_{\sigma \in \mathcal{S}_{n}} |\sigma| \epsilon^{1}(v_{\sigma (1)}) \ldots \epsilon^{n}(v_{\sigma(n)})[/tex]. Sento che mi sfugge qualcosa...[/quote]
[tex]\omega[/tex] è per definizione uguale a [tex]dx_1 \wedge \cdots \wedge dx_n[/tex] dove [tex]dx_j(e_i) = \delta_{i,j}[/tex]. Desideravo proprio calcolassi il valore. Conviene dimostrarlo per induzione. Ti mostro il caso della prima definizione.
Teorema 1. Se usiamo la definizione (DEF 1) per il wedge product, abbiamo che [tex](dx_1 \wedge \cdots \wedge dx_k)(e_1, \dots, e_k) = 1[/tex] per ogni [tex]1 \le k \le n[/tex].
Per [tex]k=1[/tex] il risultato è immediato. Supponiamo che valga fino a [tex]k = r[/tex], e dimostriamo che vale anche per [tex]k=r+1[/tex]. Abbiamo che [tex]dx_1 \wedge \cdots \wedge dx_r \wedge dx_{r+1} = (dx_1 \wedge \cdots \wedge dx_r) \wedge dx_{r+1}[/tex] e dalla definizione possiamo quindi scrivere
[tex](dx_1 \wedge \cdots \wedge dx_{r+1}) (e_1, \dots, e_{r+1}) = \frac{1}{r!} \sum_{\sigma \in S_{r+1}} \epsilon(\sigma)\, (dx_1 \wedge \cdots \wedge dx_r) (e_{\sigma(1)}, \dots, e_{\sigma(r)}) \, dx_{r+1}(e_{\sigma(r+1)})[/tex].
Siccome [tex]dx_{r+1}(e_{\sigma(r+1)}) = \delta_{r+1, \sigma(r+1)}[/tex], possiamo allora limitarci ai [tex]\sigma \in S_{r+1}[/tex] che lasciano fisso [tex]r+1[/tex], per cui abbiamo il seguente:
[tex](dx_1 \wedge \cdots \wedge dx_{r+1}) (e_1, \dots, e_{r+1}) = \frac{1}{r!} \sum_{\sigma \in S_r} \epsilon(\sigma)\, (dx_1 \wedge \cdots \wedge dx_r) (e_{\sigma(1)}, \dots, e_{\sigma(r)})[/tex]
da cui
[tex](dx_1 \wedge \cdots \wedge dx_{r+1}) (e_1, \dots, e_{r+1}) = \frac{1}{r!} \sum_{\sigma \in S_r} \epsilon(\sigma)^2 = 1[/tex] (per la proprietà delle forme alternanti e per l'ipotesi induttiva)
Ti lascio l'altro caso.
Buongiorno a tutti.
Rivedendo e studiando i concetti avrei alcune osservazioni.
Avendo definito [tex]\rm{Alt}(F)[/tex] per ogni [tex]k[/tex]-tensore [tex]F[/tex] (non necessariamente antisimmetrico), la definizione di prodotto esterno non posso darla su tutto [tex]T^k[/tex]? E' necessario restringersi solo ai tensori alternati?
Perché non posso definire [tex]\wedge : T^k(V^*) \times T^h(V^*) \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
Per quanto riguarda la faccenda di [tex]\omega[/tex], ho capito, non era difficile, si vede che ero proprio stanco.
Ora, ho letto che si può introdurre anche un prodotto interno (confesso però di non aver capito perché interno): prendiamo una [tex]h[/tex]-forma [tex]\alpha[/tex] su [tex]$V$[/tex] e sia [tex]\bold{v} \in V[/tex]. Allora posso definire [tex]\bold{v} \rfloor \alpha[/tex] come la [tex](h-1)[/tex]-forma che lavora [tex]V^{h-1} \to \mathbb{K}[/tex] e cha manda [tex](\bold{w}_{2}, \ldots , \bold{w}_{h}) \mapsto \alpha(\bold{v}, \bold{w}_{1}, \ldots, \bold{w}_{h})[/tex]. Lineare e antisimmetrica, come si vuole.
E' giusto? Avete idea del perché si chiami prodotto interno?
Infine, una domanda-curiosità: per ora non mi serve (evito pertanto di sovraccaricare il mio neurone
), però queste cose che abbiamo fatto come si legano alla teoria dell'integrazione su varietà? Io lancio il sassolino, sperando che ne nasca un'altra bella discussione, che eventualmente proseguiremo anche più avanti.
Ma guarda, io avevo sempre visto quella come definizione. Tra l'altro, al prezzo di introdurre il duale, riesci a descrivere come tensori anche altri oggetti. Ad esempio, si può far vedere che c'è una biiezione (di più, un isomorfismo canonico!) tra lo spazio degli endomorfismi di [tex]V[/tex] e lo spazio dei tensori (1,1) (nella "mia" definizione). Non dovrebbe essere difficile, una volta avevo letto una dimostrazione ma ora su due piedi non la ricordo.
Torno alle mie sudate carte.
Vi ringrazio.
P.S.
Speriamo
Comunque vi devo un grosso grazie, senza il vostro aiuto sarebbe proprio stato problematico
Rivedendo e studiando i concetti avrei alcune osservazioni.
"maurer":
Possiamo finalmente definire il prodotto esterno di due tensori alternati nel modo seguente: [tex]\wedge : \bigwedge^k V^* \times \bigwedge^h V^* \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
Avendo definito [tex]\rm{Alt}(F)[/tex] per ogni [tex]k[/tex]-tensore [tex]F[/tex] (non necessariamente antisimmetrico), la definizione di prodotto esterno non posso darla su tutto [tex]T^k[/tex]? E' necessario restringersi solo ai tensori alternati?
Perché non posso definire [tex]\wedge : T^k(V^*) \times T^h(V^*) \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
Per quanto riguarda la faccenda di [tex]\omega[/tex], ho capito, non era difficile, si vede che ero proprio stanco.
Ora, ho letto che si può introdurre anche un prodotto interno (confesso però di non aver capito perché interno): prendiamo una [tex]h[/tex]-forma [tex]\alpha[/tex] su [tex]$V$[/tex] e sia [tex]\bold{v} \in V[/tex]. Allora posso definire [tex]\bold{v} \rfloor \alpha[/tex] come la [tex](h-1)[/tex]-forma che lavora [tex]V^{h-1} \to \mathbb{K}[/tex] e cha manda [tex](\bold{w}_{2}, \ldots , \bold{w}_{h}) \mapsto \alpha(\bold{v}, \bold{w}_{1}, \ldots, \bold{w}_{h})[/tex]. Lineare e antisimmetrica, come si vuole.
E' giusto? Avete idea del perché si chiami prodotto interno?
Infine, una domanda-curiosità: per ora non mi serve (evito pertanto di sovraccaricare il mio neurone

"maurer":
E, simmetricamente, io non avevo mai sentito questa. La tua ultima affermazione è sicuramente corretto, eppure sento che mi sta sfuggendo qualcosa. Chiedo lumi! Qualcosa mi suggerisce che le due definizioni non sono così tanto distinte l'una dall'altra... però adesso non saprei...
Ma guarda, io avevo sempre visto quella come definizione. Tra l'altro, al prezzo di introdurre il duale, riesci a descrivere come tensori anche altri oggetti. Ad esempio, si può far vedere che c'è una biiezione (di più, un isomorfismo canonico!) tra lo spazio degli endomorfismi di [tex]V[/tex] e lo spazio dei tensori (1,1) (nella "mia" definizione). Non dovrebbe essere difficile, una volta avevo letto una dimostrazione ma ora su due piedi non la ricordo.
Torno alle mie sudate carte.
Vi ringrazio.

P.S.
"maurer":
Se vuoi il mio parere, ti stai forgiando delle conoscenze che vanno ben al di là di questo esame. E non ho il minimo dubbio che lo passerai molto bene!
Speriamo

Comunque vi devo un grosso grazie, senza il vostro aiuto sarebbe proprio stato problematico

Siano [tex]V[/tex] e [tex]W[/tex] due spazi vettoriali reali (anche un campo qualsiasi andrebbe bene) qualsiasi e sia [tex]F(V, W)[/tex] lo spazio vettoriale libero generato da [tex]V \times W[/tex] (è cioè formato dalle combinazioni lineari finite di elementi di [tex]V \times W[/tex]). Sia ora [tex]R(V, W)[/tex] il sottospazio di [tex]F(V, W)[/tex] generato da elementi del tipo [tex](\alpha \, v_1 + \beta \, v_2, w) - \alpha \, (v_1, w) + \beta \, (v_2, w)[/tex] e [tex](v, \alpha \, w_1 + \beta \, w_2) - \alpha \, (v, w_1) + \beta \, (v, w_2)[/tex] per ogni [tex]\alpha, \beta \in \mathbb R[/tex], [tex]v, v_1, v_2 \in V[/tex] e [tex]w, w_1, w_2 \in W[/tex]. Il prodotto tensoriale [tex]V \otimes W[/tex] tra [tex]V[/tex] e [tex]W[/tex] è allora definito da [tex]V \otimes W = F(V, W) / R(V, W)[/tex]. Rappresento inoltre la classe di equivalenza di [tex](v, w)[/tex] nel prodotto tensoriale con [tex]v \otimes w[/tex]. Le seguenti proprietà sono allora immediate dalla definizione
[tex](\alpha \, v_1 + \beta \, v_2) \otimes w = \alpha \, (v_1 \otimes w) + \beta \, (v_2 \otimes w)[/tex],
[tex]v \otimes (\alpha \, w_1 + \beta \, w_2) = \alpha \, (v \otimes w_1) + \beta \, (v \otimes w_2)[/tex],
[tex]\alpha \, (v \otimes w) = (\alpha \, v) \otimes w = v \otimes (\alpha \, w)[/tex]
per ogni [tex]\alpha, \beta \in \mathbb R[/tex], [tex]v, v_1, v_2 \in V[/tex] e [tex]w, w_1, w_2 \in W[/tex].
Il prodotto tensoriale si può anche definire a partire dalla sua proprietà universale, che garantisce l'esistenza di un isomorfismo [tex]Hom(V \otimes W, U) \cong L(V, W; U)[/tex] (dove ho indicato con [tex]L(V, W; U)[/tex] le mappe bilineari da [tex]V \times W[/tex] a [tex]U[/tex]) per ogni [tex]V, W, U[/tex] spazi vettoriali. Isomorfismo che può essere usato per dimostrare anche le seguenti proprietà
[tex]Hom(V \otimes W, U) \cong Hom(V, Hom(W, U)) \cong Hom(W, Hom(V, U))[/tex],
[tex](V \otimes W)^* \cong L(V, W; \mathbb R) \cong Hom(V, W^*) \cong Hom(W, V^*)[/tex],
[tex]V \otimes W \cong W \otimes V[/tex] (questo NON significa che [tex]v \otimes w = w \otimes v[/tex]!!!),
[tex](V \oplus W) \otimes U \cong (V \otimes U) \oplus (W \otimes U)[/tex],
[tex]\mathbb R \otimes V \cong V[/tex],
[tex]V^* \otimes W \cong Hom(V, W)[/tex],
[tex]\dim(V \otimes W) = \dim(V) \times \dim(W)[/tex].
Divertiti a dimostrare tutto.. Nell'ultima proprietà puoi anche cercare di trovare una base.
Si può fare anche il prodotto tensoriale di mappe. In particolare, siano [tex]f : V_1 \to V_2[/tex] e [tex]g : W_1 \to W_2[/tex], allora [tex]f \otimes g : V_1 \otimes W_1 \to V_2 \otimes W_2[/tex] è la mappa [tex]v \otimes w \mapsto f(v) \otimes g(w)[/tex] per ogni [tex]v \in V_1[/tex] e [tex]w \in W_1[/tex]. Valgono le seguenti proprietà:
[tex](f_1 \otimes g_1) \circ (f_2 \otimes g_2) = (f_1 \circ f_2) \otimes (g_1 \circ g_2)[/tex],
[tex]1_V \otimes 1_W = 1_{V \otimes W}[/tex] (indico con [tex]1[/tex] la mappa identità),
[tex](\alpha \, f_1 + \beta \, f_2) \otimes g = \alpha \, (f_1 \otimes g) + \beta \, (f_2 \otimes g)[/tex],
[tex]f \otimes (\alpha \, g_1 + \beta \, g_2) = \alpha \, (f \otimes g_1) + \beta \, (f \otimes g_2)[/tex].
La matrice associata al prodotto tensoriale di mappe lineari è il prodotto di Kronecker delle matrici associate alle due funzioni sui due spazi.
Tutto ciò si può estendere ad un numero finito di spazi (in cui questa volta la relazione è tra gli omomorfismi del tensore su uno spazio con le mappe multilineari). E si ha inoltre che [tex](V \otimes W) \otimes U \cong V \otimes (W \otimes U) \cong V \otimes W \otimes U[/tex].
A questo punto possiamo arrivare alle definizioni di cui parlate voi di tensore definendo gli spazi vettoriali [tex]V^r_s = V^{\otimes r} \otimes (V^*)^{\otimes s}[/tex] (spero che la notazione sia chiara) e l'algebra [tex]T(V) = \sum_{r,s \ge 0} V^r_s[/tex] ([tex]V^0_0 = \mathbb R[/tex]) il cui prodotto, indicato con [tex]\otimes[/tex], è dato sui generatori da:
[tex]v = v_1 \otimes \cdots \otimes v_r \otimes v^*_1 \otimes \cdots \otimes v^*_s[/tex],
[tex]w = w_1 \otimes \cdots \otimes w_h \otimes w^*_1 \otimes \cdots \otimes w^*_k[/tex],
[tex]v \otimes w = v_1 \otimes \cdots \otimes v_r \otimes w_1 \otimes \cdots \otimes w_h \otimes v^*_1 \otimes \cdots \otimes v^*_s \otimes w^*_1 \otimes \cdots \otimes w^*_k[/tex]. Gli elementi di [tex]T(V)[/tex] si chiamano tensori e quelli di [tex]V^r_s[/tex] si chiamano tensori omogenei di tipo [tex](r, s)[/tex]. Un tensore omogeneo è decomponibile se può essere scritto come [tex]v[/tex] e [tex]w[/tex] nella definizione del prodotto.
Vi chiederete ora come mai si dice che un tensore è una forma multilineare... È per il seguente teorema che non dimostro (non è difficile ma sono pigro..):
Teorema. [tex](V^r_s)^* \cong (V^*)^r_s[/tex].
È infine possibile parlare di fibrato tensoriale di tipo [tex](r, s)[/tex] come a [tex]T^r_s (M) = \sqcup (T_x M)^r_s[/tex]. Nota che, per il teorema, un tensore di tipo [tex](r, s)[/tex] è una forma multilineare [tex]T : \Omega(M)^r \times \mathfrak{X}(M)^s[/tex] dove [tex]\Omega(M)[/tex] è lo spazio delle [tex]1[/tex]-forme mentre [tex]\mathfrak{X}(M)[/tex] è lo spazio dei campi vettoriali.
[tex](\alpha \, v_1 + \beta \, v_2) \otimes w = \alpha \, (v_1 \otimes w) + \beta \, (v_2 \otimes w)[/tex],
[tex]v \otimes (\alpha \, w_1 + \beta \, w_2) = \alpha \, (v \otimes w_1) + \beta \, (v \otimes w_2)[/tex],
[tex]\alpha \, (v \otimes w) = (\alpha \, v) \otimes w = v \otimes (\alpha \, w)[/tex]
per ogni [tex]\alpha, \beta \in \mathbb R[/tex], [tex]v, v_1, v_2 \in V[/tex] e [tex]w, w_1, w_2 \in W[/tex].
Il prodotto tensoriale si può anche definire a partire dalla sua proprietà universale, che garantisce l'esistenza di un isomorfismo [tex]Hom(V \otimes W, U) \cong L(V, W; U)[/tex] (dove ho indicato con [tex]L(V, W; U)[/tex] le mappe bilineari da [tex]V \times W[/tex] a [tex]U[/tex]) per ogni [tex]V, W, U[/tex] spazi vettoriali. Isomorfismo che può essere usato per dimostrare anche le seguenti proprietà
[tex]Hom(V \otimes W, U) \cong Hom(V, Hom(W, U)) \cong Hom(W, Hom(V, U))[/tex],
[tex](V \otimes W)^* \cong L(V, W; \mathbb R) \cong Hom(V, W^*) \cong Hom(W, V^*)[/tex],
[tex]V \otimes W \cong W \otimes V[/tex] (questo NON significa che [tex]v \otimes w = w \otimes v[/tex]!!!),
[tex](V \oplus W) \otimes U \cong (V \otimes U) \oplus (W \otimes U)[/tex],
[tex]\mathbb R \otimes V \cong V[/tex],
[tex]V^* \otimes W \cong Hom(V, W)[/tex],
[tex]\dim(V \otimes W) = \dim(V) \times \dim(W)[/tex].

Si può fare anche il prodotto tensoriale di mappe. In particolare, siano [tex]f : V_1 \to V_2[/tex] e [tex]g : W_1 \to W_2[/tex], allora [tex]f \otimes g : V_1 \otimes W_1 \to V_2 \otimes W_2[/tex] è la mappa [tex]v \otimes w \mapsto f(v) \otimes g(w)[/tex] per ogni [tex]v \in V_1[/tex] e [tex]w \in W_1[/tex]. Valgono le seguenti proprietà:
[tex](f_1 \otimes g_1) \circ (f_2 \otimes g_2) = (f_1 \circ f_2) \otimes (g_1 \circ g_2)[/tex],
[tex]1_V \otimes 1_W = 1_{V \otimes W}[/tex] (indico con [tex]1[/tex] la mappa identità),
[tex](\alpha \, f_1 + \beta \, f_2) \otimes g = \alpha \, (f_1 \otimes g) + \beta \, (f_2 \otimes g)[/tex],
[tex]f \otimes (\alpha \, g_1 + \beta \, g_2) = \alpha \, (f \otimes g_1) + \beta \, (f \otimes g_2)[/tex].
La matrice associata al prodotto tensoriale di mappe lineari è il prodotto di Kronecker delle matrici associate alle due funzioni sui due spazi.
Tutto ciò si può estendere ad un numero finito di spazi (in cui questa volta la relazione è tra gli omomorfismi del tensore su uno spazio con le mappe multilineari). E si ha inoltre che [tex](V \otimes W) \otimes U \cong V \otimes (W \otimes U) \cong V \otimes W \otimes U[/tex].
A questo punto possiamo arrivare alle definizioni di cui parlate voi di tensore definendo gli spazi vettoriali [tex]V^r_s = V^{\otimes r} \otimes (V^*)^{\otimes s}[/tex] (spero che la notazione sia chiara) e l'algebra [tex]T(V) = \sum_{r,s \ge 0} V^r_s[/tex] ([tex]V^0_0 = \mathbb R[/tex]) il cui prodotto, indicato con [tex]\otimes[/tex], è dato sui generatori da:
[tex]v = v_1 \otimes \cdots \otimes v_r \otimes v^*_1 \otimes \cdots \otimes v^*_s[/tex],
[tex]w = w_1 \otimes \cdots \otimes w_h \otimes w^*_1 \otimes \cdots \otimes w^*_k[/tex],
[tex]v \otimes w = v_1 \otimes \cdots \otimes v_r \otimes w_1 \otimes \cdots \otimes w_h \otimes v^*_1 \otimes \cdots \otimes v^*_s \otimes w^*_1 \otimes \cdots \otimes w^*_k[/tex]. Gli elementi di [tex]T(V)[/tex] si chiamano tensori e quelli di [tex]V^r_s[/tex] si chiamano tensori omogenei di tipo [tex](r, s)[/tex]. Un tensore omogeneo è decomponibile se può essere scritto come [tex]v[/tex] e [tex]w[/tex] nella definizione del prodotto.
Vi chiederete ora come mai si dice che un tensore è una forma multilineare... È per il seguente teorema che non dimostro (non è difficile ma sono pigro..):
Teorema. [tex](V^r_s)^* \cong (V^*)^r_s[/tex].
È infine possibile parlare di fibrato tensoriale di tipo [tex](r, s)[/tex] come a [tex]T^r_s (M) = \sqcup (T_x M)^r_s[/tex]. Nota che, per il teorema, un tensore di tipo [tex](r, s)[/tex] è una forma multilineare [tex]T : \Omega(M)^r \times \mathfrak{X}(M)^s[/tex] dove [tex]\Omega(M)[/tex] è lo spazio delle [tex]1[/tex]-forme mentre [tex]\mathfrak{X}(M)[/tex] è lo spazio dei campi vettoriali.
"Paolo90":
Avendo definito [tex]\rm{Alt}(F)[/tex] per ogni [tex]k[/tex]-tensore [tex]F[/tex] (non necessariamente antisimmetrico), la definizione di prodotto esterno non posso darla su tutto [tex]T^k[/tex]? E' necessario restringersi solo ai tensori alternati?
Perché non posso definire [tex]\wedge : T^k(V^*) \times T^h(V^*) \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
In effetti, non vedo che cosa ci sia di male. Forse, e dico forse, si dà quella definizione perché nell'ambito della teoria dell'integrazione lavoreremo solo con tensori alternati. Però, non vedo cosa ci sia di male. E' anche possibile / probabile che sia un altro di quei punti in cui Sernesi impazzisce e decide di seguire convenzioni inventate sul momento. Io per il momento mi attengo più a questo testo, perché è dove ho studiato queste cose qualche mese fa...
"Paolo90":
Ora, ho letto che si può introdurre anche un prodotto interno (confesso però di non aver capito perché interno): prendiamo una [tex]h[/tex]-forma [tex]\alpha[/tex] su [tex]$V$[/tex] e sia [tex]\bold{v} \in V[/tex]. Allora posso definire [tex]\bold{v} \rfloor \alpha[/tex] come la [tex](h-1)[/tex]-forma che lavora [tex]V^{h-1} \to \mathbb{K}[/tex] e cha manda [tex](\bold{w}_{2}, \ldots , \bold{w}_{h}) \mapsto \alpha(\bold{v}, \bold{w}_{1}, \ldots, \bold{w}_{h})[/tex]. Lineare e antisimmetrica, come si vuole.
E' giusto? Avete idea del perché si chiami prodotto interno?
Questa è di nuovo una di quelle cose che mi giungono nuove, nel senso che non ho mai avuto il piacere di incontrare e di lavorare con il sig. prodotto interno. Posso avanzare un'ipotesi: mi ricorda molto da vicino l'accoppiamento di dualità che sussiste tra [tex]V[/tex] e il suo duale. In questo caso invece che restituire un numero, restituisce una forma abbassata "di grado". E l'accoppiamento di dualità mi pare venga chiamato anche prodotto interno perché, di fatto, negli spazi euclidei non è niente di più del prodotto scalare (che da molti è appunto chiamato interno).
"Paolo90":
Infine, una domanda-curiosità: per ora non mi serve (evito pertanto di sovraccaricare il mio neurone), però queste cose che abbiamo fatto come si legano alla teoria dell'integrazione su varietà? Io lancio il sassolino, sperando che ne nasca un'altra bella discussione, che eventualmente proseguiremo anche più avanti.
L'idea base è quella di utilizzare le forme differenziali come oggetti integrandi. Ma la questione è più articolata (e avendola vista solo una volta non sono così sicuro di me stesso). Delineo molto brevemente l'idea, poi eventualmente possiamo tornarci sopra (non appena avrò finito di stare dietro a questa dannata tesi, potrò dedicarmici con molto più impegno

Supponiamo di avere una parametrizzazione [tex]\psi : A \subset \mathbb R^n \to M[/tex]. E supponiamo di avere una [tex]n[/tex]-forma differenziale [tex]\omega[/tex] definita su [tex]\psi(A)[/tex]. L'integrale su [tex]\psi(A)[/tex] è definito nella maniera più intuitiva possibile:
[tex]\displaystyle \int_{\psi(A)} \omega := \int_A \psi^*(\omega)[/tex]
dove [tex]\psi^*(\omega)[/tex] è il pull-back della forma differenziale. Per trattare il caso generale occorre introdurre le partizioni dell'unità. Molto brevemente:
Definizione. Sia [tex]M[/tex] una varietà differenziabile di classe [tex]C^\infty[/tex]. Sia [tex]\mathcal F = \{U_\alpha\}_{\alpha \in A}[/tex] una famiglia di aperti che ricoprono [tex]M[/tex]. Una partizione dell'unità subordinata a [tex]\mathcal F[/tex] parametrizzata dagli stessi indici [tex]A[/tex] è una famiglia di funzioni [tex]\{\rho_\aplha\}_{\alpha \in A}[/tex], con [tex]\rho_\alpha : M \to \mathbb R[/tex] differenziabile di classe [tex]\mathcal C^\infty[/tex] tali che:
- 1. [tex]\{\rm{supp}(\rho_\alpha)\}_{\alpha \in A}[/tex] è una famiglia localmente finita;
2. [tex]\displaystyle \sum_{\alpha \in A} \rho_\alpha( \bold x) = 1[/tex] per ogni [tex]\bold x \in M[/tex];
3. [tex]\rm{\supp}(\rho_\alpha) \subset U_\alpha[/tex].[/list:u:s2vjism0]
Si può dimostrare che le partizioni dell'unità esistono sempre.
Adesso supponiamo che [tex]M[/tex] sia una varietà differenziabile di classe [tex]C^\infty[/tex] e dimensione [tex]n[/tex]. Sia [tex]\omega[/tex] una [tex]n[/tex]-forma differenziale definita su [tex]M[/tex]. Sia [tex]\{(U_\alpha, \varphi_\alpha)\}_{\alpha \in A}[/tex] un'atlante differenziabile e sia [tex]\{\rho_\alpha\}_{\alpha \in A}[/tex] una partizione dell'unità subordinata al ricoprimento [tex]\{U_\alpha\}_{\alpha \in A}[/tex] e parametrizzata dagli stessi indici. Allora definiamo
[tex]\displaystyle \int_M \omega := \sum_{\alpha \in A} \int_{U_\alpha} \rho_\alpha \omega[/tex]
Poi, naturalmente, si dimostra che questa definizione non dipende dalla scelta della partizione dell'unità.
"maurer":
I tensori alternati ci piacciono per un sacco di motivi. Credo, ma invito chiunque ne sappia più di me a contraddirmi, che le forme differenziali vengano fondate sui tensori alternati per motivi di orientazione della superficie (vorremmo che l'integrale di una funzione cambiasse di segno se cambiamo orientazione; e cambiare orientazione equivale in qualche modo ad operare una trasposizione sulla base di tutti gli spazi vettoriali tangenti del fibrato tangente; se i tensori sono alternati, cambiano automaticamente di segno in ogni punto e l'integrale risultante cambia pure lui il segno, che è appunto quello che desideriamo).
Credo che questa mia riflessione sia, tutto sommato, corretta. E dovrebbe dare una giustificazione al fatto che le forme le definiamo con i tensori alternati e non con quelli generici.
"Paolo90":
[quote="maurer"]
E, simmetricamente, io non avevo mai sentito questa. La tua ultima affermazione è sicuramente corretto, eppure sento che mi sta sfuggendo qualcosa. Chiedo lumi! Qualcosa mi suggerisce che le due definizioni non sono così tanto distinte l'una dall'altra... però adesso non saprei...
Ma guarda, io avevo sempre visto quella come definizione. Tra l'altro, al prezzo di introdurre il duale, riesci a descrivere come tensori anche altri oggetti. Ad esempio, si può far vedere che c'è una biiezione (di più, un isomorfismo canonico!) tra lo spazio degli endomorfismi di [tex]V[/tex] e lo spazio dei tensori (1,1) (nella "mia" definizione). Non dovrebbe essere difficile, una volta avevo letto una dimostrazione ma ora su due piedi non la ricordo.[/quote]
Mah, mi sa che questo è proprio uno di quei punti in cui Sernesi impazzisce. Guardando il Warner, lui parla dei tensori proprio come li definisci tu.
Ok, allora adesso mi hai incuriosito con la derivata di Lie (noi non l'avevamo fatta o per lo meno non l'avevamo chiamata così, ma propendo per la prima). Quindi vado a consultare il Warner. Se per sbaglio capisco qualcosa, posterò...
Update: ah, ecco apatriarca ci ha illuminato sullo spazio dei tensori. Corro a leggere!

"Paolo90":
Avendo definito [tex]\rm{Alt}(F)[/tex] per ogni [tex]k[/tex]-tensore [tex]F[/tex] (non necessariamente antisimmetrico), la definizione di prodotto esterno non posso darla su tutto [tex]T^k[/tex]? E' necessario restringersi solo ai tensori alternati? Perché non posso definire [tex]\wedge : T^k(V^*) \times T^h(V^*) \to \bigwedge^{k+h} V^*[/tex], con [tex]F \wedge G := \text{Alt}(F \otimes G)[/tex].
Perché quello non è un prodotto. Il wedge product come è stato definito in precedenza permette di ottenere un'algebra graduata.
"Paolo90":
Ora, ho letto che si può introdurre anche un prodotto interno (confesso però di non aver capito perché interno): prendiamo una [tex]h[/tex]-forma [tex]\alpha[/tex] su [tex]$V$[/tex] e sia [tex]\bold{v} \in V[/tex]. Allora posso definire [tex]\bold{v} \rfloor \alpha[/tex] come la [tex](h-1)[/tex]-forma che lavora [tex]V^{h-1} \to \mathbb{K}[/tex] e cha manda [tex](\bold{w}_{2}, \ldots , \bold{w}_{h}) \mapsto \alpha(\bold{v}, \bold{w}_{1}, \ldots, \bold{w}_{h})[/tex]. Lineare e antisimmetrica, come si vuole.
E' giusto? Avete idea del perché si chiami prodotto interno?
Devo ammettere di non sapere perché si chiama prodotto interno. Un'altra notazione comune è [tex]\iota_X \omega[/tex], devo anzi ammettere di non averlo mai visto indicato con il floor. Semmai con qualcosa tipo [tex]X \lrcorner \, \omega[/tex] (si sarebbe proprio un carattere particolare che non sono riuscito a ripetere ma che è simile a quello che ho usato U+2A3C.
Il nome potrebbe derivare dalla seguente proprietà. Limitiamoci al caso dell'algebra multi-lineare in cui prendiamo [tex]V[/tex] spazio vettoriale. Se [tex]v \in \Lambda(V)[/tex] (un'elemento dell'algebra esterna..) allora la moltiplicazione a sinistra per [tex]v[/tex], [tex]L_v[/tex], è il solito morfismo [tex]L_v \, w = v \wedge w[/tex]. Data l'identificazione di [tex]\Lambda(V)^*[/tex] con [tex]\Lambda(V*)[/tex] possiamo interpretare la trasposta della moltiplicazione a sinistra, che chiamiamo prodotto interno [tex]\iota_v[/tex], come un endomorfismo di [tex]\Lambda^k(V^*)[/tex]. [tex]\iota_v[/tex] è cioè l'unico endomorfismo di [tex]\Lambda^k(V^*)[/tex] tale che [tex]\left< \iota_v \, \omega, w \right> = \left< \omega, L_v \, w \right>[/tex] dove [tex]\left< , \right>[/tex] è il pairing che da l'isomorfismo tra [tex]\Lambda(V)^*[/tex] e [tex]\Lambda(V*)[/tex]. Nota che questa è una "generalizzazione" del tuo prodotto interno, infatti, se [tex]\omega \in \Lambda^k[/tex], [tex]\iota_v \omega \in \Lambda^{k-1}[/tex] come si vede subito dalla formula precedente (il pairing fornisce l'isomorfismo [tex]\iota_v Lambda^k(V^*) \cong \Lambda^{k-1}(V)^* \cong Alt^k(V)[/tex] dove [tex]Alt^k(V)[/tex] sono le [tex]k[/tex]-forme alternanti. In particolare, preso [tex]v \in \Lambda^1(V) = V[/tex] e [tex]\omega \in \Lambda^1(V^*) = V^*[/tex] ottieni che [tex]\left< \iota_v \omega, 1 \right> = \left< \omega, v \right> = \omega(v)[/tex]. La tua formula si ottiene in modo simile, anche se ci va qualche calcolo in più partendo dalle definizioni generali di algebra multilineare. Nota inoltre che tu stai lavorando su [tex]\Lambda^k(M) = \sqcup \Lambda^k(T^*_x M)[/tex].
