[Tensori] Definizione di covettore

dissonance
Sto cercando di comprendere i fondamenti del calcolo tensoriale e a questo scopo sto consultando

Quick Introduction to Tensor Analysis di R. Sharipov

e

Tensor Algebra and Tensor Analysis for Engineers di M. Itskov (consigliato da ciampax che ringrazio).

Nel primo pdf si parla di vettori e covettori descrivendone la loro definizione operativa (che poi credo sia la definizione classica di vettore/tensore):

Prendiamo due basi [tex]\mathcal{E}=\{\mathbf{e}_1, \mathbf{e}_2, \mathbf{e}_3\}, \tilde{\mathcal{E}}=\{\tilde{\mathbf{e}}_1, \tilde{\mathbf{e}}_2, \tilde{\mathbf{e}}_3\}[/tex] dello spazio [tex]\mathbb{E}^3[/tex] (delle traslazioni dello spazio Euclideo), e siano [tex][S^i_j], [T^i_j][/tex] le matrici di cambiamento di coordinate:

[tex]$\mathbf{e}_i=\sum_jT^j_i \tilde{\mathbf{e}}_j, \quad \mathbf{e}_j=\sum_i S^i_j \mathbf{e}_i.[/tex]

Un vettore [tex]\mathbf{x}[/tex] è un ente descritto da componenti dipendenti dalla scelta di una base secondo la relazione:

[tex]$\tilde{x}^i=\sum_j T^i_j x^j[/tex]. ([size=75]N.B.: Le componenti di un vettore vanno in alto: [tex]\tilde{x}^i, x^j[/tex][/size])

E fin qui, nulla quaestio. Ma veniamo al covettore: dualmente al vettore, un covettore [tex]\mathbf{a}[/tex] è descritto da componenti indicizzate in basso e dalla formula di cambiamento di base

[tex]$a_j=\sum_i T^i_j \tilde{a}_i[/tex].

Ovvero, la stessa matrice [tex]T[/tex] che porta le componenti del vettore [tex]\mathbf{x}[/tex] dalla base [tex]\mathcal{E}[/tex] alla base [tex]\tilde{\mathcal{E}}[/tex], con il covettore [tex]a[/tex] fa il lavoro inverso e, essenzialmente, non agisce più per moltiplicazione a sinistra di un vettore colonna ma a destra di un vettore riga.

Come conciliare tutto questo con il concetto di covettore a cui sono abituato, ovvero una forma lineare su [tex]\mathbb{E}^3[/tex]? Sicuramente qui interviene il concetto di base duale: la base [tex]\mathcal{E}^\star=\{\mathbf{e}^1, \mathbf{e}^2, \mathbf{e}^3\}[/tex] duale di [tex]\mathcal{E}[/tex] è quell'insieme di forme lineari caratterizzate da

[tex]$\langle \mathbf{e}^i, \mathbf{e}_j \rangle= \delta^i_j[/tex]. [size=75](*)[/size]

Ma come, precisamente? Non sto riuscendo a fare quadrare i miei conti.


_____________
(*) oppure, identificando vettori e forme lineari, caratterizzata da

[tex]$\mathbf{e}^i\cdot \mathbf{e}_j=\delta^i_j[/tex].

Questo approccio si trova sul testo di Itskov.

Risposte
ciampax
Non ho capito bene la tua domanda: cioè vorresti sapere come dall'idea di "covettore" inteso come un insieme di elementi che "cambiano" secondo la formula che hai scritto per gli [tex]$a_j$[/tex] puoi far vedere che [tex]$A=a_j e^j$[/tex] è una applicazione lineare? (Uso la notazione di Einstein perché lo scrivere tutte quelle sommatorie mi fa venire l'ulcera!)

david_e1
Che quella sia la formula di cambio di coordinate per un covettore è abbastanza facile da vedere in modo operativo.

Partendo dalla definizione come forme lineari su $E^3$, l'azione di un covettore $\alpha$ su un vettore $x$ si può scrivere, in componenti come:

$ \langle \alpha, x \rangle = \alpha_i x^i $ (1)

Ora dato che l'azione di $\alpha$ su $x$ deve essere indipendente dalla base, essendo il risultato finale uno scalare, si ha che se $x$ si trasforma come

$ x^i = T_j^i x^j $,

e

$ \alpha_j = Q_j^i \alpha_i $,

sostituendo nella (1), si trova:

$ Q_i^j \alpha_j T_k^i x^k = \alpha_i x^i \implies Q_i^j T_k^i = \delta_k^j $

che implica

$ Q_j^i = T_j^i$.

dissonance
E certo, mi avete convinto completamente. Quindi in sostanza le due affermazioni di david_e e di ciampax dimostrano che "covettori" e "forme lineari" sono in corrispondenza biunivoca e quindi "sono la stessa cosa". Grazie, adesso questo punto mi è chiaro.

Però mi viene una curiosità... Perché nello spazio euclideo, in cui abbiamo un prodotto scalare [tex]\cdot[/tex], covettori e vettori si identificano? Ok, la dimostrazione formale la so: sono spazi vettoriali della stessa dimensione eccetera eccetera. Ma alla luce di questa nuova ([size=75]per me[/size]) definizione che abbiamo appena visto, si può spiegare in modo più significativo?

In pratica quello che ho capito fino a questo punto è che i vettori sono [tex]n[/tex]-uple "con gli indici in alto", mentre i covettori sono [tex]n[/tex]-uple "con gli indici in basso". Perché la presenza di un prodotto scalare ci permette di "alzare" e "abbassare" questi indici?

Adesso ci penso un po'. Se avete voglia di darmi qualche spunto di riflessione, io sono tutto orecchi! E grazie ancora.

david_e1
Il prodotto scalare si definisce a partire dal tensore metrico, [tex]\mathbf{g}[/tex]:

[tex]\mathbf{X} \cdot \mathbf{Y} := \mathbf{g}(\mathbf{X}, \mathbf{Y})[/tex]

le cui componenti possono essere interpretate come,

[tex]g_{ik} = \mathbf{e}_i \cdot \mathbf{e}_k[/tex],

essendo [tex]\{\mathbf{e}^i\}_i[/tex] la base canonica dello spazio vettoriale. Ovviamente nel caso Euclideo si ha semplicemente

[tex]g_{ik} = \delta_{ik}[/tex].

Dato il tensore metrico ad ogni vettore [tex]\mathbf{X}[/tex] puoi associare una uno-forma [tex]\mathbf{X}_b[/tex] definita come

[tex]\langle \mathbf{X}_b, \mathbf{Y}\rangle := \mathbf{g}( \mathbf{X} , \mathbf{Y} ), \qquad \forall \mathbf{Y}[/tex],

la trasformazione [tex]\mathbf{X} \rightarrow \mathbf{X}_b[/tex] è anche chiamata bemolle (e la sua inversa diesis) e in componenti non e' altro che l'abbassamento di indici

[tex]X_i = g_{ik} X^k[/tex].

Quindi ogni volta che hai un tensore metrico (su ogni varieta' pseudo-Riemanniana) hai un'identificazione naturale fra vettori e covettori. Nel caso di [tex]\mathbb{E}^3[/tex] questa e' molto semplice perché la metrica è "la matrice identità".

orazioster
"david_e":


la trasformazione [tex]\mathbf{X} \rightarrow \mathbf{X}_b[/tex] è anche chiamata bemolle (e la sua inversa diesis)


Bellissimo! Non lo sapevo (e già... il "bemolle" abbassa, ed il "diesis" alza...).

dissonance
Grazie david_e, questo è proprio quello che mi serviva sapere. Adesso vedo di masticarlo un po'.

dissonance
Ok. Mi è chiaro questo concetto. Ora espongo l'ultimo punto, il più importante, che vorrei chiarire per bene. E' sicuramente una applicazione della costruzione esposta da david_e nel suo ultimo post.

Limitiamoci ai tensori del secondo ordine: estendendo la definizione operativa data in precedenza per vettori e covettori, definiamo un tensore doppio come un ente a due indici, che può essere di uno dei tre seguenti tipi:
    [*:2j3hfi7m][tex]$X^{i, j}[/tex], doppiamente controvariante;[/*:m:2j3hfi7m]
    [*:2j3hfi7m][tex]$X^i_j[/tex], misto;[/*:m:2j3hfi7m]
    [*:2j3hfi7m][tex]$X_{i, j}[/tex], doppiamente covariante.[/*:m:2j3hfi7m][/list:u:2j3hfi7m]A seconda del tipo il tensore è caratterizzato da opportune formule di trasformazione (Sharipov §12 pag.25). Ora sia il testo di Itskov sia il professore di un corso di Fisica Matematica che ho seguito all'università non fanno questa distinzione: loro parlano semplicemente di tensore doppio su [tex]\mathbb{E}^n[/tex], riferendosi ad un operatore lineare [tex]\mathbf{X}[/tex] che però agisce linearmente anche a sinistra grazie alla formula:

    [tex]$\mathbf{y}\mathbf{X}\mathbf{x}=(\mathbf{y}\mathbf{X})\cdot\mathbf{x}=\mathbf{y}\cdot(\mathbf{X}\mathbf{x})[/tex].

    (vedi Itskov, pag.16, equazioni (1.78), (1.79) )

    Domanda: Che relazione c'è tra questi "tensori doppi" e i tensori di tipo [tex](2, 0), (1, 1), (0, 2)[/tex] elencati sopra?

david_e1
Un modo per vederlo secondo me è questo (*).

Un tensore doppio due volte covariante è definito come un'applicazione bilineare su [tex]\mathbb{E}^3[/tex]. Ovvero se [tex]\mathbf{T}[/tex] è un tensore doppio due volte covariante [tex]T_{ik} X^i Y^k[/tex] è uno scalare. Un tensore doppio due volte controvariante è definito come un'applicazione bilineare sullo spazio dei covettori e un tensore misto è definito come un'applicazione lineare che agisce su un vettore e su un covettore:

[tex]\mathbf{T}(\underline{\alpha}, \vec{X}) := T^i_{\phantom{i}k} \alpha_i X^k[/tex].

Nel caso generale questi tre tipi di tensori sono "scollegati", ma se abbiamo una metrica [tex]g_{ik}[/tex] possiamo usarla per alzare e abbassare indici anche ai tensori. i.e. dato un tensore completamente covariante, [tex]\mathbf{T}[/tex], ne possiamo definire uno misto [tex]\mathbf{T}'[/tex]:

[tex]\mathbf{T}'(\underline{\alpha}, \vec{X}) := \mathbf{T}(\phantom{}^\#\underline{\alpha}, \vec{X}), \qquad T_{\phantom{k}i}^{k} = g^{jk} T_{ji}[/tex]

essendo [tex]g^{ik}[/tex] l'inverso della metrica (il diesis): [tex]g^{ij} g_{jk} = \delta^i_{\phantom{j}k}[/tex]. In maniera analoga possiamo passare da uno misto a uno completamente controvariante o viceversa.

Di fatto nel caso Euclideo le componenti di questi tre tipi di tensori vengono a coincidere per il solito motivo che la metrica è "l'identità".

Se facciamo agire i tensori doppi su un solo elemento e lasciamo l'altro slot libero possiamo interpretarli come trasformazioni lineari di vettori o covettori in vettori o covettori, e.g. un tensore due volte covariante agisce come un operatore lineare sul secondo argomento, quindi quando è valutato solo sul primo argomento può essere interpretato come un covettore: [tex]\underline{\alpha} = T(\vec{X},\cdot)[/tex]. Nel caso di un tensore misto la sua valutazione parziale su un vettore da luogo ad un altro vettore e la sua valutazione parziale su un covettore da luogo ad un altro covettore:

[tex]Y^i = T^i_{\phantom{i}k} X^k, \qquad \alpha_i = T^k_{\phantom{k}i} \beta_k[/tex].

Per questo motivo i tensori misti sono quelli che possiamo identificare più facilmente con le matrici dell'algebra lineare: nella convenzione tipica essi mappano un vettore (colonna) in un vettore (colonna) o un covettore (aka vettore riga) in un altro covettore. Sempre in quella convenzione questo significa che un tensore misto agisce come se fosse post-moltiplicato su un covettore.

-------
(*) comunque per una costruzione un po' più sistematica dovresti fare riferimento a un qualche testo di geometria differenziale

dissonance
Ma certo. Provo a fare una estrema sintesi così:

un tensore a due indici è un aggeggio che opera su due covettori, oppure su un vettore e un covettore, oppure su due vettori a seconda del tipo. Identificando vettori e covettori per mezzo del tensore metrico, ovvero del prodotto scalare euclideo nel caso specifico, tutti i tensori doppi si identificano tra loro e allora tanto vale prenderli tutti così:

[tex]$\mathbf{X}(\mathbf{y}, \mathbf{x}):=\mathbf{y}\cdot \mathbf{X}\mathbf{x}[/tex]

dove [tex]\mathbf{X}[/tex] è un operatore lineare.

E in effetti anche il libro fa una cosa del genere, solo che usa un sistema per evitare di introdurre concetti che non gli servono strettamente (forme lineari, spazi duali). Lo espongo nel post successivo, così vediamo di esaurire finalmente la questione.

E grazie mille, david_e, mi stai dando un ottimo aiuto. Questo tipo di semplificazioni operate da chi ha un background ingegneristico mi manda facilmente in crisi, purtroppo.

dissonance
Partiamo da una ridefinizione del concetto di base duale.

Nello spazio Euclideo [tex]\mathbb{E}^n[/tex] sia [tex]\mathcal{G}=\{\mathbf{g}_1 \ldots \mathbf{g}_n\}[/tex] una base. Allora esiste un'unica base [tex]\mathcal{G}^\star=\{\mathbf{g}^1 \ldots \mathbf{g}^n\}[/tex] duale a [tex]\mathcal{G}[/tex] nel senso che

[tex]$\mathbf{g}^i \cdot \mathbf{g}_j=\delta^{i}_j[/tex] per ogni [tex]1\le i, j \le n[/tex].

Con queste notazioni, ogni vettore può essere descritto indifferentemente come tensore 1-covariante oppure 1-controvariante:

[tex]$\mathbf{x}=x^j\mathbf{g}_j=x_j\mathbf{g}^j[/tex].

Si tratta, in componenti, dell'operazione bemolle (o dell'inversa diesis) descritta da david_e, perché se scriviamo

[tex]$\mathbf{g}^i=g^{i j}\mathbf{g}_j,\quad \mathbf{g}_i=g_{i j}\mathbf{g}^j[/tex]

segue subito che

[tex]$g^{i j}=\mathbf{g}^i\cdot\mathbf{g}^j,\quad g_{i j}=\mathbf{g}_i\cdot \mathbf{g}_j[/tex].

Perciò le relazioni [tex]g^{i j}x_i=x^j,\ g_{ij}x^i=x_j[/tex] sono esattamente la procedura di "innalzamento" e "abbassamento" degli indici descritta da david_e. L'unica differenza è che qui non si è introdotto affatto il concetto di covettore, confondendolo da subito con quello di vettore.

A questo punto introduciamo i tensori doppi come operatori lineari di [tex]\mathbb{E}^n[/tex] in sé, osservando che se [tex]\mathbf{A}[/tex] è un tensore doppio, allora per ogni [tex]\mathbf{x}, \mathbf{y}[/tex] esiste un unico vettore [tex]\mathbf{y}\mathbf{A}[/tex] tale che

[tex]$(\mathbf{y}\mathbf{A})\cdot\mathbf{x}=\mathbf{y}\cdot(\mathbf{A}\mathbf{x})[/tex],

e quindi ogni tensore doppio agisce linearmente anche a sinistra sui vettori di [tex]\mathbb{E}^n[/tex]. Particolari tensori doppi sono i prodotti tensoriali di vettori, definiti come

[tex]$(\mathbf{f}\otimes\mathbf{g})\mathbf{x}=\mathbf{f}(\mathbf{g}\cdot\mathbf{x})\quad \forall \mathbf{x} \in \mathbb{E}^n;[/tex]

mediante i quali si possono rappresentare tutti i tensori doppi, perché se [tex]\mathcal{G}, \mathcal{F}[/tex] sono due basi di [tex]\mathbb{E}^n[/tex] l'insieme [tex]\mathcal{G}\otimes\mathcal{F}[/tex] è una base dello spazio dei tensori doppi. In particolare, prendendo come basi [tex]\mathcal{G}\otimes\mathcal{G}, \mathcal{G}\otimes\mathcal{G}^\star, \mathcal{G}^\star\otimes\mathcal{G}, \mathcal{G}^\star\otimes\mathcal{G}^\star[/tex] si ottengono per il tensore doppio [tex]\mathbf{A}[/tex] le rappresentazioni

[tex]$A^{i j}\mathbf{g}_i \otimes \mathbf{g}_j=A^i_{\cdot j}\mathbf{g}_i \otimes \mathbf{g}^j=A^{\cdot j}_i\mathbf{g}^i \otimes \mathbf{g}_j=A_{ij}\mathbf{g}_i \otimes \mathbf{g}_j[/tex]

che si trasformano secondo le regole usuali del calcolo tensoriale. In questo senso questa teoria dei tensori doppi euclidei rientra nel quadro della teoria generale.

david_e1
"dissonance":
In particolare una base ortonormale [tex]\mathcal{E}[/tex] è caratterizzata da

[tex]$\mathcal{E}=\{\mathbf{e}_1 \ldots \mathbf{e}_n \}=\{\mathbf{e}^1 \ldots \mathbf{e}^n\}=\mathcal{E}^\star.[/tex]

Cosa vuol dire questa affermazione?

dissonance
Voglio dire che le basi ortonormali sono tutte e sole quelle auto-duali, ovvero che coincidono con le proprie basi duali. Con questo linguaggio, non è altro che una riformulazione della definizione di ortonormalità. Trovi che sia errato?

david_e1
Il duale del duale di un vettore coincide sempre con il vettore stesso:

[tex]\vec{X} = \phantom{}^\#\vec{X}_b[/tex],

e non ha senso chiedersi se un vettore e un co-vettore coincidano perché sono due oggetti diversi. Di solito quando scrivo [tex]\vec{X} = \underline{\alpha}[/tex] sto facendo un abuso di linguaggio intendendo dire che [tex]\vec{X}_b = \underline{\alpha}[/tex] (o equivalentemente [tex]\vec{X} = \phantom{}^\#\underline{\alpha}[/tex]), ma con questa convenzione ogni insieme di vettori è "auto-duale" (nel senso introdotto da te).

Nel tuo ragionamento introduci le basi ortonormali troppo presto: il percorso logico dovrebbe essere vettori, covettori e metrica. Quando hai la metrica puoi definire il prodotto scalare e usarlo per identificare vettori e covettori (nel senso che [tex]\vec{X} \sim \underline{\alpha}[/tex] se [tex]\vec{X} \cdot \vec{Y} = \langle \underline{\alpha}, \vec{Y} \rangle[/tex] [tex]\forall \vec{Y}[/tex]). Con la metrica puoi anche definire le basi ortonormali come quelle per cui:

[tex]g_{ik} = \vec{e}_i \cdot \vec{e}_k = \delta_{ik}[/tex].

Senza la metrica non esistono le basi ortonormali, perché non c'è una definizione di prodotto scalare o di norma. Al massimo, dato un sistema di coordinate su [tex]\mathbb{R}^3[/tex], [tex]\{x^i\}_i[/tex], si può introdurre la base canonica [tex]\{\vec{e}_i\}_i[/tex] come quella per cui(*):

[tex][\vec{e}_i]^k = \delta_i^{\phantom{i}k}[/tex]

e questa induce una base canonica per i covettori.

[pedante]
Di solito non si mette la virgola fra gli indici di un tensore, perché quella ha il significato di derivata:

[tex]X_{i,j} := \frac{\partial X_i}{\partial x^j}[/tex]
[/pedante]

--- EDIT ---
(*) notare che se la metrica non è l'usuale [tex]\mathbf{\delta}[/tex] la base canonica non è ortonormale.

dissonance
Quindi non ti pare ben detto... Hmm in realtà il problema è a monte, perché non ho specificato bene cosa sto facendo. Il fatto è che ho frequentato un corso di Fisica Matematica in cui si parlava di tensori nello spazio Euclideo in modo naïf, a volte come operatori lineari, a volte come forme bilineari, senza una definizione proprio precisa. Questo perché il professore insegna principalmente nelle facoltà di Ingegneria ed usa un linguaggio tipico degli ingegneri.

Purtroppo io fatico molto a ragionare in queste condizioni e allora ho cercato di reperire le informazioni mancanti consultando il testo for engineers consigliato da ciampax: la costruzione che ho esposto prima, in cui si scansa completamente il concetto di covettore, viene pari pari da lì. Probabilmente mi sono espresso male ma di sicuro questo libro segue il percorso logico "vettori" $->$ "prodotto scalare" $ ->$ "tensori doppi", non me lo sono inventato io.

Comunque, adesso mi sono incuriosito moltissimo sulla faccenda: per fortuna proprio nel prossimo semestre ho nel piano di studi un corso di geometria differenziale in cui si trattano queste cose. Penso che tornerò sulla questione durante il corso, cercando di riformulare la costruzione precedente in modo meno ingenuo. Nel frattempo elimino dal post precedente l'affermazione sulle basi ortonormali che effettivamente è brutta e sistemo anche la questione delle virgole, che non conoscevo.

Grazie!

david_e1
"dissonance":
Purtroppo io fatico molto a ragionare in queste condizioni e allora ho cercato di reperire le informazioni mancanti consultando il testo for engineers consigliato da ciampax: la costruzione che ho esposto prima, in cui si scansa completamente il concetto di covettore, viene pari pari da lì. Probabilmente mi sono espresso male ma di sicuro questo libro segue il percorso logico "vettori" $->$ "prodotto scalare" $ ->$ "tensori doppi", non me lo sono inventato io.

Ti capisco perché anche io ho avuto un problema analogo: si fa molta confusione anche perché si tratta di concetti che nel caso Euclideo vengono poi ad "appiattirsi". Diventa tutto molto più chiaro studiando la geometria differenziale (e avendo ben chiari alcuni concetti di base dell'algebra lineare).

Comunque la costruzione che hai fatto è corretta. Era solo il punto sulle basi ortonormali ad essere sbagliato.

Alexp1
Caspita che bel argomento!!! :-D

Comunque ha ragione "david_e", i tensori acquisiscono maggiore concretezza se visti in GD...tu "dissonance" penso che dovresti già avere le dispense di Luca di IGS, li c'è un capitolo dedicato ai tensori.

dissonance
Ragazzi scusate se resuscito... Sto di nuovo studiando questo argomento e non mi ritrovo con un calcolo fatto dal professore.

Domanda: nello spazio Euclideo [tex]\mathbb{E}^n[/tex], in cui [tex]\mathbf{e}_1 \ldots \mathbf{e}_n[/tex] è una base ortonormale, il gradiente di una funzione vettoriale [tex]\mathbf{q}(x^1 \ldots x^n)=q^i\mathbf{e}_i[/tex] si può rappresentare come

[tex]$\nabla \mathbf{q}=\frac{\partial q^i}{\partial x^j} \mathbf{e}_i \otimes \mathbf{e}^j[/tex]

? O forse sto sbagliando, e devo prendere il trasposto del secondo membro?

Alexp1
Non capisco perchè fai il prodotto tensoriale....

dissonance
Beh, è il gradiente di una funzione vettoriale, quindi un tensore a due indici, no?

Facciamo così, espongo proprio il problema. E' una questione semplice di meccanica dei continui. Nello spazio Euclideo [tex]\mathbb{E}^n[/tex] fissiamo una base ortonormale [tex]\mathbf{e}_1 \ldots \mathbf{e}_n[/tex]. Supponiamo di avere un sistema continuo in moto regolare, indichiamo con [tex]x^1 \ldots x^n[/tex] le coordinate di un suo punto nella configurazione attuale e [tex]y^1 \ldots y^n[/tex] le coordinate di un punto nella configurazione di riferimento.

Supponiamo adesso di avere una grandezza scalare [tex]q=q(x^1 \ldots x^n; t)[/tex]. Quanto vale la derivata materiale, ovvero la derivata totale [tex]\dot{q}[/tex]? Vale

[tex]$\frac{ dq}{dt}=\frac{\partial q}{\partial x^k}\frac{\partial x^k}{\partial t} + \frac{\partial q}{\partial t}[/tex],

ovvero, indicando con [tex]\mathbf{v}[/tex] il vettore [tex]\frac{\partial x^k}{\partial t}\mathbf{e}_k[/tex],

[tex]$\frac{ dq}{dt}=\mathbf{v}\cdot \nabla q + \frac{\partial q}{\partial t}[/tex].

Ok. Ma cosa cambia se la grandezza scalare [tex]q[/tex] è invece una grandezza vettoriale [tex]\mathbf{q}[/tex]? Secondo me la formula si riscrive così:

[tex]$\frac{ d\mathbf{q}}{dt}=(\nabla \mathbf{q})\mathbf{v} + \frac{\partial \mathbf{q}}{\partial t}[/tex];

secondo il professore, invece, così:

[tex]$\frac{ d\mathbf{q}}{dt}=\mathbf{v}(\nabla \mathbf{q}) + \frac{\partial \mathbf{q}}{\partial t}[/tex].

Chi ha ragione?

david_e1
Secondo me c'è un po' di confusione fra gradiente e differenziale. Magari questo può fare chiarezza.

Data una funzione reale [tex]f(x)[/tex] su [tex]\mathbb{R}^n[/tex] si definisce differenziale, se questo esiste, di [tex]f[/tex], [tex]df[/tex], in un punto, diciamo [tex]0[/tex] per convenienza, il funzionale lineare e continuo, sullo spazio delle traslazioni [tex]\mathbb{E}^n[/tex] tangente in [tex]0[/tex] (*):

[tex]f(x) = f(0) + \langle df, \vec{x} \rangle + o(\|\vec{x}\|)[/tex],

mentre il gradiente di [tex]f[/tex], [tex]\nabla f[/tex] è quel vettore il cui prodotto scalare agisce come [tex]df[/tex], i.e. con il linguaggio dei tensori:

[tex]\nabla f = \phantom{}^\# df[/tex].

Quindi se [tex]f[/tex] è scalare, il differenziale è un covettore, mentre il gradiente è un vettore.

Veniamo al caso vettoriale. Se [tex]\vec{q}[/tex] è un campo vettoriale definiamo, nello stesso modo, il differenziale come un'applicazione lineare sullo spazio delle traslazioni:

[tex]\vec{q}(x) = \vec{q}(0) + [d\vec{q}](\vec{x}) + o(\|\vec{x}\|)[/tex],

ovvero in componenti:

[tex]q^i(x) = q^i(0) + dq^i_{\phantom{i}j} x^j + o(\|\vec{x}\|)[/tex],

quindi il differenziale è scritto come:

[tex]d\vec{q} = q^i_{\phantom{i},j} \vec{e}_i \otimes \underline{e}^i[/tex],

e quindi agisce sulla destra. Al contrario il gradiente, come nel caso scalare, agisce per prodotto scalare, oppure, visto in un altro modo su covettori invece che su vettori:

[tex]\nabla \vec{q} = q^{i,j} \vec{e}_i \otimes \vec{e}_j[/tex]

quindi agisce sulla sinistra.

Nel caso che citi si parla di gradienti, anche se la notazione per le derivate parziali è quella dei differenziali, per questo vengono fatti agire sulla sinistra. La convenzione per le derivate parziali infatti è la seguente:

[tex]df_i := f_{,i} := \frac{\partial f}{\partial x^i}, \quad \nabla f^i := f^{,i} := \frac{\partial f}{\partial x_i}[/tex]

che stanno ad indicare che il differenziale agisce linearmente sui vettori [tex]x^i[/tex], mentre il gradiente agisce sui covettori [tex]x_i[/tex] (o alternativamente attraverso il prodotto scalare sui vettori).

----------------
(*) nel seguito faccio uso dell'identificazione punti / vettori per non appesantire la notazione.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.