Relazioni vettori-covettori
Ciao!
Sto cercando di derivare autonomamente un po' di algebra tensoriale, dato che paradossalmente in un corso di ingegneria in cui viene affrontato lo studio della Meccanica dei Solidi e dei Fluidi non si ritiene opportuno.
Ho preso per buona la definizione di spazio vettoriale duale. Meno chiara è la seguente relazione:
$\bar\alpha(\barv)=<\barv,\bar\alpha>$
detta valutazione di $\bar\alpha$ su $\bar\v$. Cioè?
Poi ci sono queste relazioni, di cui ignoro il significato:
$\barv=v^i\bare_ihArrv^i=<\barv,\epsilon^i>$
$\bar\alpha=\alpha_i\epsilon^ihArr\alpha_i=<\bare_i,\bar\alpha>$
Qualcuno potrebbe spiegarmele? Grazie!
Sto cercando di derivare autonomamente un po' di algebra tensoriale, dato che paradossalmente in un corso di ingegneria in cui viene affrontato lo studio della Meccanica dei Solidi e dei Fluidi non si ritiene opportuno.
Ho preso per buona la definizione di spazio vettoriale duale. Meno chiara è la seguente relazione:
$\bar\alpha(\barv)=<\barv,\bar\alpha>$
detta valutazione di $\bar\alpha$ su $\bar\v$. Cioè?
Poi ci sono queste relazioni, di cui ignoro il significato:
$\barv=v^i\bare_ihArrv^i=<\barv,\epsilon^i>$
$\bar\alpha=\alpha_i\epsilon^ihArr\alpha_i=<\bare_i,\bar\alpha>$
Qualcuno potrebbe spiegarmele? Grazie!
Risposte
La definizione di spazio duale \(V^{\ast}\) è quello dell'insieme delle funzioni lineari da \(\displaystyle V \) in \(\displaystyle \mathbb{R} \) (o \(\displaystyle \mathbb{C} \) se lo spazio vettoriale è complesso).
La valutazione non è altro che l'immagine della funzione \(\displaystyle \alpha \) di \(V^{\ast}\) nell'elemento \(\displaystyle \mathbf{v} \) di \(\displaystyle V \). Insomma \(\displaystyle \langle\alpha, \mathbf{v}\rangle = \alpha(\mathbf{v}) \) dove a destra ha il significato normale. Viene segnato con \(\displaystyle \langle\alpha, \mathbf{v}\rangle \) per le similitudini con il prodotto scalare.
In sostanza \(\displaystyle (\alpha + \beta)(\mathbf{v}) = \alpha(\mathbf{v}) + \beta(\mathbf{v}) \), \(\displaystyle \alpha(\mathbf{v} + \mathbf{w}) = \alpha(\mathbf{v}) + \alpha(\mathbf{w}) \) e \(\displaystyle \lambda \alpha(\mathbf{v}) = \alpha(\lambda\mathbf{v}) \). Le ultime due per la linearità della funzione, la prima per la definizione di somma di funzioni.
Nota inoltre che in dimensione finita si ha che \(\displaystyle (V^{\ast})^{\ast} = V \) e che quindi funzioni ed elementi si confondono molto.
Relativamente all'ultima parte viene usata la notazione di Einstein che io detesto. In sostanza quando gli indici si ripetono sopra e sotto si sottintende una sommatoria. Detto questo il tuo manuale è piuttosto scarso nello spiegare la notazione. In sostanza \(\displaystyle \mathcal{B} = \{ \mathbf{e}_{i} \} \) è una base di \(\displaystyle V \), \(\displaystyle \mathscr{B} = \{ \varepsilon_{i} \} \) è la base di \(\displaystyle V^{\ast} \) associata/duale a \(\displaystyle \mathcal{B} = \{ \mathbf{e}^{i} \} \) ovvero tale che \(\displaystyle \langle\varepsilon^i, \mathbf{e}_j\rangle = \varepsilon^i(\mathbf{e}_j) = \delta_j^i \) (il delta di Kronecker http://it.wikipedia.org/wiki/Delta_di_Kronecker).
Siccome quelle due sono delle basi si ha che \(\displaystyle \alpha = \sum_{i=1}^n \alpha_i\varepsilon^i \) e \(\displaystyle \mathbf{v} = \sum_{j=1}^n v^j\mathbf{e}_j \) (univocamente). Pertanto, per la bilinearità della valutazione, si ha che \(\displaystyle \langle\alpha,\mathbf{v}\rangle = \langle \sum_{i=1}^n \alpha_i\varepsilon^i, \sum_{j=1}^n v^j\mathbf{e}_j\rangle = \sum_{i=1}^n\sum_{j=1}^n\alpha_i v^j\langle\varepsilon^i, \mathbf{e}_j\rangle = \sum_{i=1}^n\sum_{j=1}^n\alpha_i v^j \delta_j^i = \sum_{i=1}^n \alpha_i v^i \)
La valutazione non è altro che l'immagine della funzione \(\displaystyle \alpha \) di \(V^{\ast}\) nell'elemento \(\displaystyle \mathbf{v} \) di \(\displaystyle V \). Insomma \(\displaystyle \langle\alpha, \mathbf{v}\rangle = \alpha(\mathbf{v}) \) dove a destra ha il significato normale. Viene segnato con \(\displaystyle \langle\alpha, \mathbf{v}\rangle \) per le similitudini con il prodotto scalare.
In sostanza \(\displaystyle (\alpha + \beta)(\mathbf{v}) = \alpha(\mathbf{v}) + \beta(\mathbf{v}) \), \(\displaystyle \alpha(\mathbf{v} + \mathbf{w}) = \alpha(\mathbf{v}) + \alpha(\mathbf{w}) \) e \(\displaystyle \lambda \alpha(\mathbf{v}) = \alpha(\lambda\mathbf{v}) \). Le ultime due per la linearità della funzione, la prima per la definizione di somma di funzioni.
Nota inoltre che in dimensione finita si ha che \(\displaystyle (V^{\ast})^{\ast} = V \) e che quindi funzioni ed elementi si confondono molto.
Relativamente all'ultima parte viene usata la notazione di Einstein che io detesto. In sostanza quando gli indici si ripetono sopra e sotto si sottintende una sommatoria. Detto questo il tuo manuale è piuttosto scarso nello spiegare la notazione. In sostanza \(\displaystyle \mathcal{B} = \{ \mathbf{e}_{i} \} \) è una base di \(\displaystyle V \), \(\displaystyle \mathscr{B} = \{ \varepsilon_{i} \} \) è la base di \(\displaystyle V^{\ast} \) associata/duale a \(\displaystyle \mathcal{B} = \{ \mathbf{e}^{i} \} \) ovvero tale che \(\displaystyle \langle\varepsilon^i, \mathbf{e}_j\rangle = \varepsilon^i(\mathbf{e}_j) = \delta_j^i \) (il delta di Kronecker http://it.wikipedia.org/wiki/Delta_di_Kronecker).
Siccome quelle due sono delle basi si ha che \(\displaystyle \alpha = \sum_{i=1}^n \alpha_i\varepsilon^i \) e \(\displaystyle \mathbf{v} = \sum_{j=1}^n v^j\mathbf{e}_j \) (univocamente). Pertanto, per la bilinearità della valutazione, si ha che \(\displaystyle \langle\alpha,\mathbf{v}\rangle = \langle \sum_{i=1}^n \alpha_i\varepsilon^i, \sum_{j=1}^n v^j\mathbf{e}_j\rangle = \sum_{i=1}^n\sum_{j=1}^n\alpha_i v^j\langle\varepsilon^i, \mathbf{e}_j\rangle = \sum_{i=1}^n\sum_{j=1}^n\alpha_i v^j \delta_j^i = \sum_{i=1}^n \alpha_i v^i \)
Ora è più chiaro. Grazie!
I covettori sono funzionali lineari?
Un endomorfismo è un tensore del secondo ordine? Di tipo $((2),(2))$?
La possibilità di esprimere i tensori come matrici vale solo per tensori del secondo ordine?
Perdona l'insistenza!
Un endomorfismo è un tensore del secondo ordine? Di tipo $((2),(2))$?
La possibilità di esprimere i tensori come matrici vale solo per tensori del secondo ordine?
Perdona l'insistenza!
