Aiuto con alcune definizioni di algebra lineare

AlexlovesUSA
Salve a tutti. Sto studiando una materia che si chiama Controlli automatici e, per chi non la conoscesse, contiene molte nozioni di algebra lineare. Purtroppo ho dato algebra lineare più di due anni fa e non ricordo molte cose per cui sto avendo qualche difficoltà.
I problemi sono questi:

1) Innanzitutto dice che, se consideriamo uno spazio vettoriale $C^n$ e una base $B_t={t_1,t_2,....t_n}$ di questo spazio, con tutti i vettori $t_i$ linearmente indipendenti, allora un vettore $x(t)$ si può esprimere come una sommatoria del prodotto tra le componenti del vettore rispetto alla base e i vettori della base $B_t$. Fino a quì ci siamo. Adesso si parla di trovare le componenti del vettore $x(t)$. Io ricordo che per trovare le componenti si fa in questo modo: ho, per esempio, il vettore $(2,1,4)$ e voglio trovare le componenti di questo vettore rispetto alla base canonica. Allora faccio semplicemente $(2,1,4)=x*(1,0,0) + y(0,1,0) + z(0,0,1)$. Risolvo e trovo le componenti x, y e z. Sul libro, invece, dice che per trovare le componenti del vettore conoscendo la base reciproca $B_t={r_(ti)}$, con i che va da 1 a n, della base data si fa in questo modo
$(r_(tj), t_i)=((r_(tj))^-)^T * t_i = \{(1 se i=j ),(0 se i != j ):}$. Infatti considerando $(r_(tj), \sum_{i=1}^n ((t_i) * x_i (t)))$ e considerando la relazione precendente, si ottiene che è uguale a $x_j (t)$ che sarebbe la componente j-esima del vettore $x(t)$. Che cosa è la base reciproca? Perchè tutto questo procedimento? Cosa rappresenta quella r di preciso?

(Il meno esponente della r sigifica coniugato)

2) Il paragrafo successivo dice che potremmo considerare la rappresentazione di un vettore come sommatoria delle componenti per i vettori della base anche in forma matriciale, ovvero $x(t)=T*X(t)$. Fino a quì ci siamo. Adesso dice che la matrice T è la matrice di trasformazione delle coordinate. Perchè? Non riesco a cogliere il significato di queste espressioni, o meglio non riesco a visualizzare graficamente la situazione. A che seve il cambio di coordinate? Cosa succede precisamente?

Grazie mille in anticipo :smt023

Risposte
vict85
Personalmente trovo che il libro sia scritto male e con troppa attenzione alle componenti... Comunque

Tu hai \(\displaystyle \mathbf{x} = \sum_{i=1}^n \alpha_i \mathbf{t}_i \). Ora quindi sia \(\displaystyle \mathbf{x}_{\mathcal{T}} = (\alpha_1, \alpha_2,\dotsc\!, \alpha_n)^T\) il “vettore” delle componenti di \(\displaystyle \mathbf{x}\) nella base \(\displaystyle \mathcal{T} \).

Ora se \(\displaystyle \mathcal{B} \) è la base canonica (o una qualsiasi altra base) allora vogliamo trovare \(\displaystyle \mathbf{x}_{\mathcal{B}}\) o in altre parole i valori \(\displaystyle \beta_i \) per cui \(\displaystyle \mathbf{x} = \sum_{i=1}^n \beta_i \mathbf{b}_i \).

Lo facciamo facendo notare che \(\displaystyle \mathbf{t}_j = \sum_{i=1}^n \varepsilon_{i,\,j} \mathbf{b}_i\) e che quindi \(\displaystyle \mathbf{x} = \sum_{i=1}^n\Biggl(\sum_{j=1}^n \alpha_j\varepsilon_{i,\,j}\Biggr) \mathbf{b}_i\). Si ricava pertanto \(\displaystyle \beta_i = \Biggl(\sum_{j=1}^n \alpha_j\varepsilon_{i,\,j}\Biggr) \).

I valori \(\displaystyle \varepsilon_{i,\,j} \) sono le componenti della matrice di cambiamento di base.

Questo vale in generale per ogni spazio vettoriale. Nel caso generico \(\displaystyle \mathbf{x}_{\mathcal{T}} \) e \(\displaystyle \mathbf{x}_{\mathcal{B}} \) possono essere visti come le proiezioni “canoniche” associate alle basi \(\displaystyle \mathcal{T} \) e \(\displaystyle \mathcal{B} \) del vettore \(\displaystyle \mathbf{x} \) in \(\displaystyle \mathbb{K}^n \) che mandano le basi considerati in quella canonica di \(\displaystyle \mathbb{K}^n \). Trovo che per certi versi l'impostazione del libro sia un po' approssimativa. Di fatto infatti una matrice di cambiamento di basi è un isomorfismo di \(\displaystyle \mathbb{K}^n \) che manda la proiezione relativa ad un vettore in quella relativa ad una un'altra base. A rigore quindi non è una vera e propria trasformazione dello spazio. Un po' come il fatto che due matrici simili possono essere visti come lo stesso omomorfismo relativo a due basi oppure come due omomorfismi diversi applicati alla stessa base.

AlexlovesUSA
Ti ringrazio per la risposta veramente accurata. Praticamente è tutta questione di cambiamento di base, quindi la matrice di trasformazione sarebbe la matrice del cambiamento di base, ovvero prima considero i vettori della prima base rispetto alla seconda base e poi il vettore espresso come combinazione lineare di questi ultimi.
Cosa accade se io voglio rimanere nella stessa base? Ovvero, io conosco un vettore e so che è definito rispetto ad una determinata base. Per trovare le componenti devo rimanere nella stessa base, o no? Come si imposta la cosa?

Per quanto riguarda la trasformazione, invece, come posso immaginarla graficamente? Ovvero, se ho un punto del piano cartesiano, quindi uno spazio vettoriale $R^2$, come posso immaginare la base associata al vettore che va dall'origine al punto? Effettuando una trasformazione, o cambiamento di base, cosa succede al punto?

vict85
Quello che intendevo dire è che il vettore sta fermo; cambia il modo in cui tu lo rappresenti.

Ora se \(\displaystyle t_1 = \begin{pmatrix}1\\ 1\\ 1\end{pmatrix} \), \(\displaystyle t_2 = \begin{pmatrix}0\\ 1\\ 1\end{pmatrix} \), \(\displaystyle t_3 = \begin{pmatrix}0\\ 0\\ 1\end{pmatrix} \) e \(\displaystyle \mathbf{x} = \alpha_1\begin{pmatrix}1\\ 1\\ 1\end{pmatrix} + \alpha_2\begin{pmatrix}0\\ 1\\ 1\end{pmatrix} + \alpha_3\begin{pmatrix}0\\ 0\\ 1\end{pmatrix} \) allora si ha che la sua rappresentazione rispetto alla base canonica è \(\displaystyle \mathbf{x} = \alpha_1\begin{pmatrix}1\\ 0\\ 0\end{pmatrix} + (\alpha_1 + \alpha_2)\begin{pmatrix}0\\ 1\\ 0\end{pmatrix} + (\alpha_1+\alpha_2+\alpha_3)\begin{pmatrix}0\\ 0\\ 1\end{pmatrix} \).

In entrambi i casi \(\displaystyle \mathbf{x} = \begin{pmatrix}\alpha_1\\ \alpha_1 + \alpha_2\\ \alpha_1+\alpha_2+\alpha_3\end{pmatrix}\).

E i coefficienti della somma li calcoli così:

\(\displaystyle \begin{pmatrix}x_1\\ x_2\\ x_3\end{pmatrix} = \begin{pmatrix}1 & 0 & 0\\ 1 & 1 & 0 \\ 1 & 1 & 1\end{pmatrix}\begin{pmatrix}\alpha_1\\ \alpha_2\\ \alpha_3\end{pmatrix} \)

Che è poi quello che penso cercasse di dirti lui.

AlexlovesUSA
Quindi la traformazione di coordinate è solo un modo per rappresentare il vettore in un'altra base? Perchè allora si chiama cambio di coordinate? Ci sono in internet alcune rappresentazioni grafiche nel piano cartesiano che dicono che a seconda del determinante della matrice trasformazione si ha una trasformazione nel piano.

vict85
"AlexlovesUSA":
Quindi la traformazione di coordinate è solo un modo per rappresentare il vettore in un'altra base? Perchè allora si chiama cambio di coordinate? Ci sono in internet alcune rappresentazioni grafiche nel piano cartesiano che dicono che a seconda del determinante della matrice trasformazione si ha una trasformazione nel piano.


Mi sa che ti sto confondendo.

Allora supponi di trovarti in un \(\displaystyle \mathbb{K} \)-spazio vettoriale \(\displaystyle V \) di dimensione \(\displaystyle n \). In questo spazio puoi trovare varie basi. Consideriamo le basi \(\displaystyle \mathcal{T} = \{\mathbf{t}_1,\mathbf{t}_2,\dotsc,\mathbf{t}_n\}\) e \(\displaystyle \mathcal{B} = \{\mathbf{b}_1,\mathbf{b}_2,\dotsc,\mathbf{b}_n\}\).

Siano \(\displaystyle \pi_{\mathcal{T}}\colon V\to \mathbb{K}^n \) e \(\displaystyle \pi_{\mathcal{B}}\colon V\to \mathbb{K}^n \) gli isomorfismi di spazi vettoriali definiti rispettivamente da \(\displaystyle \mathbf{t}_i\mapsto \mathbf{e}_i \) e \(\displaystyle \mathbf{b}_i\mapsto \mathbf{e}_i \) dove \(\displaystyle \{\mathbf{e}_1,\mathbf{e}_2,\dotsc,\mathbf{e}_n\} \) è la base canonica di \(\displaystyle \mathbb{K}^n \).

A questo punto si ha in genere \(\displaystyle \pi_{\mathcal{T}}\mathbf{x} \neq \pi_{\mathcal{B}}\mathbf{x} \). In altre parole \(\displaystyle \mathbf{x} \) è rappresentato in \(\displaystyle \mathbb{K}^n \) da vettori diversi a seconda della base scelta.

Per ogni due basi di \(\displaystyle V \) o \(\displaystyle \mathbb{K}^n \) esiste una trasformazione che manda una nell'altra. In particolare hai una trasformazione che manda \(\displaystyle \mathcal{T}\) in \(\displaystyle \mathcal{B}\) e una che manda \(\displaystyle \{\mathbf{e}_1,\mathbf{e}_2,\dotsc,\mathbf{e}_n\} = \{\pi_{\mathcal{T}}\mathbf{t}_1,\pi_{\mathcal{T}}\mathbf{t}_2,\dotsc,\pi_{\mathcal{T}}\mathbf{t}_n\}\) in \(\displaystyle \pi_{\mathcal{B}}\mathcal{T} = \{\pi_{\mathcal{B}}\mathbf{t}_1,\pi_{\mathcal{B}}\mathbf{t}_2,\dotsc,\pi_{\mathcal{B}}\mathbf{t}_n\}\).

Queste due trasformazioni sono associate ed entrambe sono vere e proprie trasformazioni dello spazio. D'altra parte c'é una differenza sostanziale per ciò che avviene dal punto di vista di \(\displaystyle \mathbf{x} \).

Sia \(\displaystyle g \colon V\to V \) la trasformazione che manda \(\displaystyle \mathcal{T}\) in \(\displaystyle \mathcal{B}\) allora risulta che \(\displaystyle \pi_{\mathcal{B}}g\mathbf{x} = \pi_{\mathcal{T}}\mathbf{x} \). Per vederlo sia \(\displaystyle \mathbf{x} = \sum_{i=1}^n \alpha_i \mathbf{t}_i = \sum_{i=1}^n \beta_i \mathbf{b}_i\). Allora \(\displaystyle \pi_{\mathcal{B}}g\mathbf{x} = \pi_{\mathcal{B}}\Bigl(\sum_{i=1}^n \alpha_i g\mathbf{t}_i\Bigr) = \pi_{\mathcal{B}}\Bigl(\sum_{i=1}^n \alpha_i \mathbf{b}_i\Bigr) = \sum_{i=1}^n \alpha_i \mathbf{e}_i = \pi_{\mathcal{T}}\mathbf{x}\).

Similmente si dimostra che \(\displaystyle \pi_{\mathcal{B}}\mathbf{x} = \pi_{\mathcal{T}}g^{-1}\mathbf{x} \). Si noti che in questo caso \(\displaystyle g\mathbf{x} \neq \mathbf{x} \) (casi particolari a parte).

Consideriamo invece la trasformazione \(\displaystyle M\colon \mathbb{K}^n\to \mathbb{K}^n \) che manda \(\displaystyle \{\mathbf{e}_1,\mathbf{e}_2,\dotsc,\mathbf{e}_n\} = \{\pi_{\mathcal{T}}\mathbf{t}_1,\pi_{\mathcal{T}}\mathbf{t}_2,\dotsc,\pi_{\mathcal{T}}\mathbf{t}_n\}\) in \(\displaystyle \pi_{\mathcal{B}}\mathcal{T} = \{\pi_{\mathcal{B}}\mathbf{t}_1,\pi_{\mathcal{B}}\mathbf{t}_2,\dotsc,\pi_{\mathcal{B}}\mathbf{t}_n\}\).

Si noti che, usando la notazione usata prima, risulta \(\displaystyle \pi_{\mathcal{B}}\mathbf{t}_j = \begin{pmatrix}\varepsilon_{1,\,j} \\ \varepsilon_{2,\,j}\\ \vdots \\ \varepsilon_{n,\,j}\end{pmatrix} \) e quindi \(\displaystyle M_{ij} = \varepsilon_{i,\,j} \) (sperando di non aver confuso righe e colonne :D).

Come è comprendibile dalla considerazioni fatte sopra risulta \(\displaystyle \pi_{\mathcal{B}}\mathbf{x} = M\pi_{\mathcal{T}}\mathbf{x} \).

L'associazione delle due trasformazioni risulta essere nel fatto che \(\displaystyle M = \pi_{\mathcal{T}}g^{-1}\pi_{\mathcal{T}}^{-1} \) (a meno di errori di calcolo in giro)

Non so se mi sono spiagato. Di fatto hai che è semplicemente è una trasformazione dell'immagine del vettore in \(\displaystyle \mathbb{K}^n \). Di fatto è solo un modo per rappresentare un vettore in un'altra base. Spesso, anche per ragioni pratiche, si confonde la proiezione con lo spazio vettoriale spesso e quindi ci si comporta come se un cambio di base trasformi lo spazio quando in realtà cambiano solo le componenti rispetto ad una base. Spero di essere stato chiaro.

AlexlovesUSA
Sei stato molto chiaro e ti ringrazio :smt023 Quindi significa che dato un vettore rappresentato in una certa base B posso sempre operare una trasformazione e rappresentarlo in un'altra base C. La matrice della trasformazione conterrà le componenti dei vettori della base B rispetto alla nuova base C. Se la matrice T della trasformazione è non singolare si può invertire e quindi si ha che $x(t)=T* \hat x(t)$ possimao trovare le componenti come $\hat x=T^-1 * x(t)$. Praticamente in controlli automatici si eseguonoq ueste trasformazioni per ottenere un sistema di equazioni più semplice da risolvere. Sta tutta quì la questione.
Per quanto riguarda la base reciproca, cosa è di preciso?

vict85
Io ho fatto una descrizione meno senza usare i tensori. D'altra parte il termine che usi viene da qui...
http://it.wikipedia.org/wiki/Covarianza ... un_vettore

Penso che con quello che ho scritto prima e integrando con Wiki tu possa comprendere il testo.

AlexlovesUSA
Mi dispiace, io studio ingegneria, non matematica, e il corso che abbiamo fatto di geometria e algebra lineare ha toccato quasi tutti i punti ma non in maniera molto approfondita, quindi non so proprio cosa siano i tensori o la covarianza nei vettori ecc..., quindi più semplice è la spiegazione, meglio è :-D .

La parte che noi abbiamo approfondito e trattato è quela che riguarda gli endomorfismi, ma non gli isomorfismi. So che un endomorfismo è una trasformazione lineare da uno spazio vettoriale in se stesso, ma non ricordo gli isomorfismi.

L'unica parte che non mi è ancora molto chiara è quella riguardante la base reciproca. Come è definita di preciso? Cosa si intende con base reciproca? Nel libro si parla di spazio vettoriale $C^n$, quindi complesso, quindi si considerano anche i coniugati per il prodotto scalare ecc... Penso che se mi chiarissi questa parte, sarebbe tutto chiaro :smt023

AlexlovesUSA
UP :)

AlexlovesUSA
Adesso, dopo aver letto attentamente alcuni articoli e le tue risposte, mi è tutto chiaro. Ho capito cosa intendevi dire. Praticamente per ogni spazio vettoriale ci sono molte basi oltre a quella canonica. Un isomorfismo è una trasformazione da una base di V ad un'altra base dello stesso. In genere se abbiamo un vettore definito rispetto alla base B e vogliamo rappresentarlo rispetto a un'altra base C, dopo aver applicato la trasformazione, otteniamo un vettore o meglio una sua rappresentazione diversa rispetto a prima. Quello che intendevi dire in una delle risposte è che date due basi T e B e una trasformazione da T nella base canonica e da B nella base canonica, in genere si avrà che la rappresentazione di x nella base canonica a partire da T sarò diversa da quella a partire da B, giusto?

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.