L'indipendenza lineare si "conserva"?
Dev'essere un dubbio sciocco ai limiti del triviale, ma non sono convinto/contento della risposta che mi sono dato e non riesco a prendere sonno, quindi tanto vale sottoporlo (probabilmente domattina mi sparerò). Esplico il mio dubbio nel caso di \(\displaystyle \mathbb{R}^3 \) senza che ne vada persa la sostanza. Considero i soliti vettori della base canonica \(\displaystyle e_{1}, \ e_{2}, \ e_{3} \) dopodiché scelgo \[\displaystyle v_{1}=\begin{pmatrix} \alpha_{1} \\ \alpha_{2} \\ \alpha_{3} \end{pmatrix}=\alpha_{1} e_{1} + \alpha_{2} e_{2} + \alpha_{3} e_{3} \] \[\displaystyle v_{2}=\begin{pmatrix} \beta_{1} \\ \beta_{2} \\ \beta_{3} \end{pmatrix}=\beta_{1} e_{1} + \beta_{2} e_{2} + \beta_{3} e_{3} \] \[\displaystyle v_{3}=\begin{pmatrix} \gamma_{1} \\ \gamma_{2} \\ \gamma_{3} \end{pmatrix}=\gamma_{1} e_{1} + \gamma_{2} e_{2} + \gamma_{3} e_{3} \] in modo tale che siano una base di \(\displaystyle \mathbb{R}^3 \). Prendo ora \[\displaystyle w_{1}=\begin{pmatrix} \delta_{1} \\ \delta_{2} \\ \delta_{3} \end{pmatrix}=\delta_{1} v_{1} + \delta_{2} v_{2} + \delta_{3} v_{3} \] \[\displaystyle w_{2}=\begin{pmatrix} \epsilon_{1} \\ \epsilon_{2} \\ \epsilon_{3} \end{pmatrix}=\epsilon_{1} v_{1} + \epsilon_{2} v_{2} + \epsilon_{3} v_{3} \] \[\displaystyle w_{3}=\begin{pmatrix} \zeta_{1} \\ \zeta_{2} \\ \zeta_{3} \end{pmatrix}=\zeta_{1} v_{1} + \zeta_{2} v_{2} + \zeta_{3} v_{3} \] in modo che siano di nuovo una base di \(\displaystyle \mathbb{R}^3 \). Posso ancora dire che la matrice ( - spero di aver inserito i pedici correttamente) \[\displaystyle \begin{pmatrix} \delta_{1} \alpha_{1} + \delta_{2} \beta_{1} + \delta_{3} \gamma_{1} & \epsilon_{1} \alpha_{1} + \epsilon_{2} \beta_{1} + \epsilon_{3} \gamma_{1} & \zeta_{1} \alpha_{1} + \zeta_{2} \beta_{1} + \zeta_{3} \gamma_{1} \\ \delta_{1} \alpha_{2} + \delta_{2} \beta_{2} + \delta_{3} \gamma_{2} & \epsilon_{1} \alpha_{2} + \epsilon_{2} \beta_{2} + \epsilon_{3} \gamma_{2} & \zeta_{1} \alpha_{2} + \zeta_{2} \beta_{2} + \zeta_{3} \gamma_{2} \\ \delta_{1} \alpha_{3} + \delta_{2} \beta_{3} + \delta_{3} \gamma_{3} & \epsilon_{1} \alpha_{3} + \epsilon_{2} \beta_{3} + \epsilon_{3} \gamma_{3} & \zeta_{1} \alpha_{3} + \zeta_{2} \beta_{3} + \zeta_{3} \gamma_{3} \end{pmatrix} \] ha determinante non nullo, vero?
Risposte
Temo di non seguirti...
"Seneca":
Temo di non seguirti...
Faccio un esempio più concreto. I vettori \[\displaystyle v_{1}=\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}=e_{1} + e_{2} \] \[\displaystyle v_{2}=\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}=e_{1} + e_{3} \] \[\displaystyle v_{3}=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}=e_{1} - e_{2} \] sono una base di \(\displaystyle \mathbb{R}^3 \); e lo sono anche i vettori \[\displaystyle w_{1}=v_{1} + v_{2}=\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} \] \[\displaystyle w_{2}=v_{1} + v_{3}=\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \] \[\displaystyle w_{3}=v_{1} - v_{2}=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} \] scritti secondo la base \(\displaystyle \mathcal{V} \). Ora, se "traduco" \(\displaystyle \mathcal{W} \) nelle coordinate canoniche si ha \[\displaystyle w_{1} = v_{1} + v_{2} = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} + \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}= \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} \] \[\displaystyle w_{2} = v_{1} + v_{3} = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} + \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}= \begin{pmatrix} 2 \\ 0 \\ 0 \end{pmatrix} \] \[\displaystyle w_{3} = v_{1} - v_{2} = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} - \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}= \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} \] e quindi questi \(\displaystyle w_{i} \) sono indipendenti anche "nelle coordinate canoniche".
E' questa una proprietà generale?
"Delirium":
Posso ancora dire che la matrice ( - spero di aver inserito i pedici correttamente) \[\displaystyle \begin{pmatrix} \delta_{1} \alpha_{1} + \delta_{2} \beta_{1} + \delta_{3} \gamma_{1} & \epsilon_{1} \alpha_{1} + \epsilon_{2} \beta_{1} + \epsilon_{3} \gamma_{1} & \zeta_{1} \alpha_{1} + \zeta_{2} \beta_{1} + \zeta_{3} \gamma_{1} \\ \delta_{1} \alpha_{2} + \delta_{2} \beta_{2} + \delta_{3} \gamma_{2} & \epsilon_{1} \alpha_{2} + \epsilon_{2} \beta_{2} + \epsilon_{3} \gamma_{2} & \zeta_{1} \alpha_{2} + \zeta_{2} \beta_{2} + \zeta_{3} \gamma_{2} \\ \delta_{1} \alpha_{3} + \delta_{2} \beta_{3} + \delta_{3} \gamma_{3} & \epsilon_{1} \alpha_{3} + \epsilon_{2} \beta_{3} + \epsilon_{3} \gamma_{3} & \zeta_{1} \alpha_{3} + \zeta_{2} \beta_{3} + \zeta_{3} \gamma_{3} \end{pmatrix} \] ha determinante non nullo, vero?
Forse ho capito cosa vuoi dire (vista l'ora non ci metterei la mano sul fuoco). Questa matrice si ottiene moltiplicando due matrici di cambiamento di base, le quali hanno $\text{det} \ne 0$. Il teorema di Binet ti garantisce che anche la matrice prodotto risulta invertibile.
Giusto. Grazie, Seneca!