Dimostrazione breve di un enunciato
Ciao a tutti
Non riesco a trovare un buon metodo per dimostrare il seguente enunciato:
"Sia A la matrice associata ad un'applicazione lineare $L: V -> W$ tra due spazi vettoriali di dimensione n, rispetto a basi qualsiasi. La matrice A risulta invertibile se, e solo se, L è un isomorfismo".
Quanto ho pensato io è:
Se L è un isomorfismo, L è un'applicazione iniettiva. Pertanto le immagini dei vettori della base formano una famiglia linearmente indipendente (base di W), e lo stesso faranno le coordinate rispetto ad una base B' di W. Essendo tali coordinate disposte lungo le colonne della matrice A, ed essendo linearmente indipendenti, implicano che il rango rkA=dim(W)=n, pertanto la matrice risulta invertibile.
Ma allora perché viene scritto che c'è la necessità che L sia un isomorfismo e non basta che sia solo iniettiva? A cosa mi serve la suriettività ed il fatto che sia un'applicazione lineare? Chiaramente sbaglio in qualche passaggio, se qualcuno mi aiuta ne sarei grato. Ciao

Non riesco a trovare un buon metodo per dimostrare il seguente enunciato:
"Sia A la matrice associata ad un'applicazione lineare $L: V -> W$ tra due spazi vettoriali di dimensione n, rispetto a basi qualsiasi. La matrice A risulta invertibile se, e solo se, L è un isomorfismo".
Quanto ho pensato io è:
Se L è un isomorfismo, L è un'applicazione iniettiva. Pertanto le immagini dei vettori della base formano una famiglia linearmente indipendente (base di W), e lo stesso faranno le coordinate rispetto ad una base B' di W. Essendo tali coordinate disposte lungo le colonne della matrice A, ed essendo linearmente indipendenti, implicano che il rango rkA=dim(W)=n, pertanto la matrice risulta invertibile.
Ma allora perché viene scritto che c'è la necessità che L sia un isomorfismo e non basta che sia solo iniettiva? A cosa mi serve la suriettività ed il fatto che sia un'applicazione lineare? Chiaramente sbaglio in qualche passaggio, se qualcuno mi aiuta ne sarei grato. Ciao

Risposte
È molto più banale.
Se \(\displaystyle \ell \colon V\to W \) è un isomorfismo allora la matrice \(\displaystyle L \) rispetto alle basi \(\displaystyle \mathcal{B}_V \) e \(\displaystyle \mathcal{B}_W \) è una matrice quadrata \(\displaystyle n\times n \). L'isomorfismo inverso \(\displaystyle \ell^{-1}\colon W \to V \) possiede una matrice \(\displaystyle S \) rispetto alle basi \(\displaystyle \mathcal{B}_V \) e \(\displaystyle \mathcal{B}_W \). Banalmente \(\displaystyle LS = SL = I \) perché \(\ell\circ \ell^{-1} =\mathrm{id}_{W}\) e \(\ell^{-1}\circ\ell = \mathrm{id}_V \) e l'applicazione identità ha come matrice associata ad ogni base la matrice identità. Insomma usi il legame tra prodotto matriciale e composizione di funzioni.
Per l'implicazione inversa costruisci la funzione inversa attraverso la matrice inversa e concludi usando lo stesso principio usato prima.
Se \(\displaystyle \ell \colon V\to W \) è un isomorfismo allora la matrice \(\displaystyle L \) rispetto alle basi \(\displaystyle \mathcal{B}_V \) e \(\displaystyle \mathcal{B}_W \) è una matrice quadrata \(\displaystyle n\times n \). L'isomorfismo inverso \(\displaystyle \ell^{-1}\colon W \to V \) possiede una matrice \(\displaystyle S \) rispetto alle basi \(\displaystyle \mathcal{B}_V \) e \(\displaystyle \mathcal{B}_W \). Banalmente \(\displaystyle LS = SL = I \) perché \(\ell\circ \ell^{-1} =\mathrm{id}_{W}\) e \(\ell^{-1}\circ\ell = \mathrm{id}_V \) e l'applicazione identità ha come matrice associata ad ogni base la matrice identità. Insomma usi il legame tra prodotto matriciale e composizione di funzioni.
Per l'implicazione inversa costruisci la funzione inversa attraverso la matrice inversa e concludi usando lo stesso principio usato prima.
Riusciresti a specificare meglio i passaggi e la dimostrazione della tesi? Grazie mille
Per fare le cose sul serio ho bisogno di avere una notazione comoda. Dato che non esiste un modo standard ne invento una sul momento. Spero sia comprensibile.
La notazione \(\displaystyle \{\mathbf{b}_k\}_{V}^n \) indica un insieme di \(\displaystyle n \) vettori ordinati di \(\displaystyle V \) linearmente indipendenti i cui elementi sono chiamati \(\displaystyle \mathbf{b}_k \). In particolare se \(\displaystyle n = \dim V \) avremo una base.
Segno con \(\displaystyle L(V,W) \) l'insieme delle applicazioni lineari tra \(\displaystyle V \) e \(\displaystyle W \) e con \(\displaystyle M(n, m) \) l'insieme delle matrici \(\displaystyle n\times m \).
Segno infine con \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j} \colon L(V,W)\to M(n, m) \) la mappa che associa ogni applicazione lineare alla matrice rispetto alle basi \(\displaystyle \{\mathbf{v}_i\}_{V}^n \) e \(\displaystyle \{\mathbf{w}_j\}_{W}^m \). Spero che la notazione sia chiara.
La dimostrazione segue dalle seguenti proposizioni (la cui dimostrazione è semplice ma richiede qualche calcolo):
Proposizione 1: La mappa \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j} \colon L(V,M)\to M(n, m) \) è un isomorfismo di spazi vettoriali.
Proposizione 2: Siano \(\displaystyle V \), \(\displaystyle W \) e \(\displaystyle U \) tre spazi vettoriali di dimensioni rispettivamente \(\displaystyle n \), \(\displaystyle m \) e \(\displaystyle r \) e siano \(\displaystyle \{\mathbf{v}_i\}_{V}^n \), \(\displaystyle \{\mathbf{w}_j\}_{W}^m \) e \(\displaystyle \{\mathbf{u}_k\}_{U}^r \). Allora per ogni coppia di applicazioni lineari \(\displaystyle L\colon V\to W \) e \(\displaystyle T\colon W\to U \) si ha che \(\displaystyle M_{\mathbf{v}_i \to \mathbf{u}_k}(T\circ L) = M_{\mathbf{w}_j \to \mathbf{u}_k}(T)\cdot M_{\mathbf{v}_i \to \mathbf{w}_j}(L) \) dove \(\displaystyle \cdot \) è il normale prodotto matriciale.
Dimostrazione tuo enunciato: Sia \(\displaystyle L\colon V\to W \). Se è invertibile esiste \(\displaystyle T \) tale che \(\displaystyle T\circ L = \mathrm{id}_V \) e \(\displaystyle L\circ T = \mathrm{id}_W \). Per la proposizione 2 si ha che \(\displaystyle M_{\mathbf{v}_i \to \mathbf{v}_i}(\mathrm{id}_V) = M_{\mathbf{w}_j \to \mathbf{v}_i}(T)\cdot M_{\mathbf{v}_i \to \mathbf{w}_j}(L)\). Ma \(\displaystyle M_{\mathbf{v}_i \to \mathbf{v}_i}(\mathrm{id}_V) = I \) la matrice identità. Usando anche la seconda condizione si vede che le matrici \(\displaystyle M_{\mathbf{w}_j \to \mathbf{v}_i}(T) \) e \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j}(L) \) sono l'inversa l'una dell'altra.
Se \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j}(L) \) si usa la proposizione 1 per trovare l'applicazione lineare corrispondente e si usa la 2 per dimostrare che è l'inversa anche come applicazione.
La notazione \(\displaystyle \{\mathbf{b}_k\}_{V}^n \) indica un insieme di \(\displaystyle n \) vettori ordinati di \(\displaystyle V \) linearmente indipendenti i cui elementi sono chiamati \(\displaystyle \mathbf{b}_k \). In particolare se \(\displaystyle n = \dim V \) avremo una base.
Segno con \(\displaystyle L(V,W) \) l'insieme delle applicazioni lineari tra \(\displaystyle V \) e \(\displaystyle W \) e con \(\displaystyle M(n, m) \) l'insieme delle matrici \(\displaystyle n\times m \).
Segno infine con \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j} \colon L(V,W)\to M(n, m) \) la mappa che associa ogni applicazione lineare alla matrice rispetto alle basi \(\displaystyle \{\mathbf{v}_i\}_{V}^n \) e \(\displaystyle \{\mathbf{w}_j\}_{W}^m \). Spero che la notazione sia chiara.
La dimostrazione segue dalle seguenti proposizioni (la cui dimostrazione è semplice ma richiede qualche calcolo):
Proposizione 1: La mappa \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j} \colon L(V,M)\to M(n, m) \) è un isomorfismo di spazi vettoriali.
Proposizione 2: Siano \(\displaystyle V \), \(\displaystyle W \) e \(\displaystyle U \) tre spazi vettoriali di dimensioni rispettivamente \(\displaystyle n \), \(\displaystyle m \) e \(\displaystyle r \) e siano \(\displaystyle \{\mathbf{v}_i\}_{V}^n \), \(\displaystyle \{\mathbf{w}_j\}_{W}^m \) e \(\displaystyle \{\mathbf{u}_k\}_{U}^r \). Allora per ogni coppia di applicazioni lineari \(\displaystyle L\colon V\to W \) e \(\displaystyle T\colon W\to U \) si ha che \(\displaystyle M_{\mathbf{v}_i \to \mathbf{u}_k}(T\circ L) = M_{\mathbf{w}_j \to \mathbf{u}_k}(T)\cdot M_{\mathbf{v}_i \to \mathbf{w}_j}(L) \) dove \(\displaystyle \cdot \) è il normale prodotto matriciale.
Dimostrazione tuo enunciato: Sia \(\displaystyle L\colon V\to W \). Se è invertibile esiste \(\displaystyle T \) tale che \(\displaystyle T\circ L = \mathrm{id}_V \) e \(\displaystyle L\circ T = \mathrm{id}_W \). Per la proposizione 2 si ha che \(\displaystyle M_{\mathbf{v}_i \to \mathbf{v}_i}(\mathrm{id}_V) = M_{\mathbf{w}_j \to \mathbf{v}_i}(T)\cdot M_{\mathbf{v}_i \to \mathbf{w}_j}(L)\). Ma \(\displaystyle M_{\mathbf{v}_i \to \mathbf{v}_i}(\mathrm{id}_V) = I \) la matrice identità. Usando anche la seconda condizione si vede che le matrici \(\displaystyle M_{\mathbf{w}_j \to \mathbf{v}_i}(T) \) e \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j}(L) \) sono l'inversa l'una dell'altra.
Se \(\displaystyle M_{\mathbf{v}_i \to \mathbf{w}_j}(L) \) si usa la proposizione 1 per trovare l'applicazione lineare corrispondente e si usa la 2 per dimostrare che è l'inversa anche come applicazione.