Definizione di rango di una matrice
\( \newcommand{\Im}{\operatorname{Im}} \)\( \newcommand{\Mat}{\operatorname{M}} \)\( \newcommand{\rk}{\operatorname{rk}} \)Ciao. Voglio definire il rango di una matrice \( A \) di \( m \) righe per \( n \) colonne a coefficienti in un campo \( K \). Ma non voglio dire che \( \rk A \) è il massimo numero di colonne linearmente indipendenti di \( A \): voglio farlo come segue.
Definizione. Sia \( A \) una matrice \( m\times n \) a coefficienti in \( K \). Dati due spazi vettoriali \( V \) (di dimensione \( n \)) e \( W \) (di dimensione \( m \)) con rispettive basi \( \mathcal V \) e \( \mathcal W \), chiamo rango di \( A \) la dimensione dell'immagine dell'unica applicazione lineare \( \phi \) tale che \( A = \alpha_{\mathcal V\mathcal W}(\phi) \), dove \( \alpha_{\mathcal V\mathcal W} \) è l'isomorfismo (nelle basi scelte) che c'è tra l'hom-set degli spazi \( V \) e \( W \) e lo spazio \( \Mat_{m\times n}(K) \) delle matrici da cui \( A \) proviene. In altre parole, il rango di \( A \) è la dimensione dell'immagine (il rango) di un'applicazione lineare che le si possa associare.
Ovviamente devo vedere che questa definizione è sana. Devo cioè prendere due coppie \( V \), \( V^\prime \) e \( W \), \( W^\prime \), delle dimensioni giuste, due coppie di basi \( \mathcal V\), \( \mathcal V^\prime \) e \( \mathcal W \), \( \mathcal W^\prime\), e far vedere che le dimensioni \( \rk\phi \) e \( \rk\phi^\prime \) delle immagini delle applicazioni lineari \( \phi\colon V\to W \) e \( \phi^\prime\colon V^\prime\to W^\prime \) associate ad \( A \) coincidono.
Consideriamo i due isomorfismi \( c_{\mathcal W}^W\colon W\to K^m \) e \( c_{\mathcal W^\prime}^{W^\prime}\colon W^\prime\to K^m \) che mappano un vettore dello spazio ad apice nelle sue coordinate nella base a pedice. È cosa nota che
\[
\begin{align*}
\Im\phi &= \langle\phi(v_1),\dots,\phi(v_n)\rangle\\
\Im\phi^\prime &= \langle\phi^\prime(v_1^\prime),\dots,\phi^\prime(v_n^\prime)\rangle
\end{align*}
\] da cui ricaviamo
\[
\begin{align*}
{c_{\mathcal W}^W}_*\Im\phi &= {c_{\mathcal W}^W}_*\langle\phi(v_1),\dots,\phi(v_n)\rangle = \langle c_{\mathcal W}^W\circ\phi(v_1),\dots,c_{\mathcal W}^W\circ\phi(v_n)\rangle\\
{c_{\mathcal W^\prime}^{W^\prime}}_*\Im\phi^\prime &= {c_{\mathcal W^\prime}^{W^\prime}}_*\langle\phi^\prime(v_1^\prime),\dots,\phi^\prime(v_n^\prime)\rangle = \langle c_{\mathcal W^\prime}^{W^\prime}\circ\phi^\prime(v_1^\prime),\dots,c_{\mathcal W^\prime}^{W^\prime}\circ\phi^\prime(v_n^\prime)\rangle
\end{align*}
\]
Allora le controimmagini di quegli spazi sono isomorfe. \( \square \)
Come va? c:
Definizione. Sia \( A \) una matrice \( m\times n \) a coefficienti in \( K \). Dati due spazi vettoriali \( V \) (di dimensione \( n \)) e \( W \) (di dimensione \( m \)) con rispettive basi \( \mathcal V \) e \( \mathcal W \), chiamo rango di \( A \) la dimensione dell'immagine dell'unica applicazione lineare \( \phi \) tale che \( A = \alpha_{\mathcal V\mathcal W}(\phi) \), dove \( \alpha_{\mathcal V\mathcal W} \) è l'isomorfismo (nelle basi scelte) che c'è tra l'hom-set degli spazi \( V \) e \( W \) e lo spazio \( \Mat_{m\times n}(K) \) delle matrici da cui \( A \) proviene. In altre parole, il rango di \( A \) è la dimensione dell'immagine (il rango) di un'applicazione lineare che le si possa associare.
Ovviamente devo vedere che questa definizione è sana. Devo cioè prendere due coppie \( V \), \( V^\prime \) e \( W \), \( W^\prime \), delle dimensioni giuste, due coppie di basi \( \mathcal V\), \( \mathcal V^\prime \) e \( \mathcal W \), \( \mathcal W^\prime\), e far vedere che le dimensioni \( \rk\phi \) e \( \rk\phi^\prime \) delle immagini delle applicazioni lineari \( \phi\colon V\to W \) e \( \phi^\prime\colon V^\prime\to W^\prime \) associate ad \( A \) coincidono.
Consideriamo i due isomorfismi \( c_{\mathcal W}^W\colon W\to K^m \) e \( c_{\mathcal W^\prime}^{W^\prime}\colon W^\prime\to K^m \) che mappano un vettore dello spazio ad apice nelle sue coordinate nella base a pedice. È cosa nota che
\[
\begin{align*}
\Im\phi &= \langle\phi(v_1),\dots,\phi(v_n)\rangle\\
\Im\phi^\prime &= \langle\phi^\prime(v_1^\prime),\dots,\phi^\prime(v_n^\prime)\rangle
\end{align*}
\] da cui ricaviamo
\[
\begin{align*}
{c_{\mathcal W}^W}_*\Im\phi &= {c_{\mathcal W}^W}_*\langle\phi(v_1),\dots,\phi(v_n)\rangle = \langle c_{\mathcal W}^W\circ\phi(v_1),\dots,c_{\mathcal W}^W\circ\phi(v_n)\rangle\\
{c_{\mathcal W^\prime}^{W^\prime}}_*\Im\phi^\prime &= {c_{\mathcal W^\prime}^{W^\prime}}_*\langle\phi^\prime(v_1^\prime),\dots,\phi^\prime(v_n^\prime)\rangle = \langle c_{\mathcal W^\prime}^{W^\prime}\circ\phi^\prime(v_1^\prime),\dots,c_{\mathcal W^\prime}^{W^\prime}\circ\phi^\prime(v_n^\prime)\rangle
\end{align*}
\]
Allora le controimmagini di quegli spazi sono isomorfe. \( \square \)
Come va? c:
Risposte
C'è un motivo per cui stai rivedendo un sacco di argomenti di algebra lineare in maniera più strutturale del solito?
Mi è piaciuta molto la definizione di determinante che abbiamo data a lezione (si mostra che, per ogni spazio vettoriale \( V \) di dimensione finita \( n \), e per ogni \( 2\leqq k\leqq n \) intero, l'insieme \( A^k(V) \) delle forme \( k \)-lineari alternanti su \( V \) ha dimensione \( \binom nk \); allora, data una forma \( n \)-lineare \( D \) non nulla, ha senso definire una funzione \( \det \) come \( \det\phi:=\frac{D(\phi(v_1),\dots,\phi(v_n))}{D(v_1,\dots,v_n)} \) per ogni endomorfismo \( \phi \) di \( V \). Poi, per calcolare il determinante di una matrice di ordine \( n \) usando la definizione, il prof. prende "uno spazio" di dimensione \( V \) e una forma \( D \), e poi fa semplificazioni su quella posizione. Alla fine esce un numero!
). Quindi ogni volta che trovo cose come "si può definire il prodotto di matrici usando solo gli spazi vettoriali" o "\(\operatorname{rk} A\) è il rango dell'omomorfismo tra [...]" provo a verificare che siano buone definizioni.
Tutto ciò si potrebbe evitare semplicemente dicendo che "il determinante di \( A \) è il determinante dell'endomorfismo \( K^n\to K^n \) che in base canonica ha \( A \) per matrice associata". Trovo più elegante l'altro approccio sinceramente, e non mi pare 'sta gran fatica.

Tutto ciò si potrebbe evitare semplicemente dicendo che "il determinante di \( A \) è il determinante dell'endomorfismo \( K^n\to K^n \) che in base canonica ha \( A \) per matrice associata". Trovo più elegante l'altro approccio sinceramente, e non mi pare 'sta gran fatica.
Sì, ma non capisco proprio cosa vorresti dimostrare.
Definisci il rango di \(\phi\) come la dimensione della sua immagine, allora questa definizione non fa uso di una base; l'unica cosa che stai usando è che tutte le basi di uno spazio vettoriale hanno lo stesso numero di elementi.
Viceversa, devi dimostrare la "sanità" della definizione se dici che il rango di \(\phi\) èil numero di colonne linearmente indipendenti della sua matrice in una sua base, e quindi in ogni.
Ciò che devi dimostrare è quel "e quindi in ogni": se prendi una base e poi un'altra base, però, è cosa nota che \(A=P^{-1}BP\), dove \(A\) è la matrice di \(\phi\) in una base, e \(B\) la matrice nell'altra base, e \(P\) la matrice del cambio di base.
Ora, supponi che il numero di colonne linearmente indipendenti di \(A\) sia \(k\); questo numero non viene cambiato dalla moltiplicazione per \(P\), ossia il numero di colonne linearmente indipendenti di \(BP\) è ancora \(k\); e per lo stesso motivo, \(k\) è anche il numero di colonne lin indip di \(B=BPP^{-1}\).
Definisci il rango di \(\phi\) come la dimensione della sua immagine, allora questa definizione non fa uso di una base; l'unica cosa che stai usando è che tutte le basi di uno spazio vettoriale hanno lo stesso numero di elementi.
Viceversa, devi dimostrare la "sanità" della definizione se dici che il rango di \(\phi\) èil numero di colonne linearmente indipendenti della sua matrice in una sua base, e quindi in ogni.
Ciò che devi dimostrare è quel "e quindi in ogni": se prendi una base e poi un'altra base, però, è cosa nota che \(A=P^{-1}BP\), dove \(A\) è la matrice di \(\phi\) in una base, e \(B\) la matrice nell'altra base, e \(P\) la matrice del cambio di base.
Ora, supponi che il numero di colonne linearmente indipendenti di \(A\) sia \(k\); questo numero non viene cambiato dalla moltiplicazione per \(P\), ossia il numero di colonne linearmente indipendenti di \(BP\) è ancora \(k\); e per lo stesso motivo, \(k\) è anche il numero di colonne lin indip di \(B=BPP^{-1}\).
Mah... Non hai detto nulla di nuovo o diverso, lo dici solo in un modo che non è tanto facile da leggere. Io ho definito il rango di \(A\) come la dimensione dell'immagine di \(A-: k^n \to k^m\), per poi dimostrare che il rango è il numero massimo di righe o colonne linearmente indipendenti in \(A\). Questione di gusti. Alla fine, sì, va bene. (Pulisci un pò le notazioni, che sono pesanti.)
Sul determinante: se \(V\) ha dimensione \(n\), allora \(\bigwedge^nV\) ha dimensione \(\binom{n}{n}=1\); ma allora l'unica mappa lineare \(\bigwedge^n f : \bigwedge^nV\to \bigwedge^nV\) indotta da una applicazione lineare \(f : V \to V\) deve essere la moltiplicazione per un fissato scalare \(\delta(f)\); questo scalare è il "determinante" di \(f\).
"solaàl":Definiamo il rango di \( A\in\mathrm{M}_{m\times n}(K) \) come "il rango di un'applicazione lineare tra spazi di dimensione coerente con \( A \), avente \( A \) per matrice associata". Può accadere che due applicazioni lineari qualsiasi aventi \( A \) per matrice associata abbiano immagine di dimensione diversa? Credo di aver dimostrato "con le mani" che no, non può essere.
ma non capisco proprio cosa vorresti dimostrare.
@kaspar Sì, anche sul testo del prof. c'è quello che dici tu. Però sotto ad esempio scrive "In realtà, il rango di \(
A \) è il rango di una qualsiasi applicazione lineare la cui matrice associata sia \( A \)".
@solàal, Per pura ignoranza cosa sono \(\bigwedge^nV\) e \(\bigwedge^nf\)?
@marco, sì... E cos'è la "matrice associata a una lineare \(L : V \to W\)"? Ti ho già fatto vedere cos'è con qualche diagramma commutativo qualche occasione fa.
@marco, sì... E cos'è la "matrice associata a una lineare \(L : V \to W\)"? Ti ho già fatto vedere cos'è con qualche diagramma commutativo qualche occasione fa.

"kaspar":
@solàal, Per pura ignoranza cosa sono \(\bigwedge^nV\) e \(\bigwedge^nf\)?
Quello che sopra è denotato \(A^n(V)\), e la mappa lineare \(A^n(f) : A^n(V)\to A^n(V)\).

[ot]Però sono curioso: perché scrivere [tt]\bigwedge[/tt] al posto di [tt]A[/tt]?[/ot]
Boh, perché è la notazione che si usa di solito?
Prova(te) a dimostrare che se \(0\le k\le n=\dim V\) allora, scelta una base \(\mathcal E = \{e_1,\dots,e_n\}\) di \(V\) (di modo che \(f\) abbia matrice \(\alpha_{\mathcal E}(f)\) nella base \(\mathcal E\)), l'applicazione \(A^k(f) : A^k(V)\to A^k(V)\) indotta da un endomorfismo \(f : V \to V\) manda il vettore \(e_I = e_{i_1}\land \dots \land e_{i_k}\) della base \(A^k(\mathcal E)\) che resta indotta su \(A^k(V)\), e che lo rende isomorfo a \(K^\binom{n}{k}\), nel determinante della sottomatrice di \(\alpha_{\mathcal E}(f)\) che si ottiene prendendo le righe e le colonne di posti \(i_1,\dots, i_k\).
Prova(te) a dimostrare che se \(0\le k\le n=\dim V\) allora, scelta una base \(\mathcal E = \{e_1,\dots,e_n\}\) di \(V\) (di modo che \(f\) abbia matrice \(\alpha_{\mathcal E}(f)\) nella base \(\mathcal E\)), l'applicazione \(A^k(f) : A^k(V)\to A^k(V)\) indotta da un endomorfismo \(f : V \to V\) manda il vettore \(e_I = e_{i_1}\land \dots \land e_{i_k}\) della base \(A^k(\mathcal E)\) che resta indotta su \(A^k(V)\), e che lo rende isomorfo a \(K^\binom{n}{k}\), nel determinante della sottomatrice di \(\alpha_{\mathcal E}(f)\) che si ottiene prendendo le righe e le colonne di posti \(i_1,\dots, i_k\).