Matrici di passaggio
Buonasera a tutti!
Sono alle prese con un teorema:
Considerata l'applicazione identica $i:V->V$ dove $V$ è un $K$-spazio vettoriale, $A$ è una base di $V$ (dominio) e $B$ una base di $V$ (codominio), devo provare che le matrici di passaggio sono invertibili. Io ho proceduto così:
Sia $P_(A,B)$ la matrice di passaggio dalla base $A$ alla base $B$. Sicuramente $text{det}P_(A,B)!=0$ perchè i vettori della base $A$ sono ovviamente linearmente indipendenti e quindi sulle colonne della matrice si hanno le componenti di vettori linearmente indipendenti (rispetto alla base $B$).
E' giusto il ragionamento?
Poi non saprei come provare che ogni matrice con il determinante diverso da 0 può essere interpretata come una matrice di passaggio?
Avreste qualche idea?
Andrea
Sono alle prese con un teorema:
Considerata l'applicazione identica $i:V->V$ dove $V$ è un $K$-spazio vettoriale, $A$ è una base di $V$ (dominio) e $B$ una base di $V$ (codominio), devo provare che le matrici di passaggio sono invertibili. Io ho proceduto così:
Sia $P_(A,B)$ la matrice di passaggio dalla base $A$ alla base $B$. Sicuramente $text{det}P_(A,B)!=0$ perchè i vettori della base $A$ sono ovviamente linearmente indipendenti e quindi sulle colonne della matrice si hanno le componenti di vettori linearmente indipendenti (rispetto alla base $B$).
E' giusto il ragionamento?
Poi non saprei come provare che ogni matrice con il determinante diverso da 0 può essere interpretata come una matrice di passaggio?
Avreste qualche idea?
Andrea
Risposte
"Andrea90":
[...]
devo provare che le matrici di passaggio sono invertibili. Io ho proceduto così:
Sia $P_(A,B)$ la matrice di passaggio dalla base $A$ alla base $B$. Sicuramente $" det " P_(A,B)!=0$ perchè i vettori della base $A$ sono ovviamente linearmente indipendenti e quindi sulle colonne della matrice si hanno le componenti di vettori linearmente indipendenti (rispetto alla base $B$).
E' giusto il ragionamento?
Ciao!

Io direi di sì, l'ho visto a lezione e mi pare corretto. Ovviamente la condizione sul determinante è equivalente a quella sul rango: sicuramente, la matrice di cambiamento di base ha rango massimo, proprio perchè i vettori (in riga o in colonna) sono l.i. (per forza, costituiscono una base!). Quindi la matrice è invertibile.
Poi non saprei come provare che ogni matrice con il determinante diverso da 0 può essere interpretata come una matrice di passaggio?
Avreste qualche idea?
Qui non so che dire... di brutto risponderei che ogni matrice quadrata di ordine $n$ con determinante non nullo è matrice di passaggio dalla base canonica di $RR^n$ alla base i cui elementi sono le colonne della matrice stessa... ma non ti fidare troppo, ti conviene aspettare un parere più esperto

Grazie per la risposta tempestiva!
Riguardo la prima questione, ho un dubbio: quando si parla di matrice di passaggio ci si riferisce sempre all'applicazione identica? O il discorso vale in generale? In ogni caso il teorema dimostrato continua a valere?
Riguardo la seconda questione, il libro di testo propone di seguire la tua traccia (che evidentemente è giusta!). Però ho delle perplessità: come facciamo a dire che la base i cui elementi sono le colonne della matrice è proprio una base?!
Scusa per le troppe domande ma vorrei avere chiaro un po' tutto il ragionamento!
Riguardo la prima questione, ho un dubbio: quando si parla di matrice di passaggio ci si riferisce sempre all'applicazione identica? O il discorso vale in generale? In ogni caso il teorema dimostrato continua a valere?
Riguardo la seconda questione, il libro di testo propone di seguire la tua traccia (che evidentemente è giusta!). Però ho delle perplessità: come facciamo a dire che la base i cui elementi sono le colonne della matrice è proprio una base?!
Scusa per le troppe domande ma vorrei avere chiaro un po' tutto il ragionamento!
@Andrea: Questa è una cosa che mi fa sempre confondere, e quindi la devo riscrivere volta per volta. Prendiamo uno spazio vettoriale $V$ e siano $e=(e_1...e_n), b=(b_1...b_n)$ due basi. Ogni vettore $b_j$ si può esprimere come combinazione lineare dei vettori $e_i$:
$b_j=sum_{i}m_{i,j}e_i$.
Questo definisce una matrice $m=(m_{i, j})$. Dimostra che $m$ è:
1) la matrice associata, rispetto alla base $e$ in partenza e in arrivo, all'endomorfismo $f$ definito da
$f(x_1e_1+...x_n e_n)=x_1b_1+...+x_nb_n$ (ovvero $f: e_i \mapsto b_i$);
2) la matrice di cambiamento di base dalla base $b$ in partenza alla base $e$ in arrivo.
Nota come cambia la scelta delle basi a seconda che la matrice sia considerata come endomorfismo o come cambiamento di base. Cerca di non imbrogliarti, come capita puntualmente a me.
Con queste informazioni puoi risolvere completamente l'esercizio.
Ah e lascia stare il determinante. Per mostrare che la matrice è invertibile è più semplice e chiaro esibire l'inversa.
$b_j=sum_{i}m_{i,j}e_i$.
Questo definisce una matrice $m=(m_{i, j})$. Dimostra che $m$ è:
1) la matrice associata, rispetto alla base $e$ in partenza e in arrivo, all'endomorfismo $f$ definito da
$f(x_1e_1+...x_n e_n)=x_1b_1+...+x_nb_n$ (ovvero $f: e_i \mapsto b_i$);
2) la matrice di cambiamento di base dalla base $b$ in partenza alla base $e$ in arrivo.
Nota come cambia la scelta delle basi a seconda che la matrice sia considerata come endomorfismo o come cambiamento di base. Cerca di non imbrogliarti, come capita puntualmente a me.

Ah e lascia stare il determinante. Per mostrare che la matrice è invertibile è più semplice e chiaro esibire l'inversa.
Per dissonance. Il tuo suggerimento era rivolto al primo esercizio, giusto?
Si, si, il discorso sul determinante era per il primo esercizio.
Ma anche sul secondo il suggerimento ti è utile (credo). Esso mostra infatti come ogni matrice associata ad un isomorfismo sia anche una matrice di cambiamento di base e viceversa: ora una matrice con determinante non nullo si può facilmente associare ad un isomorfismo e da lì risalire a due basi eccetera eccetera. (E' la stessa cosa che dice Paolo).
Ma anche sul secondo il suggerimento ti è utile (credo). Esso mostra infatti come ogni matrice associata ad un isomorfismo sia anche una matrice di cambiamento di base e viceversa: ora una matrice con determinante non nullo si può facilmente associare ad un isomorfismo e da lì risalire a due basi eccetera eccetera. (E' la stessa cosa che dice Paolo).
"dissonance":
Si, si, il discorso sul determinante era per il primo esercizio.
Ma anche sul secondo ti è utile (credo). Questo suggerimento mostra come ogni matrice associata ad un isomorfismo sia anche una matrice di cambiamento di base e viceversa: ora una matrice con determinante non nullo si può facilmente associare ad un isomorfismo e da lì risalire a due basi eccetera eccetera. (E' la stessa cosa che dice Paolo).
Sì, scusate se l'ho detta male, ma ho solo visto il cambiamento di base in spazi vettoriali, senza ancora fare cenno alle applicazioni lineari.

Ma seguendo l'idea della base canonica di $RR^n$ o in generale di $K^n$ come posso provare il secondo teorema? Così mi rifaccio al suggerimento del testo...
Ma purtroppo è proprio l'argomento che sembra fatto apposta per confondere. Ad esempio, ora che rileggo bene il post di Paolo, mi accorgo che le basi sono invertite: una matrice non singolare è la matrice di passaggio dalla base di $RR^n$ costituita dalle colonne alla base canonica.
Invece, se la vedi come endomorfismo, è la matrice associata rispetto alla base canonica all'endomorfismo che mappa la base canonica nella base delle colonne. Tutto il contrario.
Purtroppo ragazzi è un casino. Fateci l'abitudine. Io mi trovo bene a fare quel discorso di sopra: prendi due basi, allora si definisce una matrice con i combinatori lineari di una rispetto all'altra. Questa è associata ad un endomorfismo e ad una matrice di cambiamento di base, e l'ordine delle due basi è invertito: allora se capisco che è associata ad un certo endomorfismo, sarà il cambiamento di base inverso.
Invece, se la vedi come endomorfismo, è la matrice associata rispetto alla base canonica all'endomorfismo che mappa la base canonica nella base delle colonne. Tutto il contrario.
Purtroppo ragazzi è un casino. Fateci l'abitudine. Io mi trovo bene a fare quel discorso di sopra: prendi due basi, allora si definisce una matrice con i combinatori lineari di una rispetto all'altra. Questa è associata ad un endomorfismo e ad una matrice di cambiamento di base, e l'ordine delle due basi è invertito: allora se capisco che è associata ad un certo endomorfismo, sarà il cambiamento di base inverso.
"dissonance":
[...] ora che rileggo bene il post di Paolo, mi accorgo che le basi sono invertite: una matrice non singolare è la matrice di passaggio dalla base di $RR^n$ costituita dalle colonne alla base canonica.
Sì esatto. Ma il teorema dimostrato in questo modo non perde di generalità? O forse mi sto perdendo qualcosa! Se hai capito il ragionamento di Paolo potresti formalizzarmelo?! Così ci medito un po'...
Beh magari risolvo io l'esercizio, ho paura di aver fatto confusione con il mio post precedente. Nel seguito uso una convenzione di scrittura dovuta ad Einstein: se in un monomio compare lo stesso indice in alto e in basso, si intende che quello è l'indice di una sommatoria, e che il simbolo di sommatoria è stato omesso. Esempio:
[tex]x^i \bold{e_i}=\sum_{i}x^i \bold{e_i}[/tex]
[tex]y^jx^i\bold{e_j}=x^i\sum_{j}y^j\bold{e_j}[/tex]
eccetera.
Con questa notazione conviene scrivere le entrate delle matrici con l'indice di riga in alto e l'indice di colonna in basso. Così facendo abbiamo che il prodotto matrice*vettore colonna
[tex]\begin {bmatrix} m^1_1 & \ldots & m^1_n \\ \ldots & \ldots & \ldots \\ m^n_1 & \ldots & m^n_n \end{bmatrix}\begin{bmatrix}x^1 \\ \vdots \\ x^n \end{bmatrix}=\begin{bmatrix} y^1 \\ \vdots \\ y^n \end{bmatrix}[/tex]
si può scrivere mediante le equazioni
[tex]y^i=m^i_jx^j[/tex].
Partiamo dal primo esercizio. Cambio un po' le notazioni per coerenza con il mio post precedente.
Sia [tex]V[/tex] uno spazio vettoriale e siano [tex]e=(\bold{e}_1 \ldots \bold{e}_n),\ b=(\bold{b}_1 \ldots \bold{b}_n)[/tex] due basi. Sia inoltre [tex]m=(m^i_j)_{1\le i, j\le n}[/tex] la matrice di cambiamento di coordinate dalla base [tex]b[/tex] alla base [tex]e[/tex], ovvero
[tex]x^j\bold{b}_j=y^i\bold{e}_i \Rightarrow y^i=m^i_jx^j[/tex].
Vogliamo dimostrare che questa matrice è invertibile. Allo scopo, consideriamo la matrice [tex]p=(p^i_j)_{1 \le i, j \le n}[/tex] di passaggio dalla base [tex]e[/tex] alla base [tex]b[/tex], ovvero
[tex]x^j\bold{b}_j=y^i\bold{e}_i \Rightarrow x^j=p^j_ky^k[/tex].
Sostituendo [tex]x^J[/tex] nella prima equazione si ottiene
[tex]y^i=(m^i_jp^j_k)y^k[/tex]. Osserviamo che [tex](m^i_jp^j_k)[/tex] è proprio il prodotto dell'[tex]i[/tex]-esima riga di [tex]m[/tex] e della [tex]k[/tex]-esima colonna di [tex]p[/tex]. Abbiamo quindi che, per ogni [tex]n[/tex]-upla di scalari [tex]y_1 \ldots y_n[/tex],
[tex]\begin{bmatrix} y^1 \\ y^2 \\ \vdots \\ y^n \end{bmatrix} = m \cdot p \begin{bmatrix}y^1 \\ y^2 \\ \vdots \\ y^n \end{bmatrix}[/tex]
ovvero [tex]m\cdot p[/tex] è la matrice identica e [tex]m, p[/tex] sono una l'inversa dell'altra.
[tex]x^i \bold{e_i}=\sum_{i}x^i \bold{e_i}[/tex]
[tex]y^jx^i\bold{e_j}=x^i\sum_{j}y^j\bold{e_j}[/tex]
eccetera.
Con questa notazione conviene scrivere le entrate delle matrici con l'indice di riga in alto e l'indice di colonna in basso. Così facendo abbiamo che il prodotto matrice*vettore colonna
[tex]\begin {bmatrix} m^1_1 & \ldots & m^1_n \\ \ldots & \ldots & \ldots \\ m^n_1 & \ldots & m^n_n \end{bmatrix}\begin{bmatrix}x^1 \\ \vdots \\ x^n \end{bmatrix}=\begin{bmatrix} y^1 \\ \vdots \\ y^n \end{bmatrix}[/tex]
si può scrivere mediante le equazioni
[tex]y^i=m^i_jx^j[/tex].
Partiamo dal primo esercizio. Cambio un po' le notazioni per coerenza con il mio post precedente.
Sia [tex]V[/tex] uno spazio vettoriale e siano [tex]e=(\bold{e}_1 \ldots \bold{e}_n),\ b=(\bold{b}_1 \ldots \bold{b}_n)[/tex] due basi. Sia inoltre [tex]m=(m^i_j)_{1\le i, j\le n}[/tex] la matrice di cambiamento di coordinate dalla base [tex]b[/tex] alla base [tex]e[/tex], ovvero
[tex]x^j\bold{b}_j=y^i\bold{e}_i \Rightarrow y^i=m^i_jx^j[/tex].
Vogliamo dimostrare che questa matrice è invertibile. Allo scopo, consideriamo la matrice [tex]p=(p^i_j)_{1 \le i, j \le n}[/tex] di passaggio dalla base [tex]e[/tex] alla base [tex]b[/tex], ovvero
[tex]x^j\bold{b}_j=y^i\bold{e}_i \Rightarrow x^j=p^j_ky^k[/tex].
Sostituendo [tex]x^J[/tex] nella prima equazione si ottiene
[tex]y^i=(m^i_jp^j_k)y^k[/tex]. Osserviamo che [tex](m^i_jp^j_k)[/tex] è proprio il prodotto dell'[tex]i[/tex]-esima riga di [tex]m[/tex] e della [tex]k[/tex]-esima colonna di [tex]p[/tex]. Abbiamo quindi che, per ogni [tex]n[/tex]-upla di scalari [tex]y_1 \ldots y_n[/tex],
[tex]\begin{bmatrix} y^1 \\ y^2 \\ \vdots \\ y^n \end{bmatrix} = m \cdot p \begin{bmatrix}y^1 \\ y^2 \\ \vdots \\ y^n \end{bmatrix}[/tex]
ovvero [tex]m\cdot p[/tex] è la matrice identica e [tex]m, p[/tex] sono una l'inversa dell'altra.
Ok per il primo esercizio! Ti ringrazio! Per il secondo invece? Come posso dimostrarlo seguendo il suggerimento di $RR^n$ e della base canonica?
Un attimo, lasciami il tempo di scriverlo!

ahahah ok! Non l'avevo capito!!!
Secondo esercizio:
Sia [tex]m=(m^i_j)_{1 \le i,j\le n}[/tex] una matrice non singolare. Chiamiamo [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] i vettori della base canonica di [tex]\mathbb{K}^n[/tex] e [tex]\bold{b}_1 \ldots \bold{b}_n[/tex] le colonne di [tex]m[/tex]. Per ipotesi anche questi ultimi vettori formano una base di [tex]\mathbb{K}^n[/tex]. Abbiamo una equazione ovvia:
[tex]m^i_j\bold{e}_i=\bold{b}_j[/tex];
ATTENZIONE: Questo non è un prodotto righe per colonne. Qui c'è scritto che la combinazione lineare dei vettori [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] a coefficienti [tex]m^1_j \ldots m^n_j[/tex] è uguale a [tex]\bold{b}_j[/tex]. Volendo lo potresti scrivere in forma matriciale, mettendo in una riga i vettori [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] e "moltiplicandola" a sinistra per la matrice [tex]m[/tex]. Così si fa ad esempio sulle dispense di Cailotto.
Torniamo a noi. Consideriamo un vettore di [tex]\mathbb{K}^n[/tex]: [tex]\bold{x}=x^i\bold{e}_i=y^j\bold{b}_j[/tex]. Inserendo la precedente equazione otteniamo
[tex]x^i\bold{e}_i=y^jm^i_j\bold{e}_i[/tex].
e quindi l'uguaglianza dei coefficienti
[tex]x^i=m^i_jy^j[/tex];
che in notazione matriciale diventa
[tex]\begin{bmatrix} x^1 \\ \vdots \\ x^n \end{bmatrix} = \begin{bmatrix} m^i_j \end{bmatrix} \begin{bmatrix} y^1 \\ \vdots \\ y^n \end{bmatrix}[/tex].
Ovvero la matrice [tex]m[/tex] se applicata alle coordinate di un vettore relativamente alla base [tex]b[/tex] le trasforma nelle coordinate dello stesso relativamente alla base [tex]e[/tex].
Sia [tex]m=(m^i_j)_{1 \le i,j\le n}[/tex] una matrice non singolare. Chiamiamo [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] i vettori della base canonica di [tex]\mathbb{K}^n[/tex] e [tex]\bold{b}_1 \ldots \bold{b}_n[/tex] le colonne di [tex]m[/tex]. Per ipotesi anche questi ultimi vettori formano una base di [tex]\mathbb{K}^n[/tex]. Abbiamo una equazione ovvia:
[tex]m^i_j\bold{e}_i=\bold{b}_j[/tex];
ATTENZIONE: Questo non è un prodotto righe per colonne. Qui c'è scritto che la combinazione lineare dei vettori [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] a coefficienti [tex]m^1_j \ldots m^n_j[/tex] è uguale a [tex]\bold{b}_j[/tex]. Volendo lo potresti scrivere in forma matriciale, mettendo in una riga i vettori [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] e "moltiplicandola" a sinistra per la matrice [tex]m[/tex]. Così si fa ad esempio sulle dispense di Cailotto.
Torniamo a noi. Consideriamo un vettore di [tex]\mathbb{K}^n[/tex]: [tex]\bold{x}=x^i\bold{e}_i=y^j\bold{b}_j[/tex]. Inserendo la precedente equazione otteniamo
[tex]x^i\bold{e}_i=y^jm^i_j\bold{e}_i[/tex].
e quindi l'uguaglianza dei coefficienti
[tex]x^i=m^i_jy^j[/tex];
che in notazione matriciale diventa
[tex]\begin{bmatrix} x^1 \\ \vdots \\ x^n \end{bmatrix} = \begin{bmatrix} m^i_j \end{bmatrix} \begin{bmatrix} y^1 \\ \vdots \\ y^n \end{bmatrix}[/tex].
Ovvero la matrice [tex]m[/tex] se applicata alle coordinate di un vettore relativamente alla base [tex]b[/tex] le trasforma nelle coordinate dello stesso relativamente alla base [tex]e[/tex].
Perdonami, ma ti chiedo se il secondo esercizio potrei risolverlo più semplicemente così:
Sia data una matrice quadrata di ordine $n$ il cui determinante è diverso da zero. Si considerino le colonne di tale matrice: si tratta di $n$-uple e quindi di vettori di $K^n$ linearmente indipendenti che fra l'altro generano $K^n$ dal momento che possono essere pensate come combinazione lineari dei vettori della base canonica (di $K^n$, si intende). Ne segue che tali $n$-uple costituiscono una base $B$ di $K^n$. Se adesso consideriamo le componenti di tali vettori rispetto alla base canonica di $K^n$ e le disponiamo su colonne, otteniamo la matrice di passaggio da $B$ alla base canonica. Pertanto la matrice assegnata è una matrice di passaggio.
Così mi sembra di seguire sia l'idea di Paolo che quella del mio libro di testo. L'unico problema è che a norma di definizione dovrei considerare le componenti dei corrispondenti delle $n$-uple rispetto alla base canonica ed invece io ho ragionato solo sulle $n$-uple. Ne segue che questo ragionamento è valido solo nel caso in cui l'applicazione lineare è l'identità. O mi sbaglio? [La stanchezza è notevole!]
Sia data una matrice quadrata di ordine $n$ il cui determinante è diverso da zero. Si considerino le colonne di tale matrice: si tratta di $n$-uple e quindi di vettori di $K^n$ linearmente indipendenti che fra l'altro generano $K^n$ dal momento che possono essere pensate come combinazione lineari dei vettori della base canonica (di $K^n$, si intende). Ne segue che tali $n$-uple costituiscono una base $B$ di $K^n$. Se adesso consideriamo le componenti di tali vettori rispetto alla base canonica di $K^n$ e le disponiamo su colonne, otteniamo la matrice di passaggio da $B$ alla base canonica. Pertanto la matrice assegnata è una matrice di passaggio.
Così mi sembra di seguire sia l'idea di Paolo che quella del mio libro di testo. L'unico problema è che a norma di definizione dovrei considerare le componenti dei corrispondenti delle $n$-uple rispetto alla base canonica ed invece io ho ragionato solo sulle $n$-uple. Ne segue che questo ragionamento è valido solo nel caso in cui l'applicazione lineare è l'identità. O mi sbaglio? [La stanchezza è notevole!]
Allora, la cosa è semplice. L'idea di Paolo e il mio post precedente sono la stessa cosa, solo che io ho usato un formalismo forse a te nuovo per mettere tutto nero su bianco.
Se prendi una matrice non singolare, le sue colonne sono una base di $K^n$ e la matrice stessa è la matrice di passaggio da questa nuova base alla base canonica. Come dimostrarlo formalmente?
Se vogliamo fare le cose per benino con tutte le formule a posto, usare la notazione di Einstein mi pare la mossa migliore.
Oppure, come dici tu, ci possiamo ricordare che una matrice di passaggio ha sulle colonne le coordinate dei vettori della base di partenza rispetto alla base di arrivo: quindi, visto che rispetto alla base canonica le coordinate di una $n$-upla sono le stesse componenti ([size=75]questo punto Sergio lo evidenzia molto bene nel suo Algebra lineare for dummies[/size]), la matrice data è quella di passaggio dalla base delle colonne alla base canonica. Va bene anche così.
Ma quello che proprio non capisco cosa c'entri è la tua chiusa finale.
Se prendi una matrice non singolare, le sue colonne sono una base di $K^n$ e la matrice stessa è la matrice di passaggio da questa nuova base alla base canonica. Come dimostrarlo formalmente?
Se vogliamo fare le cose per benino con tutte le formule a posto, usare la notazione di Einstein mi pare la mossa migliore.
Oppure, come dici tu, ci possiamo ricordare che una matrice di passaggio ha sulle colonne le coordinate dei vettori della base di partenza rispetto alla base di arrivo: quindi, visto che rispetto alla base canonica le coordinate di una $n$-upla sono le stesse componenti ([size=75]questo punto Sergio lo evidenzia molto bene nel suo Algebra lineare for dummies[/size]), la matrice data è quella di passaggio dalla base delle colonne alla base canonica. Va bene anche così.
Ma quello che proprio non capisco cosa c'entri è la tua chiusa finale.
Ne segue che questo ragionamento è valido solo nel caso in cui l'applicazione lineare è l'identità.Quale applicazione lineare? Qui stiamo dimostrando che ogni matrice non singolare è una matrice di passaggio. Non ci sono applicazioni lineari in gioco.
Ok perfetto! Ho riordinato le idee. In ogni caso ho provato correttamente che la base delle colonne è realmente una base? [Vedere il mio post precedente]
Ho riletto: no, purtroppo da come ti sei espresso non si capisce perché le colonne di una matrice non singolare formino una base di $K^n$.
E' però una cosa tanto semplice che io l'avevo data per scontata: una matrice è non singolare se e solo se le proprie colonne sono l.i. (e questo credo tu lo sappia dimostrare, vero?). Quindi le colonne della matrice data sono l.i.; ora la dimensione di $K^n$ è $n$ (e anche questo, lo sai dimostrare), le colonne della matrice sono $n$, quindi esse formano una base. Fine.
E' però una cosa tanto semplice che io l'avevo data per scontata: una matrice è non singolare se e solo se le proprie colonne sono l.i. (e questo credo tu lo sappia dimostrare, vero?). Quindi le colonne della matrice data sono l.i.; ora la dimensione di $K^n$ è $n$ (e anche questo, lo sai dimostrare), le colonne della matrice sono $n$, quindi esse formano una base. Fine.
"dissonance":
Ho riletto: no, purtroppo da come ti sei espresso non si capisce perché le colonne di una matrice non singolare formino una base di $K^n$.
E' però una cosa tanto semplice che io l'avevo data per scontata: una matrice è non singolare se e solo se le proprie colonne sono l.i. (e questo credo tu lo sappia dimostrare, vero?). Quindi le colonne della matrice data sono l.i.; ora la dimensione di $K^n$ è $n$ (e anche questo, lo sai dimostrare), le colonne della matrice sono $n$, quindi esse formano una base. Fine.
Esattamente; si vedano le osservazioni nel mio post a proposito dell'equivalenza fra le condizioni determinante non nullo $iff$ rango massimo. A questo punto, Andrea, devi solo ricordare la definizione di rango e sei a posto.
Ok tutto chiaro. Domani mattina riordinerò quanto fatto! Se ci dovessero essere problemi vi farò sapere!
Grazie di tutto!
Grazie di tutto!