Matrice invertibile sse rango massimo
Salve, sto cercando di trovare una dimostrazione semplice dell'enunciato che non utilizzi concetti relativi alle applicazioni lineari, in modo da poterlo spiegare a studenti che nel programma del corso non studino tali argomenti.
Riporto l'enunciato completo per comodità:
Per la dimostrazione della prima parte ho pensato:
"$rArr$" se $A$ è invertibile allora $EE B in RR^(n\timesn)$ tale che $AB=I_{n}$
notiamo che $rk(AB)<=min{rk(A),rk(B)}$ e che $rk(AB)=rk(I)=n$, dunque $rk(A)=rk(B)=n$.
Per dimostrare la seconda parte non so bene come procedere, in questo caso partiamo dal fatto che $rk(A)=n$, ciò significa che le colonne/righe di $A$ sono lin. indipendenti. Penso che lo scopo sia costruire una matrice $B in RR^(n\timesn)$ tale che il prodotto $AB$ risulti uguale a $I_{n}$ (notiamo che anche le colonne/righe di $I_{n}$ sono lin. indipendenti, ma non so se ciò serva).
Dato che le colonne $e_{i}$ di $I$ hanno tutti elementi nulli escluso l'i-esimo che è $1$, per costruire $B$, si potrebbe ricorrere a questo modo:
$b_{11}*a_{11}+b_{21}*a_{12}+...+b_{n1}*a_{1n}=1$ (prodotto prima riga di A per prima colonna di B)
$b_{12}*a_{21}+b_{22}*a_{22}+...+b_{n2}*a_{2n}=1$ (prodotto seconda riga di A per seconda colonna di B)
...
$b_{1n}*a_{n1}+b_{2n}*a_{n2}+...+b_{n n}*a_{n n}=1$ (prodotto ultima riga di A per ultima colonna di B)
Mentre gli altri prodotti "riga i-esima di A per colonna j-esima di A", con $i!=j$, vanno posti uguali a $0$.
Però facendo ciò non sto usando il fatto che le colonne/righe di $A$ sono lin. indipendenti.
Come fare ? Magari c'è un altro modo più veloce
Riporto l'enunciato completo per comodità:
Una matrice quadrata $A$ di ordine $n$ è invertibile se e solo se $rk(A)=n$.
Per la dimostrazione della prima parte ho pensato:
"$rArr$" se $A$ è invertibile allora $EE B in RR^(n\timesn)$ tale che $AB=I_{n}$
notiamo che $rk(AB)<=min{rk(A),rk(B)}$ e che $rk(AB)=rk(I)=n$, dunque $rk(A)=rk(B)=n$.
Per dimostrare la seconda parte non so bene come procedere, in questo caso partiamo dal fatto che $rk(A)=n$, ciò significa che le colonne/righe di $A$ sono lin. indipendenti. Penso che lo scopo sia costruire una matrice $B in RR^(n\timesn)$ tale che il prodotto $AB$ risulti uguale a $I_{n}$ (notiamo che anche le colonne/righe di $I_{n}$ sono lin. indipendenti, ma non so se ciò serva).
Dato che le colonne $e_{i}$ di $I$ hanno tutti elementi nulli escluso l'i-esimo che è $1$, per costruire $B$, si potrebbe ricorrere a questo modo:
$b_{11}*a_{11}+b_{21}*a_{12}+...+b_{n1}*a_{1n}=1$ (prodotto prima riga di A per prima colonna di B)
$b_{12}*a_{21}+b_{22}*a_{22}+...+b_{n2}*a_{2n}=1$ (prodotto seconda riga di A per seconda colonna di B)
...
$b_{1n}*a_{n1}+b_{2n}*a_{n2}+...+b_{n n}*a_{n n}=1$ (prodotto ultima riga di A per ultima colonna di B)
Mentre gli altri prodotti "riga i-esima di A per colonna j-esima di A", con $i!=j$, vanno posti uguali a $0$.
Però facendo ciò non sto usando il fatto che le colonne/righe di $A$ sono lin. indipendenti.
Come fare ? Magari c'è un altro modo più veloce
Risposte
Allora per la prima.
$r(I)=r(A A^(-1))=r(A) => r(A)=n$
Per la seconda.
Nota che se una matrice quadrata ha rango massimo allora le sue colonne sono linearmente indipendenti e pertanto formano una base di $M_(n,1)(K)$
Siano $A_1...A_n$ tali colonne, allora;
Dunque per ognuno dei vettori colonna $I_j$,dove questo simbolo indica la $j$esima colonna della matrice identità, esistono scalari $b_(j,1)...b_(j,n) in K$ non tutti nulli tali che $sum_(k=1)^(n)b_(j,k)A_k=I_j, forall j=1,...,n$
Praticamente concludi mostrando che $A^(-1)$ è la matrice formata dai coefficienti $b_(j,k)$.
$r(I)=r(A A^(-1))=r(A) => r(A)=n$
Per la seconda.
Nota che se una matrice quadrata ha rango massimo allora le sue colonne sono linearmente indipendenti e pertanto formano una base di $M_(n,1)(K)$
Siano $A_1...A_n$ tali colonne, allora;
Dunque per ognuno dei vettori colonna $I_j$,dove questo simbolo indica la $j$esima colonna della matrice identità, esistono scalari $b_(j,1)...b_(j,n) in K$ non tutti nulli tali che $sum_(k=1)^(n)b_(j,k)A_k=I_j, forall j=1,...,n$
Praticamente concludi mostrando che $A^(-1)$ è la matrice formata dai coefficienti $b_(j,k)$.
Grazie per la rapida risposta, ma:
1. perché $rk(A A^(-1))=rk(A)$ ?
2a. mi sembra che negli elementi $b$ della sommatoria hai invertito $j$ e $k$, perché la tua scrittura indica il prodotto tra ciascuna colonna di A e gli elementi della j-esima riga di B invece che della j-esima colonna di B.
2b. hai menzionato il fatto che le colonne di A formano una base di quello spazio, ma ciò è necessario per procedere con il tuo ragionamento o poteva essere omesso dal discorso ?
1. perché $rk(A A^(-1))=rk(A)$ ?
2a. mi sembra che negli elementi $b$ della sommatoria hai invertito $j$ e $k$, perché la tua scrittura indica il prodotto tra ciascuna colonna di A e gli elementi della j-esima riga di B invece che della j-esima colonna di B.
2b. hai menzionato il fatto che le colonne di A formano una base di quello spazio, ma ciò è necessario per procedere con il tuo ragionamento o poteva essere omesso dal discorso ?
1. siano $A$ una matrice qualsiasi e $B$ una matrice invertibile e moltiplicabile a destra di $A$. Allora $r(AB)=r(A)$
Infatti $r(AB)leq min{r(A),r(B)}$ dunque in particolare $r(AB)leqr(A)$
Poi $r(A)=r((AB)B^(-1))leqr(AB)$ dunque $r(A)=r(AB)$
Lo stesso vale se $B$ è invertibile e moltiplicabile a destra.
2. Non ho scambiato nulla, ottengo praticamente queato.
${(b_(11)A_1+...+b_(1n)A_n=I_1),(...),(b_(n1)A_1+...+b_(n n)A_n=I_n):}$
Che è equivalente a $BA=Id$
2b. Si è necessaria perche se formano una base allora generano tutte le colonne di $M_(n,1)(K)$ e quindi anche le colonne di $Id$
Infatti $r(AB)leq min{r(A),r(B)}$ dunque in particolare $r(AB)leqr(A)$
Poi $r(A)=r((AB)B^(-1))leqr(AB)$ dunque $r(A)=r(AB)$
Lo stesso vale se $B$ è invertibile e moltiplicabile a destra.
2. Non ho scambiato nulla, ottengo praticamente queato.
${(b_(11)A_1+...+b_(1n)A_n=I_1),(...),(b_(n1)A_1+...+b_(n n)A_n=I_n):}$
Che è equivalente a $BA=Id$
2b. Si è necessaria perche se formano una base allora generano tutte le colonne di $M_(n,1)(K)$ e quindi anche le colonne di $Id$
1. ah ok grazie, comunque è corretta anche la mia dimostrazione giusto ?
2. ti ringrazio però avevo chiesto se era possibile una dimostrazione priva di concetti relativi ad applicazioni lineari
2. ti ringrazio però avevo chiesto se era possibile una dimostrazione priva di concetti relativi ad applicazioni lineari
1. Diciamo che non mi è chiaro come concludi. Ok $r(AB)=n$ ma per quello che ho capito hai fatto vedere solo che $nleq min{r(A),r(B)$ basta un ultimo passo e dire che sia $r(A)$ che $r(B)$ abbiano rango $leqn$ e hai finito.
2. Non ho usato le applicazioni lineari
2. Non ho usato le applicazioni lineari

1. si esatto, davo per scontato che $A$ e $B$ avessero rango $<= n$ essendo matrici di ordine $n$.
2. hai usato il concetto di base di uno spazio vettoriale, mi pare si introduca studiando le applicazioni lineari, ma forse mi sbaglio. Quindi per la seconda parte è quella che hai dato la dimostrazione più semplice?
2. hai usato il concetto di base di uno spazio vettoriale, mi pare si introduca studiando le applicazioni lineari, ma forse mi sbaglio. Quindi per la seconda parte è quella che hai dato la dimostrazione più semplice?
1. Allora siamo d'accordo 
2. No il concetto di base di uno spazio vettoriale non dipende assolutamente dalle applicazioni lineari. Qual è la tua definizione di uno spazio vettoriale?
È banale come dimostrazione, basta sapere il concetto di base.

2. No il concetto di base di uno spazio vettoriale non dipende assolutamente dalle applicazioni lineari. Qual è la tua definizione di uno spazio vettoriale?
È banale come dimostrazione, basta sapere il concetto di base.
$(V,+,*)$ è uno spazio vettoriale su un campo $K$ se l'insieme non vuoto $V$, munito delle operazioni di somma tra vettori e di prodotto scalare-vettore, è una struttura algebrica che gode di alcune proprietà, ad esempio $(V,+)$ è un gruppo abeliano.
Quindi uno spazio vettoriale è formato da infiniti vettori ed è individuabile dalla base, ossia un insieme finito di vettori lin. indip. che generano lo spazio vettoriale.
Quindi uno spazio vettoriale è formato da infiniti vettori ed è individuabile dalla base, ossia un insieme finito di vettori lin. indip. che generano lo spazio vettoriale.
Aspetta ci sono spazi vettoriali che non sono finitamente generati tipo $RR^(infty)$
Il tuo caso è quello di spazi 'finitamente generati' ovvero che sono generati da un numero finito di vettori.
Comunque a parte questo, come vedi non c'entrano nulla le applicazioni lineari.
Di fatto quello che si è visto nel precedente post è che $< A_1,...,A_n > =M_(n,1)(K)$
Il tuo caso è quello di spazi 'finitamente generati' ovvero che sono generati da un numero finito di vettori.
Comunque a parte questo, come vedi non c'entrano nulla le applicazioni lineari.
Di fatto quello che si è visto nel precedente post è che $< A_1,...,A_n > =M_(n,1)(K)$
Ah d'accordo grazie, ma con la scrittura $M_{n,1}(K)$ intendi le matrici di $n$ righe e $1$ colonna con elementi nel campo $K$ ? Se la risposta è si, perché le colonne di $A$ generano tale spazio e non ad es. lo spazio $M_{n,n}(K)$ ?
Si è quello.
Sai com'è definito il rango di un sistema di vettori?
Sai com'è definito il rango di un sistema di vettori?
Non so, unirei i vettori in una matrice così poi potrei applicare l'algoritmo di gauss e vedere quali dei vettori sono lin. indipendenti
Non esattamente.
Sia $V$ un $K$ spazio vettoriale di dimensione $n$ e sia $S={v_1,...,v_k}$ un sistema(un sottoinsieme) di vettori di $V$.
Si definisce 'rango' di $S$ il numero $r(S)=dim< v_1,...,v_k>$
Nel caso di una matrice $A in M_(m,n)(K)$.
Si definisce 'rango per colonne di $A$' il numero $r_c(A)= dim$.
Si definisce 'rango per righe di $A$' il numero $r_r(A)= dim $
Dove $A_j$ denota la $j-esima$ colonna e $A^k$ la $k-esima$ riga.
Ovviamente poi si mostra che in una matrice il rango per colonne e quello per righe coincidono.
Dato questo, se il rango di una matrice quadrata è massimo, significa che le sue colonne sono linearmente indipendenti.
Andandoci con i sistemi lineari.
Se hai un sistema $Ax=b$ con $A$ matrice quadrata.
Abbiamo un teorema molto utile in questo caso, quello di rouché-capelli.
Il quale dice che un sistema è compatibile se e solo se $r(A)=r(A|b)$ e ammette $infty^(n-r(A))$ soluzioni.
Nel caso in cui la matrice quadrata ha rango massimo, automaticamente il sistema è compatibile e ammette un'unica soluzione per il teorema di rouché-capelli.
Questo significa che il sistema $Ax=I_j$, con $I_j$ la $j-esima$ colonna della matrice identità, è sempre soddisfatto. Ovvero esiste un vettore colonne $x$ che soddisfa l'equazione matriciale.
Questo equivale al fatto che esistano $x_1,...,x_n inK$ tale che;
$b_(j1)A_1+...+b_(jn)A_n=I_j,forallj=1,...,n$
Questo significa che $((A_1,...,A_n))((b_(j1)),(...),(b_jn))=I_j$
E quindi che $AB=I_n$
Sia $V$ un $K$ spazio vettoriale di dimensione $n$ e sia $S={v_1,...,v_k}$ un sistema(un sottoinsieme) di vettori di $V$.
Si definisce 'rango' di $S$ il numero $r(S)=dim< v_1,...,v_k>$
Nel caso di una matrice $A in M_(m,n)(K)$.
Si definisce 'rango per colonne di $A$' il numero $r_c(A)= dim
Si definisce 'rango per righe di $A$' il numero $r_r(A)= dim $
Dove $A_j$ denota la $j-esima$ colonna e $A^k$ la $k-esima$ riga.
Ovviamente poi si mostra che in una matrice il rango per colonne e quello per righe coincidono.
Dato questo, se il rango di una matrice quadrata è massimo, significa che le sue colonne sono linearmente indipendenti.
Andandoci con i sistemi lineari.
Se hai un sistema $Ax=b$ con $A$ matrice quadrata.
Abbiamo un teorema molto utile in questo caso, quello di rouché-capelli.
Il quale dice che un sistema è compatibile se e solo se $r(A)=r(A|b)$ e ammette $infty^(n-r(A))$ soluzioni.
Nel caso in cui la matrice quadrata ha rango massimo, automaticamente il sistema è compatibile e ammette un'unica soluzione per il teorema di rouché-capelli.
Questo significa che il sistema $Ax=I_j$, con $I_j$ la $j-esima$ colonna della matrice identità, è sempre soddisfatto. Ovvero esiste un vettore colonne $x$ che soddisfa l'equazione matriciale.
Questo equivale al fatto che esistano $x_1,...,x_n inK$ tale che;
$b_(j1)A_1+...+b_(jn)A_n=I_j,forallj=1,...,n$
Questo significa che $((A_1,...,A_n))((b_(j1)),(...),(b_jn))=I_j$
E quindi che $AB=I_n$
Ah giusto ecco cosa mi sfuggiva rouche-capelli, grazie della pazienza ora ho capito.
Comunque nella penultima formula mi sembra che hai invertito gli indici degli elementi $b$, perché come l'hai scritto significa fare i prodotti riga di A per riga di B, ma è riga di A per colonna di A quello corretto.
Altrimenti l'inversa ti esce trasposta, ad esempio consideriamo $A=((1,1),(2,3))$ e usiamo la tua formula
$((1,1),(2,3))((b_{11}),(b_{12}))=I_{1}$ che da come soluzioni $\{(b_{11}=3),(b_{12}=-2):}$
$((1,1),(2,3))((b_{21}),(b_{22}))=I_{2}$ che da come soluzioni $\{(b_{21}=-1),(b_{22}=1):}$
ossia $A^(-1)=((3,-2),(-1,1))$
ma in realtà l'inversa corretta è $A^(-1)=((3,-1),(-2,1))$
La scrittura giusta di $AB=I_{n}$ quindi dovrebbe essere: $(A_{1} ... A_{n})((b_{1j}),(\vdots),(b_{nj}))=I_{j}$
Comunque nella penultima formula mi sembra che hai invertito gli indici degli elementi $b$, perché come l'hai scritto significa fare i prodotti riga di A per riga di B, ma è riga di A per colonna di A quello corretto.
Altrimenti l'inversa ti esce trasposta, ad esempio consideriamo $A=((1,1),(2,3))$ e usiamo la tua formula
$((1,1),(2,3))((b_{11}),(b_{12}))=I_{1}$ che da come soluzioni $\{(b_{11}=3),(b_{12}=-2):}$
$((1,1),(2,3))((b_{21}),(b_{22}))=I_{2}$ che da come soluzioni $\{(b_{21}=-1),(b_{22}=1):}$
ossia $A^(-1)=((3,-2),(-1,1))$
ma in realtà l'inversa corretta è $A^(-1)=((3,-1),(-2,1))$
La scrittura giusta di $AB=I_{n}$ quindi dovrebbe essere: $(A_{1} ... A_{n})((b_{1j}),(\vdots),(b_{nj}))=I_{j}$
Gli indici puoi anche chiamarli Pippo e Paperino.
Certo ma se cambi l'ordine cambia anche la matrice inversa.
No. È il concetto che bisogna afferrare. Tu la $n$ upla $(b_(j1),...,b_(jn))$ la vedi in base ai suoi indici e non è così.
Io l'ho usato quella scrittura ma questo non implica necessariamente che la scrittura determini una posizione ben precisa in una matrice, a meno di essersi Messi d'accordo. il tuo $b_(1j)$ è uguale al mio $b_(j1)$
Di fatto la mia sarà $(A_1,A_2,...,A_n) ((b_(11),b_(21),...,b_(n1)),(b_(12),b_(22),...,b_(n2)),( : , : , : , : ), (b_(1n),b_(2n),...,b_(n n)))$
Semplicemente intendo che costruisco la matrice $B$ per colonne.
Io l'ho usato quella scrittura ma questo non implica necessariamente che la scrittura determini una posizione ben precisa in una matrice, a meno di essersi Messi d'accordo. il tuo $b_(1j)$ è uguale al mio $b_(j1)$
Di fatto la mia sarà $(A_1,A_2,...,A_n) ((b_(11),b_(21),...,b_(n1)),(b_(12),b_(22),...,b_(n2)),( : , : , : , : ), (b_(1n),b_(2n),...,b_(n n)))$
Semplicemente intendo che costruisco la matrice $B$ per colonne.
Aggiungo i miei 0.2 cent.
Dal teorema di Binet (che puoi provare anche direttamente usando la def. di determinante), $\det(AB)=\det A \det B$. Poiché $ M\cdotM^{-1} = I_n,\quad M,M^{-1} \in M_n (\mathbb K)$, passando al determinante, $$ \det(M\cdot M^{-1}) = \det(M)\det(M^{-1}) = \det(I_n) = 1 \\ \implies \det(M^{-1}) = \frac1{\det M} \iff \det M \neq 0 $$ ossia, $\text{rank} M = n\quad \square$
Dal teorema di Binet (che puoi provare anche direttamente usando la def. di determinante), $\det(AB)=\det A \det B$. Poiché $ M\cdotM^{-1} = I_n,\quad M,M^{-1} \in M_n (\mathbb K)$, passando al determinante, $$ \det(M\cdot M^{-1}) = \det(M)\det(M^{-1}) = \det(I_n) = 1 \\ \implies \det(M^{-1}) = \frac1{\det M} \iff \det M \neq 0 $$ ossia, $\text{rank} M = n\quad \square$
"anto_zoolander":
No. È il concetto che bisogna afferrare. Tu la $n$ upla $(b_(j1),...,b_(jn))$ la vedi in base ai suoi indici e non è così.
Io l'ho usato quella scrittura ma questo non implica necessariamente che la scrittura determini una posizione ben precisa in una matrice, a meno di essersi Messi d'accordo. il tuo $b_(1j)$ è uguale al mio $b_(j1)$
Di fatto la mia sarà $(A_1,A_2,...,A_n) ((b_(11),b_(21),...,b_(n1)),(b_(12),b_(22),...,b_(n2)),( : , : , : , : ), (b_(1n),b_(2n),...,b_(n n)))$
Semplicemente intendo che costruisco la matrice $B$ per colonne.
Ah ho capito grazie, il mio dubbio era nato dal fatto che le matrici le ho sempre viste costruite per righe, ossia con elementi $a_{ij}$ dove $i$ indica la i-esima riga e $j$ la j-esima colonna.
"edmz":
Aggiungo i miei 0.2 cent.
Dal teorema di Binet (che puoi provare anche direttamente usando la def. di determinante), $\det(AB)=\det A \det B$. Poiché $ M\cdotM^{-1} = I_n,\quad M,M^{-1} \in M_n (\mathbb K)$, passando al determinante, $$ \det(M\cdot M^{-1}) = \det(M)\det(M^{-1}) = \det(I_n) = 1 \\ \implies \det(M^{-1}) = \frac1{\det M} \iff \det M \neq 0 $$ ossia, $\text{rank} M = n\quad \square$
Grazie della tua risposta, non avevo pensato al teorema di Binet! Però mi sembra che te stai dimostrando che una matrice è invertibile sse il suo determinante è zero. Poi concludi direttamente che il rango è proprio $n$, anche se era proprio quello che avevo chiesto di dimostrare
