Matrice invertibile sse rango massimo

Rabelais
Salve, sto cercando di trovare una dimostrazione semplice dell'enunciato che non utilizzi concetti relativi alle applicazioni lineari, in modo da poterlo spiegare a studenti che nel programma del corso non studino tali argomenti.
Riporto l'enunciato completo per comodità:
Una matrice quadrata $A$ di ordine $n$ è invertibile se e solo se $rk(A)=n$.


Per la dimostrazione della prima parte ho pensato:
"$rArr$" se $A$ è invertibile allora $EE B in RR^(n\timesn)$ tale che $AB=I_{n}$
notiamo che $rk(AB)<=min{rk(A),rk(B)}$ e che $rk(AB)=rk(I)=n$, dunque $rk(A)=rk(B)=n$.

Per dimostrare la seconda parte non so bene come procedere, in questo caso partiamo dal fatto che $rk(A)=n$, ciò significa che le colonne/righe di $A$ sono lin. indipendenti. Penso che lo scopo sia costruire una matrice $B in RR^(n\timesn)$ tale che il prodotto $AB$ risulti uguale a $I_{n}$ (notiamo che anche le colonne/righe di $I_{n}$ sono lin. indipendenti, ma non so se ciò serva).
Dato che le colonne $e_{i}$ di $I$ hanno tutti elementi nulli escluso l'i-esimo che è $1$, per costruire $B$, si potrebbe ricorrere a questo modo:
$b_{11}*a_{11}+b_{21}*a_{12}+...+b_{n1}*a_{1n}=1$ (prodotto prima riga di A per prima colonna di B)
$b_{12}*a_{21}+b_{22}*a_{22}+...+b_{n2}*a_{2n}=1$ (prodotto seconda riga di A per seconda colonna di B)
...
$b_{1n}*a_{n1}+b_{2n}*a_{n2}+...+b_{n n}*a_{n n}=1$ (prodotto ultima riga di A per ultima colonna di B)
Mentre gli altri prodotti "riga i-esima di A per colonna j-esima di A", con $i!=j$, vanno posti uguali a $0$.
Però facendo ciò non sto usando il fatto che le colonne/righe di $A$ sono lin. indipendenti.
Come fare ? Magari c'è un altro modo più veloce

Risposte
anto_zoolander
Allora per la prima.

$r(I)=r(A A^(-1))=r(A) => r(A)=n$

Per la seconda.

Nota che se una matrice quadrata ha rango massimo allora le sue colonne sono linearmente indipendenti e pertanto formano una base di $M_(n,1)(K)$
Siano $A_1...A_n$ tali colonne, allora;

Dunque per ognuno dei vettori colonna $I_j$,dove questo simbolo indica la $j$esima colonna della matrice identità, esistono scalari $b_(j,1)...b_(j,n) in K$ non tutti nulli tali che $sum_(k=1)^(n)b_(j,k)A_k=I_j, forall j=1,...,n$

Praticamente concludi mostrando che $A^(-1)$ è la matrice formata dai coefficienti $b_(j,k)$.

Rabelais
Grazie per la rapida risposta, ma:

1. perché $rk(A A^(-1))=rk(A)$ ?

2a. mi sembra che negli elementi $b$ della sommatoria hai invertito $j$ e $k$, perché la tua scrittura indica il prodotto tra ciascuna colonna di A e gli elementi della j-esima riga di B invece che della j-esima colonna di B.

2b. hai menzionato il fatto che le colonne di A formano una base di quello spazio, ma ciò è necessario per procedere con il tuo ragionamento o poteva essere omesso dal discorso ?

anto_zoolander
1. siano $A$ una matrice qualsiasi e $B$ una matrice invertibile e moltiplicabile a destra di $A$. Allora $r(AB)=r(A)$

Infatti $r(AB)leq min{r(A),r(B)}$ dunque in particolare $r(AB)leqr(A)$
Poi $r(A)=r((AB)B^(-1))leqr(AB)$ dunque $r(A)=r(AB)$

Lo stesso vale se $B$ è invertibile e moltiplicabile a destra.

2. Non ho scambiato nulla, ottengo praticamente queato.

${(b_(11)A_1+...+b_(1n)A_n=I_1),(...),(b_(n1)A_1+...+b_(n n)A_n=I_n):}$

Che è equivalente a $BA=Id$

2b. Si è necessaria perche se formano una base allora generano tutte le colonne di $M_(n,1)(K)$ e quindi anche le colonne di $Id$

Rabelais
1. ah ok grazie, comunque è corretta anche la mia dimostrazione giusto ?

2. ti ringrazio però avevo chiesto se era possibile una dimostrazione priva di concetti relativi ad applicazioni lineari

anto_zoolander
1. Diciamo che non mi è chiaro come concludi. Ok $r(AB)=n$ ma per quello che ho capito hai fatto vedere solo che $nleq min{r(A),r(B)$ basta un ultimo passo e dire che sia $r(A)$ che $r(B)$ abbiano rango $leqn$ e hai finito.

2. Non ho usato le applicazioni lineari :-k

Rabelais
1. si esatto, davo per scontato che $A$ e $B$ avessero rango $<= n$ essendo matrici di ordine $n$.

2. hai usato il concetto di base di uno spazio vettoriale, mi pare si introduca studiando le applicazioni lineari, ma forse mi sbaglio. Quindi per la seconda parte è quella che hai dato la dimostrazione più semplice?

anto_zoolander
1. Allora siamo d'accordo :-D

2. No il concetto di base di uno spazio vettoriale non dipende assolutamente dalle applicazioni lineari. Qual è la tua definizione di uno spazio vettoriale?
È banale come dimostrazione, basta sapere il concetto di base.

Rabelais
$(V,+,*)$ è uno spazio vettoriale su un campo $K$ se l'insieme non vuoto $V$, munito delle operazioni di somma tra vettori e di prodotto scalare-vettore, è una struttura algebrica che gode di alcune proprietà, ad esempio $(V,+)$ è un gruppo abeliano.

Quindi uno spazio vettoriale è formato da infiniti vettori ed è individuabile dalla base, ossia un insieme finito di vettori lin. indip. che generano lo spazio vettoriale.

anto_zoolander
Aspetta ci sono spazi vettoriali che non sono finitamente generati tipo $RR^(infty)$

Il tuo caso è quello di spazi 'finitamente generati' ovvero che sono generati da un numero finito di vettori.
Comunque a parte questo, come vedi non c'entrano nulla le applicazioni lineari.

Di fatto quello che si è visto nel precedente post è che $< A_1,...,A_n > =M_(n,1)(K)$

Rabelais
Ah d'accordo grazie, ma con la scrittura $M_{n,1}(K)$ intendi le matrici di $n$ righe e $1$ colonna con elementi nel campo $K$ ? Se la risposta è si, perché le colonne di $A$ generano tale spazio e non ad es. lo spazio $M_{n,n}(K)$ ?

anto_zoolander
Si è quello.
Sai com'è definito il rango di un sistema di vettori?

Rabelais
Non so, unirei i vettori in una matrice così poi potrei applicare l'algoritmo di gauss e vedere quali dei vettori sono lin. indipendenti

anto_zoolander
Non esattamente.
Sia $V$ un $K$ spazio vettoriale di dimensione $n$ e sia $S={v_1,...,v_k}$ un sistema(un sottoinsieme) di vettori di $V$.
Si definisce 'rango' di $S$ il numero $r(S)=dim< v_1,...,v_k>$

Nel caso di una matrice $A in M_(m,n)(K)$.
Si definisce 'rango per colonne di $A$' il numero $r_c(A)= dim $.
Si definisce 'rango per righe di $A$' il numero $r_r(A)= dim $

Dove $A_j$ denota la $j-esima$ colonna e $A^k$ la $k-esima$ riga.
Ovviamente poi si mostra che in una matrice il rango per colonne e quello per righe coincidono.

Dato questo, se il rango di una matrice quadrata è massimo, significa che le sue colonne sono linearmente indipendenti.
Andandoci con i sistemi lineari.

Se hai un sistema $Ax=b$ con $A$ matrice quadrata.
Abbiamo un teorema molto utile in questo caso, quello di rouché-capelli.
Il quale dice che un sistema è compatibile se e solo se $r(A)=r(A|b)$ e ammette $infty^(n-r(A))$ soluzioni.

Nel caso in cui la matrice quadrata ha rango massimo, automaticamente il sistema è compatibile e ammette un'unica soluzione per il teorema di rouché-capelli.

Questo significa che il sistema $Ax=I_j$, con $I_j$ la $j-esima$ colonna della matrice identità, è sempre soddisfatto. Ovvero esiste un vettore colonne $x$ che soddisfa l'equazione matriciale.

Questo equivale al fatto che esistano $x_1,...,x_n inK$ tale che;

$b_(j1)A_1+...+b_(jn)A_n=I_j,forallj=1,...,n$

Questo significa che $((A_1,...,A_n))((b_(j1)),(...),(b_jn))=I_j$

E quindi che $AB=I_n$

Rabelais
Ah giusto ecco cosa mi sfuggiva rouche-capelli, grazie della pazienza ora ho capito.
Comunque nella penultima formula mi sembra che hai invertito gli indici degli elementi $b$, perché come l'hai scritto significa fare i prodotti riga di A per riga di B, ma è riga di A per colonna di A quello corretto.
Altrimenti l'inversa ti esce trasposta, ad esempio consideriamo $A=((1,1),(2,3))$ e usiamo la tua formula
$((1,1),(2,3))((b_{11}),(b_{12}))=I_{1}$ che da come soluzioni $\{(b_{11}=3),(b_{12}=-2):}$
$((1,1),(2,3))((b_{21}),(b_{22}))=I_{2}$ che da come soluzioni $\{(b_{21}=-1),(b_{22}=1):}$
ossia $A^(-1)=((3,-2),(-1,1))$
ma in realtà l'inversa corretta è $A^(-1)=((3,-1),(-2,1))$

La scrittura giusta di $AB=I_{n}$ quindi dovrebbe essere: $(A_{1} ... A_{n})((b_{1j}),(\vdots),(b_{nj}))=I_{j}$

anto_zoolander
Gli indici puoi anche chiamarli Pippo e Paperino.

Rabelais
Certo ma se cambi l'ordine cambia anche la matrice inversa.

anto_zoolander
No. È il concetto che bisogna afferrare. Tu la $n$ upla $(b_(j1),...,b_(jn))$ la vedi in base ai suoi indici e non è così.
Io l'ho usato quella scrittura ma questo non implica necessariamente che la scrittura determini una posizione ben precisa in una matrice, a meno di essersi Messi d'accordo. il tuo $b_(1j)$ è uguale al mio $b_(j1)$

Di fatto la mia sarà $(A_1,A_2,...,A_n) ((b_(11),b_(21),...,b_(n1)),(b_(12),b_(22),...,b_(n2)),( : , : , : , : ), (b_(1n),b_(2n),...,b_(n n)))$

Semplicemente intendo che costruisco la matrice $B$ per colonne.

edmz
Aggiungo i miei 0.2 cent.

Dal teorema di Binet (che puoi provare anche direttamente usando la def. di determinante), $\det(AB)=\det A \det B$. Poiché $ M\cdotM^{-1} = I_n,\quad M,M^{-1} \in M_n (\mathbb K)$, passando al determinante, $$ \det(M\cdot M^{-1}) = \det(M)\det(M^{-1}) = \det(I_n) = 1 \\ \implies \det(M^{-1}) = \frac1{\det M} \iff \det M \neq 0 $$ ossia, $\text{rank} M = n\quad \square$

Rabelais
"anto_zoolander":
No. È il concetto che bisogna afferrare. Tu la $n$ upla $(b_(j1),...,b_(jn))$ la vedi in base ai suoi indici e non è così.
Io l'ho usato quella scrittura ma questo non implica necessariamente che la scrittura determini una posizione ben precisa in una matrice, a meno di essersi Messi d'accordo. il tuo $b_(1j)$ è uguale al mio $b_(j1)$

Di fatto la mia sarà $(A_1,A_2,...,A_n) ((b_(11),b_(21),...,b_(n1)),(b_(12),b_(22),...,b_(n2)),( : , : , : , : ), (b_(1n),b_(2n),...,b_(n n)))$

Semplicemente intendo che costruisco la matrice $B$ per colonne.


Ah ho capito grazie, il mio dubbio era nato dal fatto che le matrici le ho sempre viste costruite per righe, ossia con elementi $a_{ij}$ dove $i$ indica la i-esima riga e $j$ la j-esima colonna.

"edmz":
Aggiungo i miei 0.2 cent.

Dal teorema di Binet (che puoi provare anche direttamente usando la def. di determinante), $\det(AB)=\det A \det B$. Poiché $ M\cdotM^{-1} = I_n,\quad M,M^{-1} \in M_n (\mathbb K)$, passando al determinante, $$ \det(M\cdot M^{-1}) = \det(M)\det(M^{-1}) = \det(I_n) = 1 \\ \implies \det(M^{-1}) = \frac1{\det M} \iff \det M \neq 0 $$ ossia, $\text{rank} M = n\quad \square$


Grazie della tua risposta, non avevo pensato al teorema di Binet! Però mi sembra che te stai dimostrando che una matrice è invertibile sse il suo determinante è zero. Poi concludi direttamente che il rango è proprio $n$, anche se era proprio quello che avevo chiesto di dimostrare :) ossia dimostrare che una matrice è invertibile (ossia det è $\ne 0$) sse il suo rango è massimo.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.