Matrice quadrata ha rango massimo sse è invertibile

markzzz
Salve.

Avrei la necessità di dimostrare questo teorema, che è alla base di altri teoremi e corollari.

Una Matrice quadrata ha rango massimo sse è invertibile

Essendo sse, bisogna dimostrarlo da entrambi i lati, quindi :

1) Prima parte =>

IPOTESI : La matrice ha rango massimo
TESI : E' Invertibile

2) Prima parte <=

IPOTESI : E' Invertibile
TESI : La matrice ha rango massimo

Qualcuno ha dei suggerimenti su come/dove partire? Non riesco a collegare il fatto che se tutte le colonne/righe sono linearmente indipendenti, allora esiste l'inversa.

Saluti e grazie anticipati

Risposte
gugo82
Ma è un risultato che c'è su qualsiasi libro di testo di Algebra Lineare, no?

markzzz
La dimostrazione? No sul libro che stò usando per questi argomenti non c'è...è "richiesta come esercizio allo studente" :(

gugo82
E allora, come hai pensato di fare?
Basterà applicare qualche teorema precedente... Any ideas?

markzzz
Eh... prima ho solo le definizioni di rango massimo e matrice inversa! Non vedo la relazione... :) Per questo chiedo un piccolo aiuto hehe

markzzz
quindi nessuna idea/suggerimento?

dissonance
Suggerimento: osserva che se $A$ è una matrice $ntimes n$ e $v$ è un vettore colonna di lunghezza $n$ allora

$Av=v_1A_1+ldots +v_n A_n$

dove $v_1 ldots v_n$ sono le componenti di $v$ e $A_1 ldots A_n$ sono le colonne di $A$.

markzzz
non credo di capire dove vuoi arrivare... :(
avendo rango massimo tutte le colonne saranno linearmente indipendenti, quindi per AV=0 quei V saranno tutti uguali a 0, ma non vedo il nesso con il fatto che sia invertibile...

dissonance
"Invertibile" che significa? Significa, essenzialmente, che per ogni vettore colonna $y$ esiste una e una sola soluzione dell'equazione

$Ax=y$.

E' chiaro questo? Se si, non avrai problemi a concludere: infatti se le colonne di $A$ sono linearmente indipendenti esse formano una base dello spazio $K^n$ (tipicamente $K^n=RR^n, K^n=CC^n$) e quindi...

markzzz
se ha rango massimo significa che avrà una e una sola soluzione (graficamente, in due dimensioni per esempio, posso coprire tutti i punti del piano con due vettori (moltiplicandoli per uno scalare), ma uno stesso punto non può essere coperto da due vettori diversi);
se non ha rango massimo può avere più soluzioni (graficamente, in due dimensione per esempio, non copro tutti i punti, ma solo quelli nella direzione dei vettori (moltiplicati per uno scalare) e lo stesso punto lo posso ottenere moltiplicando vari vettori per scalari diversi);

non mi è ancora chiaro il perchè se ha rango massimo, allora è "invertibile" (e viceversa). Non vedo proprio nessuna correlazione tra queste due cose, scusa :(
Tu dici "se è invertibile" allora avrà una e una sola soluzione, ma come fai a dirlo? Lo prendi come una definizione?

p.s. Effettivamente questo teorema lo ho usato altre volte, ma lo ho sempre preso erroneamente come una "definizione"...

dissonance
Non è un grosso errore, in effetti più che una "definizione" questa è una "caratterizzazione" delle matrici invertibili:

Caratterizzazione delle matrici invertibili
Una matrice quadrata $A$ è invertibile se e solo se per ogni vettore colonna $y$ esiste uno ed un solo vettore colonna $x$ tale che $Ax=y$.

Comunque, vero questo, è immediato dimostrare che se $A$ ha le colonne linearmente indipendenti allora è invertibile. Infatti le colonne di $A$ formano una base di $K^n$, quindi per ogni vettore $y$ esiste una $n$-upla $(x_1 ldots x_n)$ tale che $y=x_1A_1+...+x_nA_n$, ovvero - posto $x=[[x_1], [vdots], [x_n]]$ -

$y=Ax$.

Chiaro? Questa formula $Ax=x_1A_1+...+x_nA_n$ ricordatela sempre perché è molto importante, infatti è in questa formula l'intera idea della rappresentazione mediante matrici delle applicazioni lineari.

markzzz
già, forse con quella "caratterizzazione" è più facile dimostrare questo teorema, ma è un'altra definizione da quella che è (e che ho sempre saputo) la definizione di matrice invertibile :

Una matrice si dice invertibile se $A^-1*A=I=A*A^-1$

Sono correlate? (sicuramente si...ma non lo vedo...arghhh)

dissonance
Infatti una "caratterizzazione" è una cosa che si deve dimostrare. Secondo me è più semplice e chiaro dimostrare che la "caratterizzazione" è equivalente alla "definizione" e poi servirsi di questa per dimostrare il risultato. Sapresti dimostrare la "caratterizzazione"? Una delle due implicazioni è facile: se $A$ è invertibile allora per ogni $y$ l'equazione $Ax=y$ ha una e una sola soluzione. Questo è molto semplice da vedere. L'altra è più sottile. Se per ogni $y$ l'equazione $Ax=y$ ha una e una sola soluzione allora in particolare per $y=[[0], [vdots], [1], [vdots], [0]]=e_i$ (colonna avente tutte le entrate nulle tranne la $i$-esima) esiste un unico vettore $x_i$ tale che $Ax_i=e_i$. Chi è la matrice $B=[x_1, ldots, x_n]$, le cui colonne sono i vettori $x_i$?

Naturalmente puoi anche seguire un'altra strada, figuriamoci. Volendo puoi anche dimostrare il risultato in questione partendo direttamente dalla definizione, e non è tanto diverso dalla dimostrazione che abbiamo fabbricato noi prima.

markzzz
Scusa, non credo di seguirti. Ad ogni modo io dovrei dimostrarlo con $A*A^T=I=A^T*A$ ...

Fà niente! Grazie comunque per l'aiuto

hamming_burst
@markzzz: vorrei darti un consiglio, ripassati questi argomenti con questo testo:

https://www.matematicamente.it/forum/alg ... 45434.html

fatto da un fantastico utente del forum; è scritto in modo chiaro ed esplicito, io ho chiarito da li i miei dubbi.

markzzz
Si avevo già dato un occhiata a dire il vero. Però è visto più dal punto di vista dell'algebra lineare pura, non come sul Cormen :)

Però mi sà che dovrò leggerlo bene comunque...

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.