Dimostrazione invertibilità matrice.

billytalentitalianfan
Il fatto che i vettori di una matrice siano linearmente indipendenti implica che la matrice sia invertibile?
Se sì, com'è possibile dimostrarlo?

Risposte
cirasa
Naturalmente si parla di una matrice quadrata.
La risposta è sì. Anzi si può dire di più: vale la doppia implicazione, cioè una matrice $A$ quadrata $n\times n$ è invertibile se e solo se le sue righe sono linearmente indipendenti (o le sue colonne).

Per dimostrarlo ci sono varie vie. Per esempio puoi usare il rango.
$A$ è invertibile$\ \ \Leftrightarrow\ \ det\ A\ne 0\ \ \Leftrightarrow\ \ rank(A)=n\ \ \Leftrightarrow\ \ $La righe di $A$ sono linearmente indipendenti.
Se non ti è chiara qualcuna delle equivalenze fammi sapere e ti dò ulteriori dettagli.

billytalentitalianfan
Il concetto di rango non l'ho ancora trattato, mi occorrerebbe una dimostrazione alternativa..

cirasa
E spazi vettoriali, dimensioni, basi e compagnia bella? Se sì, domani con calma ti scrivo qualche suggerimento per dimostrarlo. Ciao!

billytalentitalianfan
Sì, almeno quelli sì, grazie.

Alexp1
Comunque il concetto base che voleva indurti a capire "cirasa", è che il rango (anche se non lo hai ancora trattato), definisce il numero di righe linearmente indipendenti della matrice.

Quindi se si ha una matrice quadrata $A$ $nxn$ con $detA!=0$ significa che il rango è massimo, quindi che tutte le righe sono linearmente indipendenti...questo significa che lo spazio di arrivo è in dimensione, uguale allo spazio di partenza (in quanto $dimV=dim(ker(f))+dim(Imf)$, il che coincide con $dim(ker(f))=0$)...in soldoni, l'applicazione è iniettiva e quindi invertibile...esisterà dunque un omeomorfismo tra lo spazio di partenza e quello di arrivo!

cirasa
Io ho pensato a qualcos'altro che non utilizza nemmeno il concetto di applicazione lineare. Ti spiego in breve (mica tanto) qual è l'idea.
Innanzitutto sia $A$ una matrice quadrata di ordine $n$ e siano $A_1,...A_n$ nell'ordine le sue colonne. Quindi $A_j\in RR^n$.

Ti faccio notare che se $B=(b_{ij})$ è un ulteriore matrice quadrata di ordine $n$ allora la $i$-esima colonna di $AB$ si può scrivere come combinazione lineare delle colonne di $A$, precisamente si scrive come $\sum_{j=1}^nb_{ji}A_j$. (se non ti è noto questo risultato te lo dimostro)

Quindi $B$ è l'inversa di $A$ se e solo se gli elementi $(b_{ij})$ di $B$ sono tali che per ogni $i=1,...,n$ la $i$-esima riga di $AB$ è uguale alla $i$-esima riga di $I_n$, cioè ad $e_i$, dove $e_i$ è l'$i$-esimo vettore della base canonica di $RR^n$. In simboli se e solo se

(*) $\sum_{j=1}^nb_{ji}A_j=e_i$, $i=1,...,n$.

Praticamente trovare l'inversa di $A$ significa scrivere i vettori della base canonica di $RR^n$ come combinazione lineare della colonne di $A$.

Supponiamo ora che le colonne di $A$ siano linearmente indipendenti. Quindi costituiscono una base di $RR^n$. Posso costruire la matrice $B$? E se sì, come?

Ora ti basta raccogliere un po' le idee nella tua mente e praticamente hai finito l'implicazione che ti serviva.

Se $A$ è invertbile, puoi usare un ragionamento simile per dimostrare che le colonne di $A$ costituiscono una base di $RR^n$ e, in particolare, sono linearmente indipendenti.


Spero di non aver commesso errori, ciao! :D

Alexp1
Sia $A\inM(nxn,K)$, la matrice $A$ risulta invertibile se, e solo se, $detA!=0$.

Dimostrazione $Rightarrow$.
Per ipotesi esiste $B\inM(nxn,K)$, tale che $AB=BA=I_n$.
Applicando il teorema di Binet, $detAB=detI_n$, ricordando che il determinante della
matrice identica vale $1$, otteniamo $(detA)(detB)=1$, ciò implica $detA!=0$.

Dimostrazione$\Leftarrow$
equivalentemente, che se $A$ non è invertibile, allora $detA=0$.
Se $A$ non è invertibile, allora $rkA Ne segue che le $n$ colonne di $A$, essendo vettori in uno spazio vettoriale di dimensione minore di $n$, sono linearmente dipendenti e una di esse è combinazione lineare delle altre. Supponiamo per fissare le idee che $A_1$ sia combinazione lineare delle altre colonne, esistono dunque degli scalari $h_2, h_3,....h_n$, tali che $A_1= h_2A_2+h_3A_3+..+h_nA_n$.
Usiamo ora la multilinearità del determinante:
$detA =\psi(A_1,A_2,....A_n)=\psi(h_2A_2+h_3A_3 +....+ h_nA_n,A_2,...,A_n)=$
$=h_2\psi(A_2,A_2,...,A_n)+h_3\psi(A_3,A_2,...,A_n)+....+h_n\psi(A_n,A_2,...,A_n)$.
Una n-forma assume il valore zero qualora due componenti siano uguali. ciò accade per
ciascuno degli $n-1$ addendi dell'ultima espressione. Ne segue $detA=0$

Alexp1
Ciao "cirasa",
scusa, ma non avevo notato che avevi già risposto tu, in quanto ho tardato ad inviare la mia risposta!!!

cirasa
@ Alexp: No, tranquillo! Vorrà dire il nostro amico "billytalentitalianfan" può vedere la stessa cosa da due punti di vista diversi... :-D

Alexp1
E già! :D

billytalentitalianfan
Proprio quello che cercavo, grazie mille!

cirasa
Prego! :mrgreen:

salfor76
provo a dare un contributo, dato che il tema in questione è interessante
e tra l'altro è abbastanza noto dallo studio dell'algebra lineare.

in particolare , vorrei chiarire meglio il teorema di Binet (dato che
occorre nella dimostrazione della invertibilità di una matrice quadrata):

$det(AB)=detA\timesdetB$

ovvero il determinante del prodotto di due
matrici quadrate è uguale al prodotto dei determinanti

le matrici $A$ e $Bin K^(n,n)$


:roll:

tra l'altro basta considerare due matrici $5xx5$ e vedere l'efficacia
del teorema.

Buona serata!

bandido
scusate se faccio una domanda ripetitiva...

ma il determinante diverso da zero è condizione sufficiente perchè la matrice sia invertibile?

mi basta calcolare il determinante e sono a posto?
vorrei essere sicuro al 100%

cirasa
Sì. Se il determinante di $A$ è diverso da $0$ allora puoi calcolare la matrice inversa come
$A^{-1}=\frac{1}{det\ A}\bar{A}^t$
dove $\bar{A}$ è la matrice dei complementi algebrici.

E' anche condizione necessaria dal teorema di Binet.

bandido
ottimo grazie!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.