Dimostrazione invertibilità matrice.
Il fatto che i vettori di una matrice siano linearmente indipendenti implica che la matrice sia invertibile?
Se sì, com'è possibile dimostrarlo?
Se sì, com'è possibile dimostrarlo?
Risposte
Naturalmente si parla di una matrice quadrata.
La risposta è sì. Anzi si può dire di più: vale la doppia implicazione, cioè una matrice $A$ quadrata $n\times n$ è invertibile se e solo se le sue righe sono linearmente indipendenti (o le sue colonne).
Per dimostrarlo ci sono varie vie. Per esempio puoi usare il rango.
$A$ è invertibile$\ \ \Leftrightarrow\ \ det\ A\ne 0\ \ \Leftrightarrow\ \ rank(A)=n\ \ \Leftrightarrow\ \ $La righe di $A$ sono linearmente indipendenti.
Se non ti è chiara qualcuna delle equivalenze fammi sapere e ti dò ulteriori dettagli.
La risposta è sì. Anzi si può dire di più: vale la doppia implicazione, cioè una matrice $A$ quadrata $n\times n$ è invertibile se e solo se le sue righe sono linearmente indipendenti (o le sue colonne).
Per dimostrarlo ci sono varie vie. Per esempio puoi usare il rango.
$A$ è invertibile$\ \ \Leftrightarrow\ \ det\ A\ne 0\ \ \Leftrightarrow\ \ rank(A)=n\ \ \Leftrightarrow\ \ $La righe di $A$ sono linearmente indipendenti.
Se non ti è chiara qualcuna delle equivalenze fammi sapere e ti dò ulteriori dettagli.
Il concetto di rango non l'ho ancora trattato, mi occorrerebbe una dimostrazione alternativa..
E spazi vettoriali, dimensioni, basi e compagnia bella? Se sì, domani con calma ti scrivo qualche suggerimento per dimostrarlo. Ciao!
Sì, almeno quelli sì, grazie.
Comunque il concetto base che voleva indurti a capire "cirasa", è che il rango (anche se non lo hai ancora trattato), definisce il numero di righe linearmente indipendenti della matrice.
Quindi se si ha una matrice quadrata $A$ $nxn$ con $detA!=0$ significa che il rango è massimo, quindi che tutte le righe sono linearmente indipendenti...questo significa che lo spazio di arrivo è in dimensione, uguale allo spazio di partenza (in quanto $dimV=dim(ker(f))+dim(Imf)$, il che coincide con $dim(ker(f))=0$)...in soldoni, l'applicazione è iniettiva e quindi invertibile...esisterà dunque un omeomorfismo tra lo spazio di partenza e quello di arrivo!
Quindi se si ha una matrice quadrata $A$ $nxn$ con $detA!=0$ significa che il rango è massimo, quindi che tutte le righe sono linearmente indipendenti...questo significa che lo spazio di arrivo è in dimensione, uguale allo spazio di partenza (in quanto $dimV=dim(ker(f))+dim(Imf)$, il che coincide con $dim(ker(f))=0$)...in soldoni, l'applicazione è iniettiva e quindi invertibile...esisterà dunque un omeomorfismo tra lo spazio di partenza e quello di arrivo!
Io ho pensato a qualcos'altro che non utilizza nemmeno il concetto di applicazione lineare. Ti spiego in breve (mica tanto) qual è l'idea.
Innanzitutto sia $A$ una matrice quadrata di ordine $n$ e siano $A_1,...A_n$ nell'ordine le sue colonne. Quindi $A_j\in RR^n$.
Ti faccio notare che se $B=(b_{ij})$ è un ulteriore matrice quadrata di ordine $n$ allora la $i$-esima colonna di $AB$ si può scrivere come combinazione lineare delle colonne di $A$, precisamente si scrive come $\sum_{j=1}^nb_{ji}A_j$. (se non ti è noto questo risultato te lo dimostro)
Quindi $B$ è l'inversa di $A$ se e solo se gli elementi $(b_{ij})$ di $B$ sono tali che per ogni $i=1,...,n$ la $i$-esima riga di $AB$ è uguale alla $i$-esima riga di $I_n$, cioè ad $e_i$, dove $e_i$ è l'$i$-esimo vettore della base canonica di $RR^n$. In simboli se e solo se
(*) $\sum_{j=1}^nb_{ji}A_j=e_i$, $i=1,...,n$.
Praticamente trovare l'inversa di $A$ significa scrivere i vettori della base canonica di $RR^n$ come combinazione lineare della colonne di $A$.
Supponiamo ora che le colonne di $A$ siano linearmente indipendenti. Quindi costituiscono una base di $RR^n$. Posso costruire la matrice $B$? E se sì, come?
Ora ti basta raccogliere un po' le idee nella tua mente e praticamente hai finito l'implicazione che ti serviva.
Se $A$ è invertbile, puoi usare un ragionamento simile per dimostrare che le colonne di $A$ costituiscono una base di $RR^n$ e, in particolare, sono linearmente indipendenti.
Spero di non aver commesso errori, ciao!
Innanzitutto sia $A$ una matrice quadrata di ordine $n$ e siano $A_1,...A_n$ nell'ordine le sue colonne. Quindi $A_j\in RR^n$.
Ti faccio notare che se $B=(b_{ij})$ è un ulteriore matrice quadrata di ordine $n$ allora la $i$-esima colonna di $AB$ si può scrivere come combinazione lineare delle colonne di $A$, precisamente si scrive come $\sum_{j=1}^nb_{ji}A_j$. (se non ti è noto questo risultato te lo dimostro)
Quindi $B$ è l'inversa di $A$ se e solo se gli elementi $(b_{ij})$ di $B$ sono tali che per ogni $i=1,...,n$ la $i$-esima riga di $AB$ è uguale alla $i$-esima riga di $I_n$, cioè ad $e_i$, dove $e_i$ è l'$i$-esimo vettore della base canonica di $RR^n$. In simboli se e solo se
(*) $\sum_{j=1}^nb_{ji}A_j=e_i$, $i=1,...,n$.
Praticamente trovare l'inversa di $A$ significa scrivere i vettori della base canonica di $RR^n$ come combinazione lineare della colonne di $A$.
Supponiamo ora che le colonne di $A$ siano linearmente indipendenti. Quindi costituiscono una base di $RR^n$. Posso costruire la matrice $B$? E se sì, come?
Ora ti basta raccogliere un po' le idee nella tua mente e praticamente hai finito l'implicazione che ti serviva.
Se $A$ è invertbile, puoi usare un ragionamento simile per dimostrare che le colonne di $A$ costituiscono una base di $RR^n$ e, in particolare, sono linearmente indipendenti.
Spero di non aver commesso errori, ciao!

Sia $A\inM(nxn,K)$, la matrice $A$ risulta invertibile se, e solo se, $detA!=0$.
Dimostrazione $Rightarrow$.
Per ipotesi esiste $B\inM(nxn,K)$, tale che $AB=BA=I_n$.
Applicando il teorema di Binet, $detAB=detI_n$, ricordando che il determinante della
matrice identica vale $1$, otteniamo $(detA)(detB)=1$, ciò implica $detA!=0$.
Dimostrazione$\Leftarrow$
equivalentemente, che se $A$ non è invertibile, allora $detA=0$.
Se $A$ non è invertibile, allora $rkA
Ne segue che le $n$ colonne di $A$, essendo vettori in uno spazio vettoriale di dimensione minore di $n$, sono linearmente dipendenti e una di esse è combinazione lineare delle altre. Supponiamo per fissare le idee che $A_1$ sia combinazione lineare delle altre colonne, esistono dunque degli scalari $h_2, h_3,....h_n$, tali che $A_1= h_2A_2+h_3A_3+..+h_nA_n$.
Usiamo ora la multilinearità del determinante:
$detA =\psi(A_1,A_2,....A_n)=\psi(h_2A_2+h_3A_3 +....+ h_nA_n,A_2,...,A_n)=$
$=h_2\psi(A_2,A_2,...,A_n)+h_3\psi(A_3,A_2,...,A_n)+....+h_n\psi(A_n,A_2,...,A_n)$.
Una n-forma assume il valore zero qualora due componenti siano uguali. ciò accade per
ciascuno degli $n-1$ addendi dell'ultima espressione. Ne segue $detA=0$
Dimostrazione $Rightarrow$.
Per ipotesi esiste $B\inM(nxn,K)$, tale che $AB=BA=I_n$.
Applicando il teorema di Binet, $detAB=detI_n$, ricordando che il determinante della
matrice identica vale $1$, otteniamo $(detA)(detB)=1$, ciò implica $detA!=0$.
Dimostrazione$\Leftarrow$
equivalentemente, che se $A$ non è invertibile, allora $detA=0$.
Se $A$ non è invertibile, allora $rkA
Usiamo ora la multilinearità del determinante:
$detA =\psi(A_1,A_2,....A_n)=\psi(h_2A_2+h_3A_3 +....+ h_nA_n,A_2,...,A_n)=$
$=h_2\psi(A_2,A_2,...,A_n)+h_3\psi(A_3,A_2,...,A_n)+....+h_n\psi(A_n,A_2,...,A_n)$.
Una n-forma assume il valore zero qualora due componenti siano uguali. ciò accade per
ciascuno degli $n-1$ addendi dell'ultima espressione. Ne segue $detA=0$
Ciao "cirasa",
scusa, ma non avevo notato che avevi già risposto tu, in quanto ho tardato ad inviare la mia risposta!!!
scusa, ma non avevo notato che avevi già risposto tu, in quanto ho tardato ad inviare la mia risposta!!!
@ Alexp: No, tranquillo! Vorrà dire il nostro amico "billytalentitalianfan" può vedere la stessa cosa da due punti di vista diversi...

E già!

Proprio quello che cercavo, grazie mille!
Prego!

provo a dare un contributo, dato che il tema in questione è interessante
e tra l'altro è abbastanza noto dallo studio dell'algebra lineare.
in particolare , vorrei chiarire meglio il teorema di Binet (dato che
occorre nella dimostrazione della invertibilità di una matrice quadrata):
$det(AB)=detA\timesdetB$
ovvero il determinante del prodotto di due
matrici quadrate è uguale al prodotto dei determinanti
le matrici $A$ e $Bin K^(n,n)$
tra l'altro basta considerare due matrici $5xx5$ e vedere l'efficacia
del teorema.
Buona serata!
e tra l'altro è abbastanza noto dallo studio dell'algebra lineare.
in particolare , vorrei chiarire meglio il teorema di Binet (dato che
occorre nella dimostrazione della invertibilità di una matrice quadrata):
$det(AB)=detA\timesdetB$
ovvero il determinante del prodotto di due
matrici quadrate è uguale al prodotto dei determinanti
le matrici $A$ e $Bin K^(n,n)$

tra l'altro basta considerare due matrici $5xx5$ e vedere l'efficacia
del teorema.
Buona serata!
scusate se faccio una domanda ripetitiva...
ma il determinante diverso da zero è condizione sufficiente perchè la matrice sia invertibile?
mi basta calcolare il determinante e sono a posto?
vorrei essere sicuro al 100%
ma il determinante diverso da zero è condizione sufficiente perchè la matrice sia invertibile?
mi basta calcolare il determinante e sono a posto?
vorrei essere sicuro al 100%
Sì. Se il determinante di $A$ è diverso da $0$ allora puoi calcolare la matrice inversa come
$A^{-1}=\frac{1}{det\ A}\bar{A}^t$
dove $\bar{A}$ è la matrice dei complementi algebrici.
E' anche condizione necessaria dal teorema di Binet.
$A^{-1}=\frac{1}{det\ A}\bar{A}^t$
dove $\bar{A}$ è la matrice dei complementi algebrici.
E' anche condizione necessaria dal teorema di Binet.
ottimo grazie!