La NonSingolarità di una Matrice
Salve a tutti, nel mio preparare un esame mi sono imbattuto nei seguenti due quesiti:
"Dimostrare che, se A è nonsingolare, le matrici A'A e AA' sono sdp"
"Dimostrare che se A appartiene a Rmxn, con m>=n=rank(A) allora la matrice A'A è sdp"
dove con A' indico la trasposta di A. Non so proprio da dove poter cominciare la dimostrazione, in quanto la nonsingolarità di una matrice comporta che il det(A)!=0 e che esiste una matrice inversa unica, ma non so quanto mi può servire in questo contesto.Grazie in anticipo
"Dimostrare che, se A è nonsingolare, le matrici A'A e AA' sono sdp"
"Dimostrare che se A appartiene a Rmxn, con m>=n=rank(A) allora la matrice A'A è sdp"
dove con A' indico la trasposta di A. Non so proprio da dove poter cominciare la dimostrazione, in quanto la nonsingolarità di una matrice comporta che il det(A)!=0 e che esiste una matrice inversa unica, ma non so quanto mi può servire in questo contesto.Grazie in anticipo

Risposte
Ma sdp che significa?
sdp sono le matrici simmetriche e definite positive (sdp), quindi una matrice A appartiene R nxn è sdp se è simmetrica cioè, A=A') e , per ogni x appartenente R^n, x != 0 risulta x'Ax > 0
Sei pregato di usare le formule ed evitare sigle non standard.
Similmente a Lang segno con \(A_i\) la \(i\)-esima riga di \(A\) e con \(A^i\) segno la \(i\)-esima colonna di \(A\). Se considero le righe e le colonne come vettori allora il prodotto di una matrice riga per una colonna è uguale al prodotto scalare standard tra i due vettori. Quindi per distinguere segnerò con \(A_iA^j\) il prodotto di una matrice riga per una colonna e \(\langle\mathbf{v}, \mathbf{w}\rangle\) il prodotto scalare tra due vettori.
Per comodità segno \(B = {}^tA\) (la trasposta di A) e quindi valgono le formule \(B_i = A^i\), \(B^i = A_i\) e \({}^tB = A\)
Consideriamo quindi le matrici \(C = AB\) e \(D = BA\).
Esse sono simmetriche in quanto \({}^tC = {}^tB{}^tA = AB = C\) e \({}^tD = {}^tA{}^tB = BA = D\).
Ora dobbiamo dimostrare che il determinante è diverso da \(0\) equivale al fatto di essere definito positivo. Occupiamoci di \(C\).
Si ha che \(c_{ij} = A_iB^j = A_i{}^tA_j = \langle A_i, A_j\rangle\). Il fatto che \(\langle A_i, A_j\rangle =\langle A_j, A_i\rangle\) è un'ulteriore prova del fatto che è simmetrica.
Ora \(\mathbf{x}C{}^t\mathbf{x}\) dove \(\mathbf{x}\) è un vettore riga è uguale a \(\sum_{i=1}^{n}\sum_{j=1}^{n}x_ix_j \langle A_i, A_j\rangle = \sum_{i=1}^{n} x_i\langle A_i, \sum_{j=1}^{n}x_jA_j\rangle = \langle \sum_{i=1}^{n} x_iA_i, \sum_{j=1}^{n}x_jA_j\rangle \).
Ora quindi la matrice è semidefinita positivo in quanto il prodotto scalare lo è.
Tenendo conto che la matrice è non singolare se le sue righe sono linearmente indipendenti allora per ogni vettore \(\mathbf{x}\) non nullo la combinazione lineare \(\sum_{i=1}^{n} x_iA_i\) deve essere un vettore non nullo. Ovviamente vale anche l'inverso.
La matrice \(D\) è analoga. Per l'esercizio due ci vuole leggermente più lavoro ma non troppo.
Similmente a Lang segno con \(A_i\) la \(i\)-esima riga di \(A\) e con \(A^i\) segno la \(i\)-esima colonna di \(A\). Se considero le righe e le colonne come vettori allora il prodotto di una matrice riga per una colonna è uguale al prodotto scalare standard tra i due vettori. Quindi per distinguere segnerò con \(A_iA^j\) il prodotto di una matrice riga per una colonna e \(\langle\mathbf{v}, \mathbf{w}\rangle\) il prodotto scalare tra due vettori.
Per comodità segno \(B = {}^tA\) (la trasposta di A) e quindi valgono le formule \(B_i = A^i\), \(B^i = A_i\) e \({}^tB = A\)
Consideriamo quindi le matrici \(C = AB\) e \(D = BA\).
Esse sono simmetriche in quanto \({}^tC = {}^tB{}^tA = AB = C\) e \({}^tD = {}^tA{}^tB = BA = D\).
Ora dobbiamo dimostrare che il determinante è diverso da \(0\) equivale al fatto di essere definito positivo. Occupiamoci di \(C\).
Si ha che \(c_{ij} = A_iB^j = A_i{}^tA_j = \langle A_i, A_j\rangle\). Il fatto che \(\langle A_i, A_j\rangle =\langle A_j, A_i\rangle\) è un'ulteriore prova del fatto che è simmetrica.
Ora \(\mathbf{x}C{}^t\mathbf{x}\) dove \(\mathbf{x}\) è un vettore riga è uguale a \(\sum_{i=1}^{n}\sum_{j=1}^{n}x_ix_j \langle A_i, A_j\rangle = \sum_{i=1}^{n} x_i\langle A_i, \sum_{j=1}^{n}x_jA_j\rangle = \langle \sum_{i=1}^{n} x_iA_i, \sum_{j=1}^{n}x_jA_j\rangle \).
Ora quindi la matrice è semidefinita positivo in quanto il prodotto scalare lo è.
Tenendo conto che la matrice è non singolare se le sue righe sono linearmente indipendenti allora per ogni vettore \(\mathbf{x}\) non nullo la combinazione lineare \(\sum_{i=1}^{n} x_iA_i\) deve essere un vettore non nullo. Ovviamente vale anche l'inverso.
La matrice \(D\) è analoga. Per l'esercizio due ci vuole leggermente più lavoro ma non troppo.