Pivot matrice semidefinita positiva

DavideGenova1
Ciao, amici! Leggo sullo Strang, Algebra lineare, che una matrice simmetrica $A$ è semidefinita positiva se e solo se nessun pivot è negativo.
L'asserto non viene dimostrato se non accennando al fatto che la matrice semidefinita $A$ è il limite cui tende la matrice definita positiva $A+\epsilon I$ per $\epsilon\to0$ (e questo mi è chiaro)
Ora, è tutto il giorno che cerco di capire se e come si possa dimostrare il fatto una matrice simmetrica $A$ è semidefinita positiva se e solo se nessun pivot è negativo utilizzando il fatto che $A=\lim_{\epsilon\to 0}A+\epsilon I$ dove $A+\epsilon I$ è definita positiva -ed ha quindi ogni pivot positivo-, ma non ne cavo nulla perché se $A$ ha un pivot che non sia l'ultimo nullo per calcolare gli altri pivot si permutano le righe...
So anche che $A$ è semidefinita positiva se e solo se ogni autovalore \(\lambda_i\geq 0\), se e solo se nessuna sottomatrice principale ha determinante negativo e se e solo se esiste una matrice $R$ tale che \(A=R^\text{T} R\), ma non so se a partire da questi fatti si possa giungere all'implicazione che voglio dimostrare a me stesso...
Qualcuno ha qualche idea?
Grazie di cuore a tutti!

Risposte
Sk_Anonymous
Forse per inquadrare meglio la questione dovresti studiare un po' di forme bilineari.
In effetti se \(\displaystyle g:V \times V \to C \) (con \(\displaystyle V \) spazio vettoriale di dimensione \(\displaystyle n \) su \(\displaystyle C \)) è una forma bilineare simmetrica a cui è associata la sua matrice di Gram \(\displaystyle A \), si può dimostrare che esiste sempre una base ortogonale \(\displaystyle \mathcal{V}=\{v_{1}, \dots , v_{n} \} \) tale che \(\displaystyle A \) sia in forma canonica (usando però come relazione di equivalenza la congruenza). Per definizione di matrice di Gram i pivot non sono altro che \(\displaystyle g(v_{i},v_{i}) \ge 0 \). Va da se che se \(\displaystyle u=\alpha_{1} v_{1} + \dots + \alpha_{n} v_{n} \in V \) allora \[\displaystyle g(u,u)=\alpha_{1} ^2 g(v_{1},v_{1}) + \dots + \alpha_{n} ^2 g(v_{n}, v_{n}) \ge 0 \] e questo è valido per ogni \(\displaystyle u \in V \).

Questo probabilmente non risponde alla tua domanda, ma ci va pericolosamente vicino.

DavideGenova1
$+oo$ grazie, Delirium!!! Già, ogni forma bilineare simmetrica ha una base diagonalizzante... Però non sono sicuro di come si possa dimostrare che, se la matrice diagonale $A$ ha i pivot non negativi, ogni matrice congruente $M^\text{T}AM$ li abbia anch'essa non negativi...
Grazie ancora a te e a chiunque voglia aggiungere qualcosa!!!!!

Sk_Anonymous
Bhé, ogni vettore della tua "nuova" base sarà una combinazione lineare dei vettori di \(\displaystyle \mathcal{V} \), quindi sulla diagonale della matrice scritta secondo tale "nuova" base ci saranno comunque dei valori non negativi, per quanto ho detto sopra, e per la definizione di matrice di Gram

DavideGenova1
Scusami se sono un po' zuccone... Sì, capisco che gli elementi sulla diagonale debbano sempre essere positivi o nulli, ma, quando andiamo a praticare l'eliminazione gaussiana su $PM^\text{T}AM=LU$ (dove $P$ è la matrice di permutazione che per esempio ci permette di non rimanere, quando sottraiamo multipli della riga $i$ da quelle sottostanti durante l'eliminazione, con uno 0 al posto $i+1,i+1$ mentre più in basso nella colonna $i+1$ c'è almeno un coefficiente non nullo; $L$ è l'unitriangolare bassa; $U$ è la triangolare alta con i pivot sulla diagonale principale, per usare la notazione consuetamente impiegata dallo Strang), come possiamo essere certi tutti i pivot, che "rimangono" sulla diagonale di $U$, siano non negativi -che è quello che intende l'autore del mio testo a p. 333- se e solo se lo sono quelli della matrice diagonale $A$?
Probabilmente in freddo mi causa problemi di circolazione cerebrale...
Grazie di cuore ancora!

EDIT: Se si riesce a dimostrare questo fatto più generale e molto interessante, il problema è risolto.

Sk_Anonymous
Quello che mi domando è la seguente cosa - potrebbe essere un fatto banale, ma al momento non mi viene nulla - : esiste una base in cui la matrice di partenza assume forma triangolare? Se sì, concludi per quanto ho detto sopra.

Sono certo che con delle ipotesi più forti si possa provare un risultato ben più forte, e mi pare anche di aver scritto qualcosa negli appunti, l'anno scorso (mi pareva fosse sufficiente avere tutte le radici del polinomio minimo del corpo in cui si lavora). Se hai pazienza qualche giorno torno a casa, li recupero e ti faccio sapere.

DavideGenova1
"Delirium":
esiste una base in cui la matrice di partenza assume forma triangolare?

Non so se ho capito cosa intendi... So che esiste in \(M_n(\mathbb{C})\), ma non necessariamente in \(M_n(\mathbb{R})\), nel senso che, come sai, per ogni \(A\in M_n(\mathbb{C})\) esiste una matrice unitaria \(B\in U(n)\) tale che \(B^{-1} AB\) è triangolare ed esiste una matrice \(M\in \text{GL}_n(\mathbb{C})\) tale che \(M^{-1}AM\) è in forma triangolare canonica di Jordan, naturalmente in entrambi i casi con gli autovalori sulla diagonale principale, tutti reali perché la nostra \(A\in M_n(\mathbb{R})\) è simmetrica.
"Delirium":
Se sì, concludi per quanto ho detto sopra.

Scusami, ma non ci arrivo... Come collego i segni degli autovalori ai segni dei pivot che mi ritrovo sulla diagonale della matrice a gradini $U$, tale che \(PA=LU\), ottenuta con l'eliminazione gaussiana?
"Delirium":
Se hai pazienza qualche giorno torno a casa, li recupero e ti faccio sapere.

Grazie di cuore, veramente, ci sto impazzendo...
Ho trovato sullo stesso libro l'enunciato secondo cui il numero di pivot rispettivamente positivi, negativi e nulli di una matrice $U$ ottenuta per eliminazione gaussiana da una matrice $A$ simmetrica coincide con il numero di autovalori rispettivamente positivi, negativi e nulli di $A$. Nel caso $A$ sia invertibile, quindi senza pivot, e autovalori, nulli in $U$ e perciò riducibile per eliminazione di Gauss senza scambi di riga, data l'unicità della fattorizzazione $LU=A\in\text{GL}(\mathbb{R})$ e la simmetria di $A=A^\text{T}$ che è quindi \(A=LDL^\text{T}\) con \(D=\text{diag}(pivots)\), poiché i segni degli autovalori di $D$ e di \(LDL^\text{T}\) sono uguali (dato che $L$ è invertibile, come dice a p. 336 lo Strang), ho che se i pivot=autovalori nella triangolare superiore $U=DL^\text{T}$ sono tutti non-negativi (rispettivamente positivi) allora $A$ è semidefinita (rispettivamente definita) positiva, se sono tutti non-positivi (rispettivamente negativi) è semidefinita (rispettivamente definita) negativa, mentre se ce ne sono di segno opposto è indefinita. Una generalizzazione molto interessante.
Nel caso che $A$ non sia riducibile con l'algoritmo di Gauss senza scambi di riga, cioè non sia tale che \(A=LU\) (piuttosto che \(PA=LU\) con permutazione non banale), come può accadere se $A$ ha autovalori e pivot nulli, cioè se $A$ non è invertibile, sto addirittura cominciando a pensare che possa non valere né l'enunciato secondo cui il numero di pivot rispettivamente positivi, negativi e nulli coincide con il numero di autovalori rispettivamente positivi, negativi e nulli, né la semidefinitezza positiva della matrice se i pivot sono non-negativi...
Ciao e $+oo$ grazie ancora!!!!!

EDIT:Direi proprio -basta vedere questo controesempio- che, se $A=P^{-1}LU,P\ne I$, cioè se durante l'eliminazione gaussiana ci troviamo a dover permutare righe, l'asserto non valga...

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.