Unicità della diagonalizzazione di matrice simmetrica
Ciao a tutti!
Vi chiedo di chiarirmi un dubbio sulla diagonalizzazione delle matrici reali simmetriche. Sappiamo che una matrice simmetrica reale $ S $ è diagonalizzabile grazie ad una matrice $ P $ ortogonale tramite le operazioni $ D = P^(-1) S P $, dove la matrice $ D $ ha sulla diagonale gli autovalori (reali) di $ S $. Facendo variare l'ordine degli autovalori sulla diagonale di $ D $, la diagonalizzazione rimane valida a patto di permutare opportunamente le colonne di $ P $. Se però fissiamo l'ordine degli autovalori, ad esempio in ordine decrescente, la matrice $ P $ che diagonalizza $ S $ è unica? Grazie!
Vi chiedo di chiarirmi un dubbio sulla diagonalizzazione delle matrici reali simmetriche. Sappiamo che una matrice simmetrica reale $ S $ è diagonalizzabile grazie ad una matrice $ P $ ortogonale tramite le operazioni $ D = P^(-1) S P $, dove la matrice $ D $ ha sulla diagonale gli autovalori (reali) di $ S $. Facendo variare l'ordine degli autovalori sulla diagonale di $ D $, la diagonalizzazione rimane valida a patto di permutare opportunamente le colonne di $ P $. Se però fissiamo l'ordine degli autovalori, ad esempio in ordine decrescente, la matrice $ P $ che diagonalizza $ S $ è unica? Grazie!
Risposte
Cosa succede se moltiplichi la matrice \(P\) per un qualche scalare non nullo? Supponi di avere un autovalore con molteplicità 2 e di prendere due nuovi autovettori dal corrispondente autospazio diversi da quelli di \(P\). Puoi usarli per costruire una nuova matrice per la diagonalizazione?
Ciao, se moltiplico $ P $ per uno scalare non nullo allora le sue colonne non saranno più ortonormali, ma solo ortogonali. Se pongo $ hat(P) = alpha P $, con $ alpha ne 0 $, ho $ hat(P) hat(P)^T = alpha ^ 2 P P^T = alpha ^ 2 I $. Quindi la matrice $ hat(P) $ non è più valida, giusto? In effetti invece, se ho un autospazio di dimensione 2 corrispondente ad autovalore con molteplicità 2, ci sono infinite coppie di vettori che possono formare una base ortonormale di questo autospazio, e che quindi possono diventare colonne della matrice $ P $. Quindi in questo caso l'unicità di $ P $ si perde, giusto? Scusate, ma la mia domanda nasce dal seguente passaggio del libro "Linear Algebra" di Kwak e Hong, capitolo "Quadratic forms", sottocapitolo "Congruence relations":
Allora questa affermazione sull'unicità della diagonalizzazione vale solo quando gli autovalori sono tutti distinti?
However, the diagonalization of $ A $ in Theorem 9.1 (si riferisce al principal axis theorem) is through $ P^H A P = D $, not the similarity relation $ P^(-1) A P = D $ which is a unique expression, and unlike the similarity relation, this diagonalization, called a congruence relation, is not unique, and in fact there are many different ways of diagonalization of a quadratic form $ A $ through the congruence relation.
Allora questa affermazione sull'unicità della diagonalizzazione vale solo quando gli autovalori sono tutti distinti?
Nota che se \(\alpha^2 = 1\) la matrice rimane ortogonale. In particolare, puoi prendere \(\alpha = -1\) e ottenere una matrice diversa da quella originale. Puoi in effetti fare anche di peggio, puoi prendere una matrice ortogonale \(Q\) e considerare \(\hat{P} = PQ\). La matrice è ancora ortogonale, infatti \(\hat{P}\hat{P}^T = PQQ^TP^T = I\). Per avere \(\hat{P}^{-1}A\hat{P} = Q^{-1}P^{-1}APQ = Q^{-1}DQ\) uguale a \(D\) devi a questo punto aggiungere la condizione \(Q^{-1}DQ = D.\) Abbiamo già visto un paio di esempi per cui questa condizione è verificata. In generale la matrice \(Q\) è tale da preservare i gruppi di righe/colonne della matrice \(D\) (i.e. i suoi autospazi).
Non mi sono messo a guardare con attenzione il libro che hai citato, ma credo che l'unicità di cui si parla è quella di \(D\) piuttosto che di \(P\). La principale ragione è che se prendi qualcosa che non è ortogonale, come \(\hat{P} = 2P\), hai che \(\hat{P}^{-1}A\hat{P} = D\) ma \(\hat{P}^{H}A\hat{P} = 4D.\)
Non mi sono messo a guardare con attenzione il libro che hai citato, ma credo che l'unicità di cui si parla è quella di \(D\) piuttosto che di \(P\). La principale ragione è che se prendi qualcosa che non è ortogonale, come \(\hat{P} = 2P\), hai che \(\hat{P}^{-1}A\hat{P} = D\) ma \(\hat{P}^{H}A\hat{P} = 4D.\)
Grazie!
Mi è venuta un'ultima considerazione. Nel caso in cui la matrice simmetrica $ S $ abbia un autovalore con molteplicità maggiore di uno (quindi gli autovalori non sono tutti distinti), può cadere anche l'ortogonalità di $ P $, perché dal sottospazio associato all'autovalore con molteplicità maggiore di uno potrei prendere una base non ortonormale. Corretto?
Falso: ogni spazio vettoriale reale finito-dimensionale ammette almeno una base ortonormale (rispetto al prodotto scalare standard)!
Ok, in uno spazio $ mathbb(R)^N $ una base ortonormale la posso sempre trovare, e con gli elementi di quella base posso costruire la matrice di diagonalizzazione $ P $. Sicuramente in molti casi è la cosa più utile da fare. La mia era una considerazione più generica. Se per un qualunque motivo, volessi prendere dall'autospazio (relativo all'autovalore con molteplicità maggiore di uno) una base non ortonormale, i relativi vettori sarebbero comunque autovettori di $ S $, che posso andare a far parte delle colonne della matrice $ P $. Corretto?
Sì, e allora?
Era solo per capire se mi sfuggiva qualcosa. Grazie!