Dubbio teorema spettrale: diagonalizzazione matrice
Salve !!
Avrei un dubbio riguardante al teorema spettrale.
In pratica so che dice che una matrice simmetrica $ A $ è sempre diagonalizzabile attraverso una trasformazione di similitudine $ D=P^-1AP $ in una matrice simile $ D $ (che ha come elementi nella diagonale principale gli autovalori di $ A $ ) mediante una matrice ORTOGONALE $ P $
Ecco io non capisco se data una matrice simmetrica $ A $ calcolandone i suoi autovalori $ lamda_i $ e i corrispettivi autovettori $ vecv_i $ ....e una volta fatto ciò disponendo tali vettori $ vecv_i $ secondo colonne in una certa matrice $ P $ ,la matrice che ottengo $ P $ è già ortogonale oppure è necessario fare prima dei calcoli sugli autovettori stessi ottenuti in precedenza ?
Mi spiego:
ad esempio è necessario normalizzare questi autovettori $ vecv_i $ che si ottengono a partire dalla matrice simmetrica $ A $ affinchè la matrice $ P $ diagonalizzante sia anche ortogonale o lo è già di sua natura (senza percio la necessità di fare ulteriori passaggi in presenza di una matrice simmetrica)??
GRAZIE
Avrei un dubbio riguardante al teorema spettrale.
In pratica so che dice che una matrice simmetrica $ A $ è sempre diagonalizzabile attraverso una trasformazione di similitudine $ D=P^-1AP $ in una matrice simile $ D $ (che ha come elementi nella diagonale principale gli autovalori di $ A $ ) mediante una matrice ORTOGONALE $ P $
Ecco io non capisco se data una matrice simmetrica $ A $ calcolandone i suoi autovalori $ lamda_i $ e i corrispettivi autovettori $ vecv_i $ ....e una volta fatto ciò disponendo tali vettori $ vecv_i $ secondo colonne in una certa matrice $ P $ ,la matrice che ottengo $ P $ è già ortogonale oppure è necessario fare prima dei calcoli sugli autovettori stessi ottenuti in precedenza ?
Mi spiego:
ad esempio è necessario normalizzare questi autovettori $ vecv_i $ che si ottengono a partire dalla matrice simmetrica $ A $ affinchè la matrice $ P $ diagonalizzante sia anche ortogonale o lo è già di sua natura (senza percio la necessità di fare ulteriori passaggi in presenza di una matrice simmetrica)??
GRAZIE

Risposte
Sia \((v_1,\ldots, v_n)\) una base di autovettori per una matrice simmetrica \(A\). Quello che ti stai chiedendo è
Come possiamo manipolare la base \((v_1,\ldots, v_n)\) in modo da ottenere una base ortonormale?
Osservazioni
1. Come hai già notato, possiamo provare a normalizzare ciascun \(v_i\). Ahinoi, in generale, questo non basta per ottenere una base ortonormale. (Esempio: se consideriamo \(A = I\), qualsiasi base di vettori di norma \(1\) è una base di autovettori, ma non è detto che sia ortogonale)
2. Tuttavia, si dimostra facilmente il seguente fatto:
Supponiamo che \(Av_i = \lambda_i v_i\) per \(i = 1,\ldots,n\). Allora, se \(\lambda_i \neq \lambda_j\), i vettori \(v_i\) e \(v_j\) sono ortogonali.
Da cui ricaviamo il corollario:
Se gli autovalori di \(A\) sono a due a due distinti e \((v_1,\ldots, v_n)\) è una base di autovettori per \(A\), allora la base normalizzata \((\hat{v}_1,\ldots, \hat{v}_n)\) è ortonormale.
Spero di averti chiarito qualche dubbio.
Come possiamo manipolare la base \((v_1,\ldots, v_n)\) in modo da ottenere una base ortonormale?
Osservazioni
1. Come hai già notato, possiamo provare a normalizzare ciascun \(v_i\). Ahinoi, in generale, questo non basta per ottenere una base ortonormale. (Esempio: se consideriamo \(A = I\), qualsiasi base di vettori di norma \(1\) è una base di autovettori, ma non è detto che sia ortogonale)
2. Tuttavia, si dimostra facilmente il seguente fatto:
Supponiamo che \(Av_i = \lambda_i v_i\) per \(i = 1,\ldots,n\). Allora, se \(\lambda_i \neq \lambda_j\), i vettori \(v_i\) e \(v_j\) sono ortogonali.
Da cui ricaviamo il corollario:
Se gli autovalori di \(A\) sono a due a due distinti e \((v_1,\ldots, v_n)\) è una base di autovettori per \(A\), allora la base normalizzata \((\hat{v}_1,\ldots, \hat{v}_n)\) è ortonormale.
Spero di averti chiarito qualche dubbio.
Grazie intanto per la risposta...
Dunque,in generale, se io diagonalizzo una matrice $ A $ simmetrica in una matrice diagonale simile attraverso il calcolo degli autovalori $ lamda_i $ associati ad $ A $ e poi i corrispettivi autovettori $ vecv_i $ se poi dispongo questo autovettori appena trovati secondo le colonne di una matrice $ P $ questa matrice $ P $ che ottengo non è detto che sia ortogonale ?
Perchè io avevo letto questa frase: " per ogni matrice simmetrica $ A $ esistono una matrice ortogonale $ P $ ed una diagonale $ D $ tale che $ D=P^-1AP $ , con P appunto ortogonale."
Cioè credevo che a patto che sia simmetrica la matrice $ A $ che voglio diagonalizzare allora la matrice diagonalizzante $ P $ è per forza ortogonale...
Ma da quanto dici mi pare di capire che una volta risolto il problema degli autovalori per la matrice simmetrica e individuati i corrispettivi autovettori, la matrice diagonalizzante $ P $ , che ottengo disponendo semplicemente lungo le colonne gli autovettori, non per forza è ortogonale nonostante $ A $ sia simmetrica ?
Dico bene ?
Grazie
Dunque,in generale, se io diagonalizzo una matrice $ A $ simmetrica in una matrice diagonale simile attraverso il calcolo degli autovalori $ lamda_i $ associati ad $ A $ e poi i corrispettivi autovettori $ vecv_i $ se poi dispongo questo autovettori appena trovati secondo le colonne di una matrice $ P $ questa matrice $ P $ che ottengo non è detto che sia ortogonale ?
Perchè io avevo letto questa frase: " per ogni matrice simmetrica $ A $ esistono una matrice ortogonale $ P $ ed una diagonale $ D $ tale che $ D=P^-1AP $ , con P appunto ortogonale."
Cioè credevo che a patto che sia simmetrica la matrice $ A $ che voglio diagonalizzare allora la matrice diagonalizzante $ P $ è per forza ortogonale...
Ma da quanto dici mi pare di capire che una volta risolto il problema degli autovalori per la matrice simmetrica e individuati i corrispettivi autovettori, la matrice diagonalizzante $ P $ , che ottengo disponendo semplicemente lungo le colonne gli autovettori, non per forza è ortogonale nonostante $ A $ sia simmetrica ?
Dico bene ?
Grazie

Perchè io avevo letto questa frase: "Per ogni matrice simmetrica A esistono una matrice ortogonale P ed una diagonale D tale che \(D=P^{−1}AP\) , con P appunto ortogonale."
Vero: è l'enunciato del Teorema Spettrale.
Ma da quanto dici mi pare di capire che una volta risolto il problema degli autovalori per la matrice simmetrica e individuati i corrispettivi autovettori, la matrice diagonalizzante P , che ottengo disponendo semplicemente lungo le colonne gli autovettori, non per forza è ortogonale nonostante A sia simmetrica ?
Dico bene ?
Dici giusto.
ok,quindi nel caso in cui la matrice simile a quella iniziale (che era simmetrica) che ottengo diagnalizzado non sia ortogonale per il teorema spettrale dovrebbe comunque essercene una ortogonale....
Dunque a partire dalla matrice diagonalizzante ricavata(non ortogonale= dovrei essere in grado di trasformarla in una matrice ortogonale??
Ad esempio con il metodo di gram-schmidt che mi permette di costruire una base ortogonale a partire da un insieme di vettori linearmente indipendenti?
grazie
Dunque a partire dalla matrice diagonalizzante ricavata(non ortogonale= dovrei essere in grado di trasformarla in una matrice ortogonale??
Ad esempio con il metodo di gram-schmidt che mi permette di costruire una base ortogonale a partire da un insieme di vettori linearmente indipendenti?
grazie

"xshadow":
Dunque a partire dalla matrice diagonalizzante ricavata(non ortogonale= dovrei essere in grado di trasformarla in una matrice ortogonale?? Ad esempio con il metodo di gram-schmidt che mi permette di costruire una base ortogonale a partire da un insieme di vettori linearmente indipendenti?
Certo, ma il metodo di Gram-Schmidt devi usarlo con saggezza: non è detto che applicando Gram-Schmidt a una base di autovettori per \(A\) si ottiene ancora una base di autovettori.
Considera il metodo seguente:
1. Partiamo (come sopra) da una base \(B = (v_1,\ldots,v_n)\) di autovettori per \(A\).
2. Raggruppiamo i \(v_i\) relativi agli stessi autovalori: in formule, se \(\lambda_1, \ldots, \lambda_k\) sono gli autovalori distinti di \(A\), scriviamo\[ B = B_1 \cup \cdots \cup B_k \]dove \[B_j = \{v \in B \, | \, Av = \lambda_j v\} \qquad j = 1,\ldots,k\]
3. Applichiamo il metodo di Gram-Schmidt separatamente a ciascun insieme \(B_j\) per \(j = 1,\ldots, k\).
Puoi mostrare che la base ottenuta con questo algoritmo a partire da \(B = (v_1,\ldots,v_n)\) è una base ortonormale di autovettori per \(A\), cioè una del tipo che stavi cercando.
se ho ben capito quindi $ B_j $ coincide all'insieme costituito da tutti quegli autovettori che hanno come autovalore corrispondente lo stesso autovalore $ lamda_j $
Dunque avrò tanti insiemi $ B_i $ quanti sono gli autovalori distinti...
Ad ognuno di questi insiemi applico singolarmente il metodo di gram-schmidt e alla fine cosa devo fare?
Una volta che ho applicato il metodo di gram all'interno dei singoli insiemi $ B_i $ (,ognuno dei quali contenenti tutti gli autovettori associati a un come autovalore) prendo questi vettori e li dispongo lungo le colonne di una matrice per avere cosi la matrice $ P $ ortogonale??
Ma devo disporre in colonne TUTTI gli autovettori giusto? nel senso tutti i vettori ortonormalizzati contenuti nei vari sottoinsiemi $ B_i $ giusto?
Grazie
Dunque avrò tanti insiemi $ B_i $ quanti sono gli autovalori distinti...
Ad ognuno di questi insiemi applico singolarmente il metodo di gram-schmidt e alla fine cosa devo fare?
Una volta che ho applicato il metodo di gram all'interno dei singoli insiemi $ B_i $ (,ognuno dei quali contenenti tutti gli autovettori associati a un come autovalore) prendo questi vettori e li dispongo lungo le colonne di una matrice per avere cosi la matrice $ P $ ortogonale??
Ma devo disporre in colonne TUTTI gli autovettori giusto? nel senso tutti i vettori ortonormalizzati contenuti nei vari sottoinsiemi $ B_i $ giusto?
Grazie

"xshadow":
Ma devo disporre in colonne TUTTI gli autovettori giusto? nel senso tutti i vettori ortonormalizzati contenuti nei vari sottoinsiemi Bi giusto?
Certo, se non li metti tutti non ottieni una matrice quadrata

grazie...mi cimenterò in un po' di esercizi allora
ultima cosa: nel caso in cui tutti i sottoinsiemi $ B_j $ contengono 1 SOLO autovettore non avrebbe senso applicare gram schmidt ai singoli sottoinsiemi $ B_j $ visto che sono costituiti da un solo vettore (autovettore)....dunque in quel caso i miei autovettori formano già una matrice ortogonale ( autovettori ricavari sempre a partire da una matrice simmetrica) ? o devo ancora normalizzarli (ma non controllare la loro ortogonalità reciproca visto che sono sottoinsiemi da un elemento)??
grazie ancora
ultima cosa: nel caso in cui tutti i sottoinsiemi $ B_j $ contengono 1 SOLO autovettore non avrebbe senso applicare gram schmidt ai singoli sottoinsiemi $ B_j $ visto che sono costituiti da un solo vettore (autovettore)....dunque in quel caso i miei autovettori formano già una matrice ortogonale ( autovettori ricavari sempre a partire da una matrice simmetrica) ? o devo ancora normalizzarli (ma non controllare la loro ortogonalità reciproca visto che sono sottoinsiemi da un elemento)??
grazie ancora
