Diagonalizzazione e ortogonalità

tommaso.diegoli
Ciao a tutti, ho una prova di geometria a breve e mi sfugge questa cosa.
Abbiamo fatto il teorema spettrale e ci siamo soffermati sul fatto che ogni matrice simmetrica ammette una base ortonormale formata da suoi autovettori. Quello che non capisco è perché abbiamo specificato questa cosa? Nel senso, non bastava dire che qualsiasi matrice simmetrica è diagonizzabile?
Anche perché qualsiasi matrice diagonalizzabile permette di creare una base ortogonale e ortonormale formata da suoi autovettori, no?

Risposte
dissonance
No. Esistono matrici che sono diagonalizzabili, ma non rispetto ad una base ortonormale.

ogni matrice permette di costruire una base ortonormale di autovettori

Questo è falso. Prendi per esempio una matrice 2x2 avente autovettori \((1, 0)\) e \((1, 1)\), che NON sono ortogonali, relativi ad autovalori differenti. I due autospazi non sono ortogonali e non c'è modo di fare quello che suggerisci. Esempio concreto:
\[\begin{bmatrix} 1 &-1 \\ 0 & 0\end{bmatrix}.\]

tommaso.diegoli
"dissonance":
No. Esistono matrici che sono diagonalizzabili, ma non rispetto ad una base ortonormale.

ogni matrice permette di costruire una base ortonormale di autovettori

Questo è falso. Prendi per esempio una matrice 2x2 avente autovettori \((1, 0)\) e \((1, 1)\), che NON sono ortogonali, relativi ad autovalori differenti. I due autospazi non sono ortogonali e non c'è modo di fare quello che suggerisci. Esempio concreto:
\[\begin{bmatrix} 1 &-1 \\ 0 & 0\end{bmatrix}.\]


Mmhh non riesco a capire. Anche nell'esempio che mi hai fatto tu non basterebbe ortogonalizzare i due vettori e poi renderli ortonormali? Non è questo il procedimento? In questo modo non si trova una base ortonormale formata da autovettori oppure il problema è che ortogonalizzandoli possono non essere più autovettori?

dissonance
Prova a farlo. Applica Gram Schmidt ai due autovettori di quella matrice. Che cosa ottieni? I due vettori che hai ottenuto sono autovettori?

tommaso.diegoli
"dissonance":
Prova a farlo. Applica Gram Schmidt ai due autovettori di quella matrice. Che cosa ottieni? I due vettori che hai ottenuto sono autovettori?

Allora ortonormalizzando $(1,1)$ e $(1,0)$ mi vengono $(1/sqrt(2),1/sqrt(2))$ e $(sqrt(2)/2,-sqrt(2)/2)$ che appartengono allo span dei primi due e quindi dovrebbero essere ancora autovettori no?

Bokonon
"Tommaso99":

Allora ortonormalizzando $(1,1)$ e $(1,0)$ mi vengono $(1/sqrt(2),1/sqrt(2))$ e $(sqrt(2)/2,-sqrt(2)/2)$ che appartengono allo span dei primi due e quindi dovrebbero essere ancora autovettori no?

$(1,1)$ e $(1/sqrt(2),1/sqrt(2))$ vanno bene, perchè puoi allungaree accorciare $(1,1)$ a piacimento e il vettore risultante si troverà ancora nel medesimo span. Quindi anche $(1/sqrt(2),1/sqrt(2))$ è un autovettore di $lambda=0$.

$(1,0)$ invece è l'autovettore relativo a $lambda=1$ infatti $ ( ( 1 , -1 ),( 0 , 0 ) ) ( ( 1 ),( 0 ) )=1* ( ( 1 ),( 0 ) ) $
come da definizione $Ax=lambdax$

Ora prova (come ti ha chiesto dissonance) a fare $ ( ( 1 , -1 ),( 0 , 0 ) ) ( ( sqrt(2)/2 ),( -sqrt(2)/2 ) )=?* ( ( 1 ),( 0 ) ) $
Questo autovettore è ancora relativo all'autovalore 1 o no?

tommaso.diegoli
"Bokonon":
[quote="Tommaso99"]
Allora ortonormalizzando $(1,1)$ e $(1,0)$ mi vengono $(1/sqrt(2),1/sqrt(2))$ e $(sqrt(2)/2,-sqrt(2)/2)$ che appartengono allo span dei primi due e quindi dovrebbero essere ancora autovettori no?

$(1,1)$ e $(1/sqrt(2),1/sqrt(2))$ vanno bene, perchè puoi allungaree accorciare $(1,1)$ a piacimento e il vettore risultante si troverà ancora nel medesimo span. Quindi anche $(1/sqrt(2),1/sqrt(2))$ è un autovettore di $lambda=0$.

$(1,0)$ invece è l'autovettore relativo a $lambda=1$ infatti $ ( ( 1 , -1 ),( 0 , 0 ) ) ( ( 1 ),( 0 ) )=1* ( ( 1 ),( 0 ) ) $
come da definizione $Ax=lambdax$

Ora prova (come ti ha chiesto dissonance) a fare $ ( ( 1 , -1 ),( 0 , 0 ) ) ( ( sqrt(2)/2 ),( -sqrt(2)/2 ) )=?* ( ( 1 ),( 0 ) ) $
Questo autovettore è ancora relativo all'autovalore 1 o no?[/quote]

Vero, sono stupido io, bastava anche vedere che non apparteneva allo span di $(1,0)$ vero? (Perchè $(1,0)$ è base di quell'autospazio).
Quindi ora mi chiedo c'è un modo a priori di capire se una matrice è ortonormalmente diagonalizzabile senza andare a fare tutti questi pasaggi? Oppure invece le uniche matrici orton. diagonalizzabili sono le simmetriche?

Bokonon
"Tommaso99":
bastava anche vedere che non apparteneva allo span di $(1,0)$ vero?

Esatto :smt023

"Tommaso99":

Quindi ora mi chiedo c'è un modo a priori di capire se una matrice è ortonormalmente diagonalizzabile senza andare a fare tutti questi pasaggi? Oppure invece le uniche matrici orton. diagonalizzabili sono le simmetriche?

Domanda interessante.
Ci chiediamo se una matrice generica diagonalizzabile $A=PDP^(-1)$ possa avere una matrice P composta da autovettori due a due ortogonali.
Se così fosse allora potremmo normalizzare/riscalare i singoli autovettori che la compongono e sarebbero ancora autovettori di D.
Quindi $A=QDQ^(-1)$ dove Q è ortonormale ovvero gode della proprietà $Q^(-1)=Q^T$
Quindi $A^T=[QDQ^(-1)]^T=[QDQ^(T)]^T=QD^TQ^(T)=QDQ^(-1)=A$
Quindi $A^T=A$ ovvero A è simmetrica.

tommaso.diegoli
"Bokonon":
[quote="Tommaso99"]bastava anche vedere che non apparteneva allo span di $(1,0)$ vero?

Esatto :smt023

"Tommaso99":

Quindi ora mi chiedo c'è un modo a priori di capire se una matrice è ortonormalmente diagonalizzabile senza andare a fare tutti questi pasaggi? Oppure invece le uniche matrici orton. diagonalizzabili sono le simmetriche?

Domanda interessante.
Ci chiediamo se una matrice generica diagonalizzabile $A=PDP^(-1)$ possa avere una matrice P composta da autovettori due a due ortogonali.
Se così fosse allora potremmo normalizzare/riscalare i singoli autovettori che la compongono e sarebbero ancora autovettori di D.
Quindi $A=QDQ^(-1)$ dove Q è ortonormale ovvero gode della proprietà $Q^(-1)=Q^T$
Quindi $A^T=[QDQ^(-1)]^T=[QDQ^(T)]^T=QD^TQ^(T)=QDQ^(-1)=A$
Quindi $A^T=A$ ovvero A è simmetrica.[/quote]

Quindi se non ho capito male il fatto che sia simmetrica è condizione sia suff che nec giusto?

Bokonon
"Tommaso99":

Quindi se non ho capito male il fatto che sia simmetrica è condizione sia suff che nec giusto?

Perfavore, non quotare tutto.
Prova a risolvere il quesito che ho posto in questo thread :D
viewtopic.php?f=37&t=196948

tommaso.diegoli
Scusami! Mi sfugge il concetto di endomorfismo quindi non saprei come muovermi...

Bokonon
"Tommaso99":
Scusami! Mi sfugge il concetto di endomorfismo quindi non saprei come muovermi...

Non farci caso è irrilevante.
Trova la matrice a partire da quelle informazioni.
P.S. Il concetto è che se è simmetrica allora gli autovettori relativi ad autospazi diversi sono ortogonali. E se effettivamente troverai una matrice di autovettori che soddisfi il requisito, verrà fuori simmetrica.

tommaso.diegoli
Scusa ma non capisco, devo risolvere il tuo quesito oppure quello del primo utente? Perchè nel tuo il concetto è fondamentale :)

dissonance
[ot]Sottolineo che, naturalmente, qui stiamo parlando del caso di matrici reali, con autovalori reali. Nel caso complesso la situazione è un pochino più complicata e bisogna introdurre il concetto di "matrice normale".[/ot]

Bokonon
[ot]
"dissonance":
Sottolineo che, naturalmente, qui stiamo parlando del caso di matrici reali, con autovalori reali. Nel caso complesso la situazione è un pochino più complicata e bisogna introdurre il concetto di "matrice normale".

Grazie della precisazione :)
Per la verità avevo specificato anch'io che si parlava del campo reale nella prima dimostrazione in cui usavo le skew e le sym...poi (pacca sulla testa) ho realizzato che potevo dimostrare la cosa in modo assai più semplice...[/ot]

Bokonon
"Tommaso99":
Scusa ma non capisco, devo risolvere il tuo quesito oppure quello del primo utente? Perchè nel tuo il concetto è fondamentale :)

Beh risolvi entrambi "i punti"
Dai che è facilissimo!

tommaso.diegoli
"dissonance":
[ot]Sottolineo che, naturalmente, qui stiamo parlando del caso di matrici reali, con autovalori reali. Nel caso complesso la situazione è un pochino più complicata e bisogna introdurre il concetto di "matrice normale".[/ot]

Sisi abbiamo fatto solo queste, comunque non so perchè dice che l'ho contrassegnato come fuori tema, non ho fatto nulla

tommaso.diegoli
"Bokonon":
[quote="Tommaso99"]Scusa ma non capisco, devo risolvere il tuo quesito oppure quello del primo utente? Perchè nel tuo il concetto è fondamentale :)

Beh risolvi entrambi "i punti"
Dai che è facilissimo![/quote]
Allora nel primo punto basterebbe dimostrare che m1 +m3 faccia 3 però mi fermo dopo aver calcolato m1 che è 2 e non so più andare avanti.
Per quanto riguarda il tuo quesito non so cosa sia un endomorfismo quindi non so cosa devo trovare :-D

Bokonon
"Tommaso99":

Allora nel primo punto basterebbe dimostrare che m1 +m3 faccia 3 però mi fermo dopo aver calcolato m1 che è 2 e non so più andare avanti.
Per quanto riguarda il tuo quesito non so cosa sia un endomorfismo quindi non so cosa devo trovare :-D

Dimentica che ho scritto quel "parolone", è irrilevante. Eliminalo dalla testa.

L'esercizio dice che l'autovalore 1 è associato ad un autospazio che è un piano. Quindi ha dimensione 2.
Tradotto: due radici coincidenti $lambda_1=lambda_2=1$ e si può trovare una base di due autovettori per quel piano, no?

Poi c'è un altro autovalore $lambda_3=3$. Se è un autovalore allora la matrice $(A-3I)$ è singolare ed avrà un kernel con dimensione uno. Perchè? Perchè la molteplicità geometrica è sempre minore o uguale a quella algebrica...MAI maggiore!
Quindi da $(A-3I)$ potremo ricavare esattamente un autovettore.

Totale molteplicità algebrica 3=molteplicità geometrica. Ergo la matrice è diagonalizzabile.

Il passo successivo è derivarla...abbiamo la matrice diagonale $ D=( ( 1 , 0 , 0 ),( 0 , 1 , 0 ),( 0 , 0 , 3 ) ) $
Cominciamo trovando due autovettori qualsiasi del piano $x+y+2z=0$ da associare all'autovalore 1

tommaso.diegoli
"Bokonon":

L'esercizio dice che l'autovalore 1 è associato ad un autospazio che è un piano. Quindi ha dimensione 2.
Tradotto: due radici coincidenti $lambda_1=lambda_2=1$ e si può trovare una base di due autovettori per quel piano, no?

Mi son perso completamente, allora in questa riesco a trovare dimensione e basi formati dai due autovettori però non riesco a capire perchè i due lambda sono coincidenti e sono uguali a 1
"Bokonon":

Poi c'è un altro autovalore $lambda_3=3$. Se è un autovalore allora la matrice $(A-3I)$ è singolare ed avrà un kernel con dimensione uno. Perchè? Perchè la molteplicità geometrica è sempre minore o uguale a quella algebrica...MAI maggiore!
Quindi da $(A-3I)$ potremo ricavare esattamente un autovettore.

Qui invece non riesco a capire come facciamo a dire che la molt alg è 1...

Bokonon
"Tommaso99":

Mi son perso completamente, allora in questa riesco a trovare dimensione e basi formati dai due autovettori però non riesco a capire perchè i due lambda sono coincidenti e sono uguali a 1

Semplifichiamo.
Ad ogni autovalore può essere associato al massimo un solo autovettore (vedi $lambda=3$).
Tre autovalori distinti danno tre autovettori, ok?
Se vi sono due autovalori coincidenti, al massimo si trovano due autovettori. Nel caso peggiore solo uno e allora la matrice non è diagonalizzabile.
Il problema dice che all'autovalore 1 è associato un autospazio che è un piano. Quindi ha dimensione 2.
Può $lambda=1$ essere una radice singola ed avere due autovettori? No. Quindi $lambda=1$ sono due radici coincidenti.

Esiste un teorema da qualche parte che ti dimostra che per n autovalori puoi trovare al massimo n autovettori.
Quindi se k autovalori di questi n sono tutte radici coincidenti, puoi trovare (se ti va grassa) k autovettori associati.
Altrimenti la matriceè difettiva, ovvero non diagonalizzabile (secondo i metodi standard, poi puoi sempre metterla in forma canonica di Jordan con gli autovettori generalizzati ma questo è un altro discorso).

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.