Ortogonale similitudine fra matrici antisimmetriche (e simmetriche)
Premessa: supponiamo che il campo sia $RR$
Noi sappiamo per certo che due matrici simmetriche sono simili se e solo se hanno stesso polinomio caratteristico. Se consideriamo invece due matrici antisimmetriche di ordine $2$ sappiamo che sono ortogonalmente simili se e solo se sono uguali, mentre se consideriamo due matrici antisimmetriche di ordine $3$ esse sono ortogonalmente simili se e solo se hanno lo stesso polinomio caratteristico. Ora sorge la domanda: in generale c'è un criterio per stabilire se due matrici antisimmetriche di ordine $n$ sono ortogonalmente simili? Secondo me già da ordine $4$ non esiste questo criterio. Un'altra domanda che mi sorge è: quando è che una matrice antisimmetriche e una simmetrica diverse dalla matrice nulla sono ortogonalmente simili. Per gli ordini $2,3$ si vede facilmente che siccome la matrice simmetrica ha solo autovalori reali mentre la matrice antisimmetrica ha anche autovalori complessi non possono essere simili. Già da ordine $4$ risulta difficile capire se gli autovalori di una matrice antisimmetrica siano tutti reali o ci siano anche quelli complessi, ma comunque credo che in generale una matrice simmetrica e una matrice antisimmetrica non possano mai essere simili. Voi che ne pensate?
Noi sappiamo per certo che due matrici simmetriche sono simili se e solo se hanno stesso polinomio caratteristico. Se consideriamo invece due matrici antisimmetriche di ordine $2$ sappiamo che sono ortogonalmente simili se e solo se sono uguali, mentre se consideriamo due matrici antisimmetriche di ordine $3$ esse sono ortogonalmente simili se e solo se hanno lo stesso polinomio caratteristico. Ora sorge la domanda: in generale c'è un criterio per stabilire se due matrici antisimmetriche di ordine $n$ sono ortogonalmente simili? Secondo me già da ordine $4$ non esiste questo criterio. Un'altra domanda che mi sorge è: quando è che una matrice antisimmetriche e una simmetrica diverse dalla matrice nulla sono ortogonalmente simili. Per gli ordini $2,3$ si vede facilmente che siccome la matrice simmetrica ha solo autovalori reali mentre la matrice antisimmetrica ha anche autovalori complessi non possono essere simili. Già da ordine $4$ risulta difficile capire se gli autovalori di una matrice antisimmetrica siano tutti reali o ci siano anche quelli complessi, ma comunque credo che in generale una matrice simmetrica e una matrice antisimmetrica non possano mai essere simili. Voi che ne pensate?
Risposte
Da un lato, il teorema spettrale (una matrice simmetrica è diagonalizzabile con autovalori reali); dall'altro, una matrice reale è simile a una matrice antisimmetrica se e solo se è diagonalizzabile con autovalori immaginari puri, quindi l'unica matrice simmetrica simile a una antisimmetrica è quella nulla.
"megas_archon":
Da un lato, il teorema spettrale (una matrice simmetrica è diagonalizzabile con autovalori reali); dall'altro, una matrice reale è simile a una matrice antisimmetrica se e solo se è diagonalizzabile con autovalori immaginari puri, quindi l'unica matrice simmetrica simile a una antisimmetrica è quella nulla.
Come fai a dire che ogni matrice antisimmetrica ammette almeno un autovalore complesso (addirittura puro)?
beh, gli autovalori ci sono, al massimo sono complessi; poi se \(\lambda\) è un autovalore di una matrice antisimmetrica e $v$ un autovalore nell'autospazio di \(\lambda\), smanetti per dimostrare che \(\lambda +\bar\lambda = 0\) usando l'antisimmetrica, sicché \(\lambda\in i\mathbb R\).
"megas_archon":
beh, gli autovalori ci sono, al massimo sono complessi; poi se \(\lambda\) è un autovalore di una matrice antisimmetrica e $v$ un autovalore nell'autospazio di \(\lambda\), smanetti per dimostrare che \(\lambda +\bar\lambda = 0\) usando l'antisimmetrica, sicché \(\lambda\in i\mathbb R\).
No vabbe che ci siano autovalori nel campo dei complessi quello sono d'accordo dato che $CC$ è un campo algebricamente chiuso, il fatto era che non potrebbero essere tutti autovalori reali? Perciò si dovrebbe dimostrare che ci sia almeno un autovalore complesso (ovvero non reale).
In teoria se prendo $λin CC$ autovalore non nullo della matrice antisimmetrica $A$ a coefficienti reali, chiamo $v$ l'autovettore, ho $Av=λv$, inoltre poiché $A$ è ha coefficienti reali abbiamo che $\bar λ \bar v=\bar (Av)=A \bar v$. Consideriamo lo scalare $\bar v^T A v=(\bar v^T A v)^T=v^TA^T\bar v$. Si ha quindi:
$\bar v^T Av=λ\bar v^T v$
$v^TA^T\bar v=-v^TA\bar v=-\bar λ v^T \bar v$
Si ha che lo scalare $\bar v^T v=v^T \bar v!=0$ poichè $v,\bar v!=0$ in quanto autovettori, quindi:
$(λ+\bar λ)\bar v^T v=0$ da cui $λ=-\bar λ$ per cui $λ$ è immaginario puro. Quindi una matrice antisimmetrica ha solo autovalori immaginari puri oppure $0$.
Probabilmente faresti bene a leggere questo (clic) (le matrici antisimmetriche sono normali) che implica che le matrici antisimmetriche reali sono diagonalizzabili su $CC$. Quindi direi che è vero, due matrici antisimmetriche reali sono simili se e solo se hanno lo stesso polinomio caratteristico (usando il fatto che matrici reali simili su $CC$ sono simili su $RR$).
"Martino":
Probabilmente faresti bene a leggere questo (clic) (le matrici antisimmetriche sono normali) che implica che le matrici antisimmetriche reali sono diagonalizzabili su $CC$. Quindi direi che è vero, due matrici antisimmetriche reali sono simili se e solo se hanno lo stesso polinomio caratteristico (usando il fatto che matrici reali simili su $CC$ sono simili su $RR$).
E ma io ho detto "ortogonalmente simili" sennò sarei d'accordissimo su quello che hai detto avrei fatto lo stesso. Comunque il fatto che siano sempre diagonalizzabili in $CC$ viene dal fatto che il polinomio caratteristico ha sempre soluzioni distinte come ho mostrato prima poiché sono puri immaginari, giusto?
"andreadel1988":No, viene dal teorema spettrale. Che gli autovalori siano immaginari puri non implica che abbiano molteplicità algebrica uguale a $1$.
il fatto che siano sempre diagonalizzabili in $CC$ viene dal fatto che il polinomio caratteristico ha sempre soluzioni distinte come ho mostrato prima poiché sono puri immaginari, giusto?
"andreadel1988":Ah allora è più complicato ma è vero lo stesso, cercando ho trovato (leggendo qui) il corollario 2.5.14 di Matrix Analysis di Horn e Johnson. Dice che le matrici reali antisimmetriche sono ortogonalmente simili (con matrice di cambio base a coefficienti reali) a matrici a blocchi, con ogni blocco $1 xx 1$ nullo o $2 xx 2$ del tipo $((0,a),(-a,0))$. Non ero a conoscenza di questo risultato, sono abituato a pensare alle matrici antisimmetriche a meno di congruenza (e non similitudine). In ogni caso, questo implica che due matrici reali antisimmetriche sono ortogonalmente simili se e solo se hanno lo stesso polinomio caratteristico.
E ma io ho detto "ortogonalmente simili"
Una cosa che non mi sembra ti sia chiarissima è che la similitudine ortogonale preserva la simmetria e l'antisimmetria.
PS. Se modifichi gli interventi precedenti nessuno riceve la notifica, sarebbe meglio aggiungere una risposta invece.
"Martino":
No, viene dal teorema spettrale. Che gli autovalori siano immaginari puri non implica che abbiano molteplicità algebrica uguale a $1$.
Esiste un teorema spettrale per le matrici antisimmetriche in campo complesso?
"Martino":
Ah allora è più complicato ma è vero lo stesso, cercando ho trovato (leggendo qui) il corollario 2.5.14 di Matrix Analysis di Horn e Johnson. Dice che le matrici reali antisimmetriche sono ortogonalmente simili (con matrice di cambio base a coefficienti reali) a matrici a blocchi, con ogni blocco $1 xx 1$ nullo o $2 xx 2$ del tipo $((0,a),(-a,0))$.
Quindi se io ho una matrice antisimmetrica di ordine dispari cerco l'autovettore relativo a $0$, lo normalizzo e poi rendo gli altri vettori in modo da formare una base ortonormale e in teoria mi esce un blocco 1x1 nullo e gli altri blocchi del tipo $((0,a),(-a,0))$?
Mentre nel caso di una matrice antisimmetrica di ordine pari mi basta trovare una base ortonormale e automaticamente ottengo solo blocchi del tipo $((0,a),(-a,0))$?
E il fatto che poi due matrici antisimmetriche con lo stesso polinomio caratteristico siano ortogonalmente simili è perché le matrici a blocchi che ottengo per entrambe sono uguali proprio perché i polinomi caratteristici sono uguali e poi posso concludere (come avevamo fatto nel caso dell'ordine 3)?
"andreadel1988":No, esistono matrici antisimmetriche complesse non diagonalizzabili (anche se non ce ne sono di troppo ovvie), come per esempio
Esiste un teorema spettrale per le matrici antisimmetriche in campo complesso?
$((0,-1-i,0),(1+i,0,-1+i),(0,1-i,0))$
La sua forma di Jordan è
$((0,1,0),(0,0,1),(0,0,0))$
(Preso da qui).
"andreadel1988":
Quindi se io ho una matrice antisimmetrica di ordine dispari cerco l'autovettore relativo a $0$, lo normalizzo e poi rendo gli altri vettori in modo da formare una base ortonormale e in teoria mi esce un blocco 1x1 nullo e gli altri blocchi del tipo $((0,a),(-a,0))$?
Mentre nel caso di una matrice antisimmetrica di ordine pari mi basta trovare una base ortonormale e automaticamente ottengo solo blocchi del tipo $((0,a),(-a,0))$?
Ma non basta trovare una base ortonormale che contiene un vettore del nucleo, bisogna che sia una base diagonalizzante. Non ti so dare un algoritmo per trovare la base così su due piedi, probabilmente è qualcosa del tipo Gram-Schmidt. Certo che per matrici piccole i conti vengono molto facili, il problema vero è in presenza di matrici molto grandi.
E il fatto che poi due matrici antisimmetriche con lo stesso polinomio caratteristico siano ortogonalmente simili è perché le matrici a blocchi che ottengo per entrambe sono uguali proprio perché i polinomi caratteristici sono uguali e poi posso concludere (come avevamo fatto nel caso dell'ordine 3)?
Se $A$ e $B$ sono matrici reali antisimmetriche $n xx n$ allora possiamo portarle in forma diagonale usando matrici complesse, $P^(-1)AP=D_1$, $Q^(-1)BQ=D_2$, con $D_1,D_2$ diagonali. Se $A$ e $B$ hanno lo stesso polinomio caratteristico allora hanno gli stessi autovalori con le stesse molteplicità, quindi (a meno di coniugare con una matrice di permutazione) possiamo supporre che $D_1=D_2$, da cui $P^(-1)AP=D=Q^(-1)BQ$, segue che definendo $M=PQ^(-1)$ abbiamo $M^(-1)AM=B$ e quindi $A$ e $B$ sono simili per mezzo di una matrice $M$ a coefficienti complessi. Ora usi il fatto che due matrici reali che sono simili su $CC$ sono simili anche su $RR$ (vedi qui) e concludi.
"Martino":
No, esistono matrici antisimmetriche complesse non diagonalizzabili (anche se non ce ne sono di troppo ovvie), come per esempio
$((0,-1-i,0),(1+i,0,-1+i),(0,1-i,0))$
La sua forma di Jordan è
$((0,1,0),(0,0,1),(0,0,0))$
E tu hai detto di usare il teorema spettrale, non ho capito cosa intendevi.
"Martino":
Se $A$ e $B$ sono matrici reali antisimmetriche $n xx n$ allora possiamo portarle in forma diagonale usando matrici complesse, $P^(-1)AP=D_1$, $Q^(-1)BQ=D_2$, con $D_1,D_2$ diagonali. Se $A$ e $B$ hanno lo stesso polinomio caratteristico allora hanno gli stessi autovalori con le stesse molteplicità, quindi (a meno di coniugare con una matrice di permutazione) possiamo supporre che $D_1=D_2$, da cui $P^(-1)AP=D=Q^(-1)BQ$, segue che definendo $M=PQ^(-1)$ abbiamo $M^(-1)AM=B$ e quindi $A$ e $B$ sono simili per mezzo di una matrice $M$ a coefficienti complessi. Ora usi il fatto che due matrici reali che sono simili su $CC$ sono simili anche su $RR$
Si ma io ho detto ortogonalmente simili hahahah

"Martino":
Ma non basta trovare una base ortonormale che contiene un vettore del nucleo, bisogna che sia una base diagonalizzante. Non ti so dare un algoritmo per trovare la base così su due piedi, probabilmente è qualcosa del tipo Gram-Schmidt. Certo che per matrici piccole i conti vengono molto facili, il problema vero è in presenza di matrici molto grandi.
Ma in teoria le matrici antisimmetriche non sono diagonalizzabili in $RR$ quindi non esiste una base diagonalizzante in $RR$ (anche perchè alcuni autovettori sono complessi)
"andreadel1988":Il teorema spettrale nella sua versione più generale, quello sulle matrici normali.
E tu hai detto di usare il teorema spettrale, non ho capito cosa intendevi.
"andreadel1988":Se usi quel teorema che ti ho detto ti riduci a mostrare che se due matrici del tipo $((0,a),(-a,0))$ e $((0,b),(-b,0))$ hanno lo stesso polinomio caratteristico allora sono ortogonalmente simili. Questo è un facilissimo esercizio.
Si ma io ho detto ortogonalmente simili hahahah, rileggi bene il messaggio.
"andreadel1988":Qui non capisco più di cosa parli. Sì non sono diagonalizzabili in $RR$, addirittura non lo sono mai (a meno della matrice nulla), e quindi?
Ma in teoria le matrici antisimmetriche non sono diagonalizzabili in $RR$ quindi non esiste una base diagonalizzante in $RR$ (anche perchè alcuni autovettori sono complessi)
"Martino":
Il teorema spettrale nella sua versione più generale, quello sulle matrici normali.
A ok, io l ho fatto solo per matrici simmetriche in $RR$ non so nemmeno cosa sia una matrice normale ahahha.
"Martino":
Se usi quel teorema che ti ho detto ti riduci a mostrare che se due matrici del tipo $((0,a),(-a,0))$ e $((0,b),(-b,0))$ hanno lo stesso polinomio caratteristico allora sono ortogonalmente simili. Questo è un facilissimo esercizio.
Si infatti è quello che stavo spiegando nel messaggio che ho scritto per vedere se avevo capito bene.
"Martino":
Qui non capisco più di cosa parli. Sì non sono diagonalizzabili in $RR$, addirittura non lo sono mai (a meno della matrice nulla), e quindi?
Tu hai detto che in teoria bisogna cercare una base diagonalizzante per le matrici antisimmetriche e non capisco cosa intendi.
"andreadel1988":Ma come, quando ho scritto che per il teorema spettrale le matrici antisimmetriche sono diagonalizzabili su $CC$ tu hai risposto che concordavi ma che volevi la similitudine ortogonale!
A ok, io l ho fatto solo per matrici simmetriche in $RR$ non so nemmeno cosa sia una matrice normale ahahha.

"Martino":Sì hai ragione, intendevo una matrice che la portasse in quel formato a blocchi $1 xx 1$ nulli o $2 xx 2$ del tipo $((0,a),(-a,0))$. In ogni caso è una base "quasi-diagonalizzante", ovvero trovare una tale base non è tanto diverso dal trovare una base ortogonale diagonalizzante quando esiste.
Tu hai detto che in teoria bisogna cercare una base diagonalizzante per le matrici antisimmetriche e non capisco cosa intendi.
"Martino":
Ma come, quando ho scritto che per il teorema spettrale le matrici antisimmetriche sono diagonalizzabili su $CC$ tu hai risposto che concordavi ma che volevi la similitudine ortogonale!![]()
E ma io pensavo poiché le soluzioni erano tutte distinte del polinomio caratteristico in $CC$ hahahha non pensavo per teorema spettrale.
"Martino":
Sì hai ragione, intendevo una matrice che la portasse in quel formato a blocchi $1 xx 1$ nulli o $2 xx 2$ del tipo $((0,a),(-a,0))$. In ogni caso è una base "quasi-diagonalizzante", ovvero trovare una tale base non è tanto diverso dal trovare una base ortogonale diagonalizzante quando esiste.
Ok, ho capito
Ma non sono tutte distinte. Pensa al caso in cui hai 2 blocchi $2 xx 2$ uguali.
"Martino":
Ma non sono tutte distinte. Pensa al caso in cui hai 2 blocchi $2 xx 2$ uguali.
Ok
"Martino":
No, esistono matrici antisimmetriche complesse non diagonalizzabili (anche se non ce ne sono di troppo ovvie), come per esempio
$((0,-1-i,0),(1+i,0,-1+i),(0,1-i,0))$
La sua forma di Jordan è
$((0,1,0),(0,0,1),(0,0,0))$
(Preso da qui).
Ma guarda un po' che roba. Che sorpresa.
C'è da dire che questo diventa un po' meno sorprendente se si considera che la nozione "naturale" di antisimmetria per una matrice complessa è \(\overline{A}^t=-A\). Al membro sinistro intendo la trasposta e coniugata. Forse dovrei dire che \(A\) è "Antihermitiana". Le matrici antihermitiane sono diagonalizzabili in base ortonormale, perché se \(A\) è antihermitiana allora \(iA\) è hermitiana.
"dissonance":
[quote="Martino"]No, esistono matrici antisimmetriche complesse non diagonalizzabili (anche se non ce ne sono di troppo ovvie), come per esempio
$((0,-1-i,0),(1+i,0,-1+i),(0,1-i,0))$
La sua forma di Jordan è
$((0,1,0),(0,0,1),(0,0,0))$
(Preso da qui).
Ma guarda un po' che roba. Che sorpresa.
C'è da dire che questo diventa un po' meno sorprendente se si considera che la nozione "naturale" di antisimmetria per una matrice complessa è \(\overline{A}^t=-A\). Al membro sinistro intendo la trasposta e coniugata. Forse dovrei dire che \(A\) è "Antihermitiana". Le matrici antihermitiane sono diagonalizzabili in base ortonormale, perché se \(A\) è antihermitiana allora \(iA\) è hermitiana.[/quote]
Sfortunatamente non ancora abbiamo fatto le matrice hermitiane.
"Martino":
Ah allora è più complicato ma è vero lo stesso, cercando ho trovato (leggendo qui) il corollario 2.5.14 di Matrix Analysis di Horn e Johnson. Dice che le matrici reali antisimmetriche sono ortogonalmente simili (con matrice di cambio base a coefficienti reali) a matrici a blocchi, con ogni blocco $1 xx 1$ nullo o $2 xx 2$ del tipo $((0,a),(-a,0))$. Non ero a conoscenza di questo risultato, sono abituato a pensare alle matrici antisimmetriche a meno di congruenza (e non similitudine). In ogni caso, questo implica che due matrici reali antisimmetriche sono ortogonalmente simili se e solo se hanno lo stesso polinomio caratteristico.
Io ho trovato un teorema (10.5.7.) qui: https://www1.mat.uniroma1.it/people/man ... ineare.pdf a pagina 240 del PDF, che sfrutta le matrici normalizzate e ti spiega anche come trovare la base.