Diagonalizzazione, autovalori e autovettori

SteezyMenchi
Allora stavo rivedendo alcuni esercizi svolti in classe e mi sono imbattuto in un semplice esercizio sulla diagonalizzazione di una matrice, tuttavia c'è una domanda a cui non saprei rispondere in maniera formale
Si consideri la matrice
$A=|(1,0,1),(0,1,0),(1,0,1)|$.Determinare autovalori, autovettori e stabilire se è diagonalizzabile. Ciò implica che $A^2, A^3,...A^n$ sono diagonalizzabili?
Allora, col senno di poi e dopo aver studiato il teorema spettrale, posso subito dire che la matrice è diagonalizzabile perché simmetrica reale. Mi son calcolato autovalori e autovettori e la base di autovettori che diagonalizza A;
Allora lo spettro di A è $sp(A)={0,1,2}$ e gli autospazi corrispondenti sono $V_0=|(-1,),(0),(1)|, V_1=|(0),(1),(0)|, V_2=|(1)(0),(1)|$ e quindi la se chiamo $C$ la matrice che ha per colonne gli autovettori di $A$ allora $C^-1AC=D$, dove $D=|(\lambda_0,0,0), (0,\lambda_1,0), (0,0,\lambda_2)|$
Allora fin qui tutto bene ovviamente. Allora non capisco come faccio a rispondere alla seconda domanda in maniera formale. Io ho provato a fare qualche calcolo e ho notato che $sp(A^2)={0,1,4}, sp(A^3)={0,1,8}$ però gli autovettori non variano mentre gli autovalori ovviamente sì e quindi ho dedotto che $A^2,..A^n$ sono anch'esse diagonalizzabili. Io ho pensato questo:
Siccome una matrice è diagonalizzabile se è simile ad una matrice diagonale, e siccome la mia matrice è simmetrica anche le $A^2$,... ecc saranno simmetriche(questo non lo so dimostrare però è abbastanza evidente credo). Inoltre essa è a coefficienti reali pertanto per il teorema spettrale essa può essere sempre diagonalizzata e da ciò segue la mia tesi. Tuttavia ai tempi ancora non conoscevamo il teorema spettrale e quindi non vi saprei trovare un'altra dimostrazione.
Voi avete qualche idea (in ogni caso credo che la risposta poggi sul fatto che gli autovettori restano invariati però non ne sono sicuro). Grazie a chi risponderà

Risposte
Bokonon
Ok, per prima cosa ti insegno un paio di trucchi che a livello pratico potrai trovare utili per determinare autovalori e autovettori durante un esame.
Noterai che la colonna centrale della matrice ha solo l'elemento sulla diagonale diverso da zero.
Questo significa che se moltiplico la matrice per (0,1,0) otterrò esattamente la colonna centrale.
In questo caso resta inalterata, quindi il vettore (0,1,0) è un autovettore e l'autovalore è pari a 1.
Se la colonna centrale fosse stata (0,a,0), allora moltiplicando la matrice per (0,1,0), otterrei appunto (0,a,0)=a(0,1,0) quindi l'autovettore è sempre quello ma l'autovalore è a.
Riflettici un poco.

Poi noterai anche che la prima riga/colonna è una combinazione lineare della terza riga/colonna della matrice.
Pertanto già sappiamo che la matrice è singolare e che avrà un autovalore pari a 0...e per azzerare la prima riga basta un vettore (a,0,-a)=a(1,0,-1) quindi a=1 va benissimo ed è un autovettore.

Sappiamo che la somma degli autovalori è pari alla traccia della matrice, quindi l'ultimo autovalore è pari a $2!=0$, quindi l'autospazio legato all'autovalore $0$ (di cui sopra) ha davvero solo dimensione 1 e ne abbiamo già trovato una base completa. Poi sostituendo $lambda=2$ nella matrice $A-lambdaI$ ci ricaviamo il terzo autovettore dalla soluzione del solito sistema omogeneo.

Insomma, puoi risparmiarti un sacco di calcoli anche solo fissando la matrice per qualche secondo.
(Poi nel compito scrivi il polinomio caratteristico e blah blah blah...ma i conti li avrai fatti corretti in pochi istanti).

Riguardo la domanda principale, trovo che non insegnare anche il calcolo matriciale sia un delitto.
Talvolta (spesso) rende le dimostrazioni praticamente banali (per il medesimo motivo che hai trovato "banale" notare che il prodotto di vettori di $A^TA$ ha le norme dei vettori sulla diagonale).

Io userò le matrici, quindi abbiamo la classica decomposizione di una matrice simmetrica per cui $A=QDQ^T$
Dove $Q$ è una matrice ortonormale, ovvero $Q Q^(-1)=Q Q^T=I$.
Mentre $D$ è una matrice diagonale che contiene gli autovalori.

Ora, $A^2=A A=QDQ^TQDQ^T=QD^2Q^T$ e per induzione $A^n=QD^nQ^T$
Morale: $A^n$ è una matrice diagonalizzabile, avente i medesimi autovettori di A e come autovalori i medesimi autovalori di A elevati alla n-esima potenza.

SteezyMenchi
Riguardo la prima osservazione, stavo facendo alcuni calcoli e ho notato che se una matrice quadrata ha una colonna la cui unica entrata $a_(ij)!=0$ la si ha per $i=j$ allora quella colonna avrà come autovettore proprio il vettore $v=|(0),(1),(0)|$ però autovalore pari al valore di $a_(ij)$ (a meno che come in questo caso il valore sia proprio $1$). Grazie per avermelo fatto osservare.
Per quanto riguarda la seconda osservazione, hai usato le numerose proprietà del determinante, ovvero:
il determinante di una matrice singolare è nullo, oppure se il determinante è nullo allora la matrice ha righe o colonne lin. dipendenti (o nel nostro caso si può osservare che riducendo a scala il 3°pivot sarebbe nullo). E siccome, se ricordo bene, il determinante è anche uguale al prodotto degli autovalori, se la matrice è singolare, allora $det=0$ e dunque almeno uno dei $\lambda_i=0$.
Il terzo ho capito come trovarlo;
Riguardo la dimostrazione, chiarissima e molto semplice e veloce, per quale motivo chiami le matrici ortogonali ortonormali? é una svista oppure è lecito? Io pensavo ci si riferisse a matrice ortogonale ma non matrice ortonormale (al massimo base) però la definizione che hai usato è proprio quella di matrice ortogonale perciò suppongo siano interscambiabili (a meno di una svista).
Bokonon non penso ci sia più bisogno che ti ringrazi, ma sappi che praticamente tu, @anonymous_0b37e9 e Jeos mi siete stati di grande aiuto nell'affrontare lo studio dell'algebra lineare. Purtroppo una dei miei punti deboli è il ragionare meccanicamente, attraverso algoritmi e cose simili, spesso senza mettere a frutto tutte le cose studiate e imparate (c'è da dire che son solo pochi mesi che studio tutto ciò perciò non ho ancora un occhio esperto come il tuo), però ci lavorerò

Bokonon
"SteezyMenchi":

Per quanto riguarda la seconda osservazione, hai usato le numerose proprietà del determinante, ovvero:
il determinante di una matrice singolare è nullo, oppure se il determinante è nullo allora la matrice ha righe o colonne lin. dipendenti (o nel nostro caso si può osservare che riducendo a scala il 3°pivot sarebbe nullo). E siccome, se ricordo bene, il determinante è anche uguale al prodotto degli autovalori, se la matrice è singolare, allora $det=0$ e dunque almeno uno dei $\lambda_i=0$.

Quello che hai scritto è tutto corretto ma, se vogliamo dare un ordine di importanza alla catena del ragionamento, allora dobbiamo riferirci a $det[A-lambdaI]=0$
Se $A$ è una matrice non singolare, allora stiamo cercando dei valori $lambda$ tali che $A-lambdaI$ sia singolare...e il suo kernel (che avrà dimensione $>0$) sarà l'autospazio collegato all'autovalore $lambda$.
Se $A$ è una matrice singolare significa che ha già un kernel non banale e sarà l'autospazio collegato all'autovalore $A-0*I=A$, quindi zero (senza sapere ancora la dimensione dell'autospazio).
Il mio intento era appunto tenere il discorso sui "trucchi", il più generale possibile. Fondamentalmente, se ti danno una matrice 10x10 e vedi a occhio nudo che una colonna è combinazione lineare di una o più colonne puoi già decretare che un autovalore è pari a 0.
Sapendo che il rango di una matrice è uguale al rango della trasposta, se non vedi connessioni immediate fra le colonne, allora guarda anche per righe...magari trovi una combinazione lineare evidente. E anche in questo caso potrai decretare che un autovalore è 0.
Anzi, estendendo il primo "trucco" anche alle righe, se vedi una riga con tutti zeri eccetto che la componente sulla diagonale, puoi decretare che quello è un autovalore. Questo perchè $A$ e $A^T$ hanno i medesimi autovalori...ma diversi autovettori. Coincidono solo se $A=A^T$, ovvero se la matrice è simmetrica.
Quindi la differenza è che stavolta possiamo identificare solo l'autovalore e non anche IL/UNO degli autovettori collegati a questo autovalore.

E' chiaro che "nessuno nasce imparato" e collegare la teoria con dei ragionamenti richiede comunque un certo ammontare di riflessione/tempo. Come hai scritto, hai iniziato da poco, non hai nulla da rimproverarti.

Riguardo il discorso matrice ortogonale e ortonormale....è una mia fisima. Anzi, per la verità, è una fisima condivisa da moltissimi docenti di algebra lineare. Perchè mai non distinguere fra una matrice di rotazione e stretching=cambio di scala degli assi (il che include anche numeri negativi, ovvero riflessioni di uno o più assi (questa è una matrice generica che ha colonne due a due ortogonali ma non normalizzate) da una matrice di pura rotazione che invece mantiene inalterata la scala e il verso degli assi? Non sarebbe meglio chiamare quest'ultima matrice ortonormale?
L'utilità di questa distinzione è evidente in diversi contesti: per esempio nell'altro thread che stai seguendo, il teorema di Sylvester richiede, in generale, una base ortogonale e non una ortonormale per arrivare alla forma standard. La distinzione mi tornerà assai utile quando scriverò l'ultimo post in quel thread per spiegare la "visione geometrica" del metodo per arrivare alla segnatura...e il significato di segnatura stessa come invariante.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.