Dimostrazione algebra lineare
Salve, ho trovato questo esercizio tra quelli proposti dai miei insegnanti:
sia M una matrice invertibile, si dimostri che M = PS con S matrice simmetrica e P matrice ortogonale. (Campo Reale)
Qualcuno può darmi l'imput per partire? Stavo pensando che per il teorema spettrale posso trovare una base che mi rende P diagonale ed S pure, però non so cosa succede con M. Ma non vado da nessuna parte. Grazie!
sia M una matrice invertibile, si dimostri che M = PS con S matrice simmetrica e P matrice ortogonale. (Campo Reale)
Qualcuno può darmi l'imput per partire? Stavo pensando che per il teorema spettrale posso trovare una base che mi rende P diagonale ed S pure, però non so cosa succede con M. Ma non vado da nessuna parte. Grazie!
Risposte
Ok forse ho avuto l'idea geniale:
M = PS
Dato che M è invertibile:
$Id = MS^-1P^t$ (ho moltiplicato per l'inversa di M e poi fatto l'inversa generale, che si può fare visto che S è simmetrica quindi invertibile, P è ortogonale, M è invertibile)
ma d'altra parte
$Id = ^tM^-1 S P^t $ (qui ho moltiplicato a destra per l'inversa di M e fatto la trasposta)
quindi posso scrivere
$^tM^-1 S P^t = MS^-1P^t$ moltiplicando a desrta per $P$
$^tM^-1 S = M S^-1$
ovvero:
$^tM M = S^2$
Ora posso provare a dimostrare che questa uguaglianza vale, e credo di averlo fatto un esercizio fa. infatti la matrice al primo membro è simmetrica e definita positiva
($^tx ^tM M x = (Mx)^t Mx = y^t y > 0$ sempre per y non nullo)
ora S è definita positiva ed è simmetrica, M pure, devo provare che $S^2 = A$ con A definita positiva e simmetrica.
Vabbè ma so che A è diagonalizzabile, in quanto simmetrica, e che tutti gli autovalori son positivi, in quanto positiva, allora è fatta, Impongo che S sia quella matrice che in quella base è diagonale con sulla diagonale le radici degli autovalori di A. Che ne dite?
M = PS
Dato che M è invertibile:
$Id = MS^-1P^t$ (ho moltiplicato per l'inversa di M e poi fatto l'inversa generale, che si può fare visto che S è simmetrica quindi invertibile, P è ortogonale, M è invertibile)
ma d'altra parte
$Id = ^tM^-1 S P^t $ (qui ho moltiplicato a destra per l'inversa di M e fatto la trasposta)
quindi posso scrivere
$^tM^-1 S P^t = MS^-1P^t$ moltiplicando a desrta per $P$
$^tM^-1 S = M S^-1$
ovvero:
$^tM M = S^2$
Ora posso provare a dimostrare che questa uguaglianza vale, e credo di averlo fatto un esercizio fa. infatti la matrice al primo membro è simmetrica e definita positiva
($^tx ^tM M x = (Mx)^t Mx = y^t y > 0$ sempre per y non nullo)
ora S è definita positiva ed è simmetrica, M pure, devo provare che $S^2 = A$ con A definita positiva e simmetrica.
Vabbè ma so che A è diagonalizzabile, in quanto simmetrica, e che tutti gli autovalori son positivi, in quanto positiva, allora è fatta, Impongo che S sia quella matrice che in quella base è diagonale con sulla diagonale le radici degli autovalori di A. Che ne dite?
scrivo per capire i passaggi che hai fatto:
Ipotizziamo che esista $P$ ed $S$ tali che $M=PS$. Allora $I=MS^{-1}P^t=>$ moltiplicando per $PSM^{-1}$ otteniamo $I=PSM^{-1}$ e trasponendo, sapendo che $S=S^t$ otteniamo $I={M^{-1}}^tSP^t$.
allora deve valere che
$I=MS^{-1}P^t
$I={M^{-1}}^tSP^t$ ovvero $MS^{-1}P^t={M^{-1}}^tSP^t<=>MS^{-1}={M^{-1}}^tS<=>M={M^{-1}}^tS^2$. Tenendo presente che ${M^{-1}}^t={M^{t}}^{-1}$ in quanto è invertibile. Otteniamo $M^tM=S^2$.
Poniamo $A=M^tM$, abbiamo che $A=A^t$ e $A>0$ (cioè definita positiva). Inoltre $S^2=S^tS$ che per lo stesso motivo sarà una matrice $B$ simmetrica e definita positiva.
Sia quindi $beta$ la base che diagonalizza $A$.
Allora poniamo $S=sqrt(A)$ ovvero la matrice che ha come autovalori le radici quadrate degli autovalori di $A$.
c'è una cosa che vale la pena sottolinearee: se cambi base e torni a quella iniziale, chi ti assicura che $S$ sia ancora simmetrica? In quanto il risultato deve valere a prescindere dalla base.
Ovviamente se $N$ è il cambio di base che porta a essere $A$ diagonale (cioè $D=N^{-1}AN$}), allora anche nel cambio opposto $A$ torna simmetrica (in quanto si torna al punto di partenza). La piccola cosa che rimane da fare è vedere se questo stesso cambio di base opposto rimanda $S$ in una matrice simmetrica. Cioè che $NSN^{-1}$ è smmetrica.
Questo è vero, basta pensare a come puoi ottenere la matrice del cambio di base se $A$ è simmetrica e definita positiva. Ovvero la base $beta$ non è altro che la base di autovettori (teorema spettrale) e quindi $N$ è una matrice ortogonale, quindi $NSN^{-1}=NSN^t$ fine.
Concordi?
Ipotizziamo che esista $P$ ed $S$ tali che $M=PS$. Allora $I=MS^{-1}P^t=>$ moltiplicando per $PSM^{-1}$ otteniamo $I=PSM^{-1}$ e trasponendo, sapendo che $S=S^t$ otteniamo $I={M^{-1}}^tSP^t$.
allora deve valere che
$I=MS^{-1}P^t
$I={M^{-1}}^tSP^t$ ovvero $MS^{-1}P^t={M^{-1}}^tSP^t<=>MS^{-1}={M^{-1}}^tS<=>M={M^{-1}}^tS^2$. Tenendo presente che ${M^{-1}}^t={M^{t}}^{-1}$ in quanto è invertibile. Otteniamo $M^tM=S^2$.
Poniamo $A=M^tM$, abbiamo che $A=A^t$ e $A>0$ (cioè definita positiva). Inoltre $S^2=S^tS$ che per lo stesso motivo sarà una matrice $B$ simmetrica e definita positiva.
Sia quindi $beta$ la base che diagonalizza $A$.
Allora poniamo $S=sqrt(A)$ ovvero la matrice che ha come autovalori le radici quadrate degli autovalori di $A$.
c'è una cosa che vale la pena sottolinearee: se cambi base e torni a quella iniziale, chi ti assicura che $S$ sia ancora simmetrica? In quanto il risultato deve valere a prescindere dalla base.
Ovviamente se $N$ è il cambio di base che porta a essere $A$ diagonale (cioè $D=N^{-1}AN$}), allora anche nel cambio opposto $A$ torna simmetrica (in quanto si torna al punto di partenza). La piccola cosa che rimane da fare è vedere se questo stesso cambio di base opposto rimanda $S$ in una matrice simmetrica. Cioè che $NSN^{-1}$ è smmetrica.
Questo è vero, basta pensare a come puoi ottenere la matrice del cambio di base se $A$ è simmetrica e definita positiva. Ovvero la base $beta$ non è altro che la base di autovettori (teorema spettrale) e quindi $N$ è una matrice ortogonale, quindi $NSN^{-1}=NSN^t$ fine.
Concordi?
Ma scusate, chi mi dice che una matrice simmetrica è invertibile?
Se la mia osservazione nun c'entra niente, sgridatemi pure.

Se la mia osservazione nun c'entra niente, sgridatemi pure.

@ Fu^2: Perfetto, hai capito perfettamente, ti ringrazio per aver controllato la validità della dimostrazione
@ Amel: Hai ragione, non tutte le matrici simmetriche sono invertibili, basti il caso di una matrice quadrata due per due con tutti gli elementi uguali a 1. Ciò nonostante, nelle ipotesi iniziali ho "Sia M una matrice invertibile". Se M è invertibile, ed è un prodotto di matrici, allora anche le due matrici devono essere invertibili, infatti $DetM = det(PS) = DetP DetS$, e dovendo essere il determinante di M diverso da 0 allora si ha che necessariamente il determinante di S è non nullo. Quindi forse è vero, dovevamo scrivere come premessa che ci saremmo ridotti a considerare solo il caso di matrici simmetriche invertibili. Errore mio, grazie per la correzione.
@ Amel: Hai ragione, non tutte le matrici simmetriche sono invertibili, basti il caso di una matrice quadrata due per due con tutti gli elementi uguali a 1. Ciò nonostante, nelle ipotesi iniziali ho "Sia M una matrice invertibile". Se M è invertibile, ed è un prodotto di matrici, allora anche le due matrici devono essere invertibili, infatti $DetM = det(PS) = DetP DetS$, e dovendo essere il determinante di M diverso da 0 allora si ha che necessariamente il determinante di S è non nullo. Quindi forse è vero, dovevamo scrivere come premessa che ci saremmo ridotti a considerare solo il caso di matrici simmetriche invertibili. Errore mio, grazie per la correzione.
ma alla fine $P$ chi è? (se rompo non rispondete)
è una matrice ortogonale (le matrici ortogonali sono quelle matrici tali che la loro trasposta coincide con la loro inversa).
intendevo come viene definita alla fine nella prova

la funzione di $P$ non è altro che una matrice di permutazione per aggiustare le cose ($S$ la produci in maniera diagonale, se $M$ è antidiagonale poi devi permutare) con al massimo la segnatura cambiata.
Ho tempo da buttare prima di uscire, quindi facciamo un bell'esempio
Sia $M=[(0 ,1),(2 ,0)]$ allora $A=M^tM=[(4, 0),(0,1)]$. La ricetta dice di prendere $S=sqrt(A)$, ad esempio possiamo scegliere $S=[(2,0),(0,1)]$. Allora $|det(S)|=|det(M)|$ e $P=MS^{-1}=[(0,1),(1,0)]$.
Vale l'ugualianza $M=PS$ con $P$ una rotazione. Se sceglievo diversamente il segno degli autovalori allora potremo pesare (con abuso di notazione) a $barS=TS$ dove $T$ è l'identità con segni cambiati a come abbiamo scelto noi le cose (una matrice di signatura), quindi $T^2=I$
Allora avremo che $M=PTS$ se notiamo che $TP=Q$ ortogonale avremo sempre $Q=MS^{-1}$ e le cose funzionano ancora.
-------------
Alla fine della prova, essendo che in generale $|det(S)|=|det(M)|$ la possiamo definire come $P=M*S^{-1}$.
allora $P^t=S^{-1}M^t=>P*P^t=M*S^{-1}*S^{-1}M^t=M*A^{-1}*M^t=M*(M^tM)^{-1}M^t=M*M^{-1}*(M^t)^{-1}*M^t=I$ e quindi $P$ è ortogonale.
dove $A=M^tM=S^2$ nella dimostrazione.
Ho tempo da buttare prima di uscire, quindi facciamo un bell'esempio

Sia $M=[(0 ,1),(2 ,0)]$ allora $A=M^tM=[(4, 0),(0,1)]$. La ricetta dice di prendere $S=sqrt(A)$, ad esempio possiamo scegliere $S=[(2,0),(0,1)]$. Allora $|det(S)|=|det(M)|$ e $P=MS^{-1}=[(0,1),(1,0)]$.
Vale l'ugualianza $M=PS$ con $P$ una rotazione. Se sceglievo diversamente il segno degli autovalori allora potremo pesare (con abuso di notazione) a $barS=TS$ dove $T$ è l'identità con segni cambiati a come abbiamo scelto noi le cose (una matrice di signatura), quindi $T^2=I$
Allora avremo che $M=PTS$ se notiamo che $TP=Q$ ortogonale avremo sempre $Q=MS^{-1}$ e le cose funzionano ancora.
-------------
Alla fine della prova, essendo che in generale $|det(S)|=|det(M)|$ la possiamo definire come $P=M*S^{-1}$.
allora $P^t=S^{-1}M^t=>P*P^t=M*S^{-1}*S^{-1}M^t=M*A^{-1}*M^t=M*(M^tM)^{-1}M^t=M*M^{-1}*(M^t)^{-1}*M^t=I$ e quindi $P$ è ortogonale.
dove $A=M^tM=S^2$ nella dimostrazione.