Seno di una matrice quadrata non diagonale
Salve, sto studiando la dimostrazione della seguente formula:
[tex]{e^\begin{bmatrix}\alpha
& \omega\\ -\omega
& \alpha
\end{bmatrix}t}= e^{\alpha t} e^{\begin{bmatrix}cos(\omega t)
& sin(\omega t) \\-sin(\omega t)
& cos(\omega t)
\end{bmatrix}}[/tex]
la dimostrazione si basa sull'uguaglianza:
[tex]{e^\begin{bmatrix}\alpha
& \omega\\ -\omega
& \alpha
\end{bmatrix}}=e^{\alpha I}{e^\begin{bmatrix}0
& \omega\\ -\omega
& 0
\end{bmatrix}}[/tex]
e sul calcolo di [tex]e^{\alpha I}{e^\begin{bmatrix}0
& \omega\\ -\omega
& 0
\end{bmatrix}}[/tex] .
In particolare non mi è chiara la seguente disuguaglianza:
[tex]{\sum_{h=0}^{+\infty} \begin{bmatrix}0
&(-1)^h \omega^{2h+1} \\ (-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}}= \begin{bmatrix}0
& sin(\omega t)\\ sin(\omega t)
& 0
\end{bmatrix}[/tex]
Io sono abituato a vedere quest'uguaglianza verificata per una matrice diagonale: nel caso di una "matrice antidiagonale" (si chiama così?), vale lo stesso? Ovvero vale la seguente uguaglianza?
[tex]{\sum_{h=0}^{+\infty} \begin{bmatrix}0
&(-1)^h \omega^{2h+1} \\ (-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}} = \begin{bmatrix}0
&{\sum_{h=0}^{+\infty}(-1)^h \omega^{2h+1} \\ {\sum_{h=0}^{+\infty}(-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}}[/tex]
In realtà se si trattasse di una somma finita direi di sì, ma il fatto che si tratti di una serie mi suggerisce di cercare una conferma più rigorosa del semplice intuito.
Grazie anticipatamente.
[tex]{e^\begin{bmatrix}\alpha
& \omega\\ -\omega
& \alpha
\end{bmatrix}t}= e^{\alpha t} e^{\begin{bmatrix}cos(\omega t)
& sin(\omega t) \\-sin(\omega t)
& cos(\omega t)
\end{bmatrix}}[/tex]
la dimostrazione si basa sull'uguaglianza:
[tex]{e^\begin{bmatrix}\alpha
& \omega\\ -\omega
& \alpha
\end{bmatrix}}=e^{\alpha I}{e^\begin{bmatrix}0
& \omega\\ -\omega
& 0
\end{bmatrix}}[/tex]
e sul calcolo di [tex]e^{\alpha I}{e^\begin{bmatrix}0
& \omega\\ -\omega
& 0
\end{bmatrix}}[/tex] .
In particolare non mi è chiara la seguente disuguaglianza:
[tex]{\sum_{h=0}^{+\infty} \begin{bmatrix}0
&(-1)^h \omega^{2h+1} \\ (-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}}= \begin{bmatrix}0
& sin(\omega t)\\ sin(\omega t)
& 0
\end{bmatrix}[/tex]
Io sono abituato a vedere quest'uguaglianza verificata per una matrice diagonale: nel caso di una "matrice antidiagonale" (si chiama così?), vale lo stesso? Ovvero vale la seguente uguaglianza?
[tex]{\sum_{h=0}^{+\infty} \begin{bmatrix}0
&(-1)^h \omega^{2h+1} \\ (-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}} = \begin{bmatrix}0
&{\sum_{h=0}^{+\infty}(-1)^h \omega^{2h+1} \\ {\sum_{h=0}^{+\infty}(-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}}[/tex]
In realtà se si trattasse di una somma finita direi di sì, ma il fatto che si tratti di una serie mi suggerisce di cercare una conferma più rigorosa del semplice intuito.
Grazie anticipatamente.
Risposte
L'ultima uguaglianza è errata..il termine all'esterno della matrice deve essere all'interno delle singole sommatorie!
Comunque per rispondere alla tua domanda: l'uguaglianza vale indipendentemente dal tipo di matrice, si basa sulla definizione di somma di matrici.
Guarda qua: http://it.wikipedia.org/wiki/Matrice_esponenziale
Alternativamente pensala così:
[tex]M=\begin{bmatrix} 0
& \omega\\ -\omega
& 0
\end{bmatrix}t=\omega t\begin{bmatrix} 0
& 1\\ -1
& 0
\end{bmatrix}=\omega t E[/tex]
Se provi a fare le potenze di $M$ trovi che:
[tex]M^2=-(\omega t)^2 I[/tex]
[tex]M^3=-(\omega t)^3 E[/tex]
[tex]M^4=(\omega t)^4 I[/tex]
[tex]M^5=(\omega t)^5 E[/tex]
e così via...
Quindi
$e^M=\sum_{k=0}^{+\infty}(M)^k/(k!) = \sum_{h=0}^{+\infty}(-1)^h ((\omega t)^(2h))/(2h!) I + \sum_{h=0}^{+\infty}(-1)^h ((\omega t)^(2h+1))/((2h+1)!) E=cos(\omega t) I+sin(\omega t) E$
Nota che le matrici $I$ e $E$ non dipendono dall'indice di sommatoria.
Comunque per rispondere alla tua domanda: l'uguaglianza vale indipendentemente dal tipo di matrice, si basa sulla definizione di somma di matrici.
Guarda qua: http://it.wikipedia.org/wiki/Matrice_esponenziale
Alternativamente pensala così:
[tex]M=\begin{bmatrix} 0
& \omega\\ -\omega
& 0
\end{bmatrix}t=\omega t\begin{bmatrix} 0
& 1\\ -1
& 0
\end{bmatrix}=\omega t E[/tex]
Se provi a fare le potenze di $M$ trovi che:
[tex]M^2=-(\omega t)^2 I[/tex]
[tex]M^3=-(\omega t)^3 E[/tex]
[tex]M^4=(\omega t)^4 I[/tex]
[tex]M^5=(\omega t)^5 E[/tex]
e così via...
Quindi
$e^M=\sum_{k=0}^{+\infty}(M)^k/(k!) = \sum_{h=0}^{+\infty}(-1)^h ((\omega t)^(2h))/(2h!) I + \sum_{h=0}^{+\infty}(-1)^h ((\omega t)^(2h+1))/((2h+1)!) E=cos(\omega t) I+sin(\omega t) E$
Nota che le matrici $I$ e $E$ non dipendono dall'indice di sommatoria.
ho capito, grazie mille per il chiarimento!