Seno di una matrice quadrata non diagonale

eliotsbowe
Salve, sto studiando la dimostrazione della seguente formula:

[tex]{e^\begin{bmatrix}\alpha
& \omega\\ -\omega
& \alpha
\end{bmatrix}t}= e^{\alpha t} e^{\begin{bmatrix}cos(\omega t)
& sin(\omega t) \\-sin(\omega t)
& cos(\omega t)
\end{bmatrix}}[/tex]

la dimostrazione si basa sull'uguaglianza:

[tex]{e^\begin{bmatrix}\alpha
& \omega\\ -\omega
& \alpha
\end{bmatrix}}=e^{\alpha I}{e^\begin{bmatrix}0
& \omega\\ -\omega
& 0
\end{bmatrix}}[/tex]

e sul calcolo di [tex]e^{\alpha I}{e^\begin{bmatrix}0
& \omega\\ -\omega
& 0
\end{bmatrix}}[/tex] .

In particolare non mi è chiara la seguente disuguaglianza:

[tex]{\sum_{h=0}^{+\infty} \begin{bmatrix}0
&(-1)^h \omega^{2h+1} \\ (-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}}= \begin{bmatrix}0
& sin(\omega t)\\ sin(\omega t)
& 0
\end{bmatrix}[/tex]

Io sono abituato a vedere quest'uguaglianza verificata per una matrice diagonale: nel caso di una "matrice antidiagonale" (si chiama così?), vale lo stesso? Ovvero vale la seguente uguaglianza?

[tex]{\sum_{h=0}^{+\infty} \begin{bmatrix}0
&(-1)^h \omega^{2h+1} \\ (-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}} = \begin{bmatrix}0
&{\sum_{h=0}^{+\infty}(-1)^h \omega^{2h+1} \\ {\sum_{h=0}^{+\infty}(-1)^h \omega^{2h+1}
& 0
\end{bmatrix} \frac{t^{2h+1}}{(2h +1)!}}[/tex]

In realtà se si trattasse di una somma finita direi di sì, ma il fatto che si tratti di una serie mi suggerisce di cercare una conferma più rigorosa del semplice intuito.
Grazie anticipatamente.

Risposte
Jacknife
L'ultima uguaglianza è errata..il termine all'esterno della matrice deve essere all'interno delle singole sommatorie!
Comunque per rispondere alla tua domanda: l'uguaglianza vale indipendentemente dal tipo di matrice, si basa sulla definizione di somma di matrici.
Guarda qua: http://it.wikipedia.org/wiki/Matrice_esponenziale

Alternativamente pensala così:

[tex]M=\begin{bmatrix} 0
& \omega\\ -\omega
& 0
\end{bmatrix}t=\omega t\begin{bmatrix} 0
& 1\\ -1
& 0
\end{bmatrix}=\omega t E[/tex]

Se provi a fare le potenze di $M$ trovi che:
[tex]M^2=-(\omega t)^2 I[/tex]
[tex]M^3=-(\omega t)^3 E[/tex]
[tex]M^4=(\omega t)^4 I[/tex]
[tex]M^5=(\omega t)^5 E[/tex]

e così via...

Quindi
$e^M=\sum_{k=0}^{+\infty}(M)^k/(k!) = \sum_{h=0}^{+\infty}(-1)^h ((\omega t)^(2h))/(2h!) I + \sum_{h=0}^{+\infty}(-1)^h ((\omega t)^(2h+1))/((2h+1)!) E=cos(\omega t) I+sin(\omega t) E$

Nota che le matrici $I$ e $E$ non dipendono dall'indice di sommatoria.

eliotsbowe
ho capito, grazie mille per il chiarimento!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.