Esponenziali di matrici

eminova
Sono un insegnate in pensione. Per passare il tempo sto cercando di risolvere un problema sull'esponenziale di matrici.
Spero di inviarvi il quesito (è la prima volta) scritto in modo corretto (Latex lo compila giusto).

Sappiamo che , date due matrici quadrate $A,B$
\[
AB=BA \Rightarrow e^Ae^B=e^Be^A=e^{A+B}
\]
ma l'implicazione contraria non è in generale vera.
Ho trovato un controesempio in Jay A. Wood: The Chain Rule for Matrix Exponential Functions:
\[
A=2\pi
\left(
\begin{array}{ccccc}
0&0&\sqrt{3}/2\\
0&0&-1/2\\
-\sqrt{3}/2&1/2&0\\
\end{array}
\right)
\qquad
B=2\pi
\left(
\begin{array}{ccccc}
0&0&-\sqrt{3}/2\\
0&0&-1/2\\
\sqrt{3}/2&1/2&0\\
\end{array}
\right)
\]
che non commutano ma per cui su si ha:
\[
e^A=e^B=e^{A+B}=I
\]
Non riesco però a trovare un esempio simile per matrici \(2\times2\). Qualcuno mi può aiutare?

Risposte
Maci86
Non so perché ma a tatto direi che non esistono, troppo poco spazio per muoversi :D Però aspettiamo risposte migliori :D

j18eos
Se ho capito bene vuoi verificare che l'insieme \[
\left\{A;B\in\mathbb{R}^2_2\mid AB\neq BA;e^{A+B}=I_2^2\right\}
\] sia o non sia vuoto?

eminova
Più in generale: capire se è vuoto l'insieme per cui \(e^{(A+B)}=e^Ae^B\) in \(M_2( \mathbb{R})\), oppure se è possibile caratterizzarlo in qualche modo se non è vuoto. Poi sarebbe interessante passare a \( M_n( \mathbb{R})\) e \(M_n( \mathbb{C})\).
Obiettivo finale potrebbe essere di estendere il problema a una C-algebra di operatori.

eminova
Mi pare di aver trovato una soluzione del problema.

Date due matrici $\mathbf{A}$ e $\mathbf{B} \in M(2,\mathbb{R} )$ , $e^ \mathbf{A+B}= e^\mathbf{A} e^\mathbf{B}=e^\mathbf{B}e^\mathbf{A}$ se e solo se $\mathbf{A}$ e $\mathbf{B}$ commutano oppure $e^\mathbf{A} ,e^\mathbf{B},e^\mathbf{A+B}$
stanno nel centro di $M(2,\mathbb{R})$ e il segno di $e^ \mathbf{A+B}$ è uguale al segno di $e^\mathbf{A} e^\mathbf{B}$ .

due matrici di questo tipo sono:

\[
\mathbf{A_0}=
\mu \pi
\left(
\begin{array}{ccccc}
0&-1\\
1&0\\
\end{array}
\right)
\qquad \mu \in \mathbb{N^+}
\]
e

\[
\mathbf{B_0}=
\psi \pi
\left(
\begin{array}{ccccc}
x&-y\\
(1+x^2)/y&-x\\
\end{array}
\right)
\qquad \psi \in \mathbb{N^+}
\quad
x,y\ne 0
\]

Ho dovuto cercare parecchio per trovare un vecchio articolo che ho rielaborato.
Vorrei mandare in allegato il lavoro fatto, ma non accetta i pdf (?)
A me sembra un tema poco frequentato ma interessante anche dal punto di vista didattico. Come posso fare per mandare il file ?

j18eos
Scusami, ma cos'è il segno di un esponenziale di matrici? :?:

Poi i risultati che hai richiamato all'inizio sono basilari! :!:

Per l'invio di file *.pdf ti rimando alla sezione VITA DA FORUM - Questioni tecniche del Forum

dissonance
@eminova: Infatti sono d'accordo con te, questa osservazione si fa poco spesso. Addirittura ho sentito dire parecchie volte cose come
\[\tag{1}
e^{A+B}=e^Ae^B\ \iff \ AB=BA,
\]
che come noti tu sono false. Non ho controllato il tuo esempio per mancanza di tempo ma a fiducia direi che è corretto. Un libro classico che affronta l'argomento è Horn & Johnson, Topics in Matrix Analysis, [size=85]se cerchi in rete ne trovi facilmente una copia pdf.[/size] :-$

EDIT: Ecco una vecchia discussione sull'argomento viewtopic.php?p=592809#p592809

Notare come pure io, all'epoca, sostenevo la veridicità della (1)! Mentre adesso mi permetto il lusso di scandalizzarmi quando lo sento dire. :-)

eminova
Il "segno" si riferisce al fatto che il centro di $M(2,\mathbb{R})$ è isomorfo al gruppo $\{\mathbb{R^*},\times\}$ quindi ha due componenti connesse che ha senso definire positiva e negativa.
Le due matrici sono costruite sulla base della dimostrazione del teorema citato all'inizio. I realtà tutte le matrici simili a queste due vanno bene e anche quelle che si ottengono sommando ad esse una matrice del centro. Tutto è mostrato nell'articoletto che dovrebbe essere scaricabile a questo link:
https://dl.dropboxusercontent.com/u/746 ... atrici.pdf

Nella ricerca ho incontrato anch'io alcuni testi inesatti! Per quel che sono riuscito a capire il problema di trovare le condizioni necessarie e sufficienti alla verifica dell'equazione funzionale esponenziale non è risolto per algebre di operatori su spazi di Hilbert ed è anche piuttosto complicato. Anche nel caso di $M(3,\mathbb{K})$ ho trovato solo soluzioni parziali o congetture vanificate da controesempi.

Anche per questo il caso di $M(2,\mathbb{R})$ mi sembra didatticamente interessante, anche per i legami con la teoria dei Gruppi e Algebre di Lie che di solito viene affrontata in modo molto astratto.

Se avete tempo e voglia mi piacerebbe avere un parere sull'articoletto di cui sopra e una dritta per sapere chi potrebbe essere interessato a pubblicarlo.
Grazie! :D

dissonance
Ho dato una lettura. Bello. Questo te lo pubblicano sicuramente sulla rivista di https://www.matematicamente.it . Una piccola noticina (ma sono proprio due cavolate):
  • a pagina 5, quando dici "si noti che il risultato del teorema è valido anche se \(\det A'<0\)", poi affermi "in questo caso \(\alpha=i\lvert \alpha\rvert\)". Dovresti metterci un \(\pm\), altrimenti se lo fai leggere a uno dei tuoi studenti delle superiori poi ti rinfaccerà tutte le volte che gli hai segnato questo errore! :-) Mi pare comunque che nei conti successivi la scelta del \(+\) o del \(-\) sia ininfluente.
  • [*]Nelle conclusioni, io scriverei "la funzione di variabile complessa \(w=\frac{e^z-1}{z}\) in luogo di \(y=\frac{e^x-1}{x}\).

    dissonance
    Tra l'altro, trovo sull'Horn & Johnson una nota: pare che per matrici \(A, B\in M_n\) (reali o complesse) sia vero che
    \[
    e^Ae^B=e^Be^A\ \Rightarrow\ [A, B]=0
    \]
    se le entrate di \(A, B\) sono numeri algebrici. Non c'è la dimostrazione. Con la tua caratterizzazione, almeno nel caso \(2\times 2\) possiamo dimostrare facilmente questo risultato, con il Teorema 3.1. Mi sbaglio?

    eminova
    Grazie delle dritte! Sistemo l'articolo e provo a mandarlo.
    La prova della nota dell'Horn & Johnson è nell'articolo Two Remarks on Matrix Exponentials di Edgar M.E. Wermuth che ho trovato in rete durante le mie ricerche. Per le matrici $M_2$ si ricava subito dal Teorema 3.1. La dimostrazione generale ricorre alla formula di interpolazione di Hermite applicata al polinomio minimo delle due matrici.
    Lo stesso autore in un articolo successivo (A REMARK ON COMMUTING OPERATOR EXPONENTIALS ) dimostra il Teorema:

    Theorem. Let A and B be bounded operators on a Banach space with $2\pi i$-congruence-free spectra. Then $e^Ae^B = e^B e^A$ if and only if AB = BA.

    Dove la condizione significa che non ci sono autovalori che differiscono di un multiplo intero di $2 \pi i$.
    Nel caso di $M_2$ la cosa si dimostra con la formula di Sylvester, che diventa:
    \[
    \begin{split}
    e^\mathbf{A}&=\dfrac{e^{\lambda_1}}{\lambda_1-\lambda_2} \left(\mathbf{A}-\lambda_2\mathbf{I}\right)+\dfrac{e^{\lambda_2}}{\lambda_2-\lambda_1} \left(\mathbf{A}-\lambda_1\mathbf{I}\right)=\\
    &=\dfrac{1}{\lambda_1-\lambda_2}\left[ \mathbf{A}\left(e^{\lambda_1}-e^{\lambda_2}\right) +\mathbf{I}\left(\lambda_1e^{\lambda_2}-\lambda_2 e^{\lambda_1}\right)\right]
    \end{split}
    \]

    Se $\mathbf{B}$ è un'altra matrice con autovalori $\mu_1,\mu_2$ si ottiene :
    \[
    \left[e^\mathbf{A},e^\mathbf{B}\right]=\left[\mathbf{A},\mathbf{B}\right]\dfrac{\left(e^{\lambda_1}-e^{\lambda_2}\right)\left(e^{\mu_1}-e^{\mu_2}\right)}{\left(\lambda_1- \lambda_2\right)\left(\mu_1- \mu_2\right)}
    \]
    Quindi gli esponenziali commutano se le due matrici commutano oppure se almeno una di loro ha autovalori che differiscono di $2ki\pi $.
    Il che coincide con il Teorema 3.1.
    Il ricorso a queste tecniche mi sembrava però una cosa troppo avanzata per un articoletto che vuol essere leggibile da studenti ai primi passi.
    Ai miei tempi queste cose non erano nei primi corsi di geometri e algebra... non so adesso ...

    eminova
    "eminova":
    Grazie delle dritte! Sistemo l'articolo e provo a mandarlo.
    La prova della nota dell'Horn & Johnson è nell'articolo Two Remarks on Matrix Exponentials di Edgar M.E. Wermuth che ho trovato in rete durante le mie ricerche. Per le matrici $ M_2 $ si ricava subito dal Teorema 3.1. La dimostrazione generale ricorre alla formula di interpolazione di Hermite applicata al polinomio minimo delle due matrici.
    Lo stesso autore in un articolo successivo (A REMARK ON COMMUTING OPERATOR EXPONENTIALS ) dimostra il Teorema:

    Theorem. Let A and B be bounded operators on a Banach space with $ 2\pi i $-congruence-free spectra. Then $ e^Ae^B = e^B e^A $ if and only if AB = BA.

    Dove la condizione significa che non ci sono autovalori che differiscono di un multiplo intero di $ 2 \pi i $.
    Nel caso di $ M_2 $ la cosa si dimostra con la formula di Sylvester, che diventa:
    \[ \begin{split} e^\mathbf{A}&=\dfrac{e^{\lambda_1}}{\lambda_1-\lambda_2} \left(\mathbf{A}-\lambda_2\mathbf{I}\right)+\dfrac{e^{\lambda_2}}{\lambda_2-\lambda_1} \left(\mathbf{A}-\lambda_1\mathbf{I}\right)=\\ &=\dfrac{1}{\lambda_1-\lambda_2}\left[ \mathbf{A}\left(e^{\lambda_1}-e^{\lambda_2}\right) +\mathbf{I}\left(\lambda_1e^{\lambda_2}-\lambda_2 e^{\lambda_1}\right)\right] \end{split} \]

    con $\lambda_1,\lambda_2$ autovalori della matrice $ \mathbf{A} $.
    Se $ \mathbf{B} $ è un'altra matrice con autovalori $ \mu_1,\mu_2 $ si ottiene :
    \[ \left[e^\mathbf{A},e^\mathbf{B}\right]=\left[\mathbf{A},\mathbf{B}\right]\dfrac{\left(e^{\lambda_1}-e^{\lambda_2}\right)\left(e^{\mu_1}-e^{\mu_2}\right)}{\left(\lambda_1- \lambda_2\right)\left(\mu_1- \mu_2\right)} \]
    Quindi gli esponenziali commutano se le due matrici commutano oppure se almeno una di loro ha autovalori che differiscono di $ 2ki\pi $.
    Il che concorda con il Teorema 3.1.
    Il ricorso a queste tecniche mi sembrava però una cosa troppo avanzata per un articoletto che vuol essere leggibile da studenti ai primi passi.
    Ai miei tempi queste cose non erano nei primi corsi di geometri e algebra... non so adesso ...

    dissonance
    Cosa intendi per formula di Sylvester? non riesco a seguirti... In ogni modo, anche oggi queste cose non sono per niente nei primi corsi di geometria e algebra.

    eminova
    La formula di Sylvester serve a calcolare qualunque funzione di matrice con i suoi autovalori. La matrice deve essere diagonalizzabile e la funzione analitica (mi pare). C' è l'essenziale in Wikipedia ..... Anch'io l'ho incontrata per la prima volta durante questa ricerca :)

    Rispondi
    Per rispondere a questa discussione devi prima effettuare il login.