Soluzione di un sistema Hamiltoniano autonomo
C'è un modo "ovvio" per trovare le soluzioni del sistema \[J \dot{u} + c \alpha |u|^{\alpha -2 } u = 0 \quad (*) \]dove \(c>0\), \( \alpha > 1 \), \( u=u(t) \in C^1 (\mathbb{R}; \mathbb{R}^{2N}) \) e \(J \) è la matrice simplettica?
Nel libro si dice più volte che \( u(t) = \cos( \omega t)\xi + \sin(\omega t) J \xi \) con \( \xi \in \mathbb{R}^{2N}\) risolve \( (*)\), ma come ci si arriva?
Nel libro si dice più volte che \( u(t) = \cos( \omega t)\xi + \sin(\omega t) J \xi \) con \( \xi \in \mathbb{R}^{2N}\) risolve \( (*)\), ma come ci si arriva?
Risposte
Cercare una soluzione di modulo 1 ti toglie di mezzo \(|u|\), e a quel punto l'equazione diventa \(\dot u - \omega Ju=0\) (perché \(J^{-1}=-J\), in analogia con \(\sqrt{-1}^{-1}=-\sqrt{-1}\)). Adesso,
\[
e^{\omega J t} = \cos (\omega t)I + J\sin(\omega t)
\] (perché l'esponenziale di una matrice antisimmetrica è ortogonale). Non è quello che hai scritto tu, ma ci somiglia, e forse bodgeare questa soluzione te ne dà una per la tua equazione!
\[
e^{\omega J t} = \cos (\omega t)I + J\sin(\omega t)
\] (perché l'esponenziale di una matrice antisimmetrica è ortogonale). Non è quello che hai scritto tu, ma ci somiglia, e forse bodgeare questa soluzione te ne dà una per la tua equazione!
"Bodgeare"=? 
Penso che 080e73990d22b9e30ee6fddddc45a902d78283e6 abbia dimenticato di specificare che \(\lvert \xi\rvert=1\). Se è così, le soluzioni del libro sono tutte e sole quelle trovate correttamente da solàal. Non mi sembra proprio che, se \(\lvert\xi\rvert\ne1\), \(e^{\omega J t}\xi\) sia una soluzione dell'equazione data.

Penso che 080e73990d22b9e30ee6fddddc45a902d78283e6 abbia dimenticato di specificare che \(\lvert \xi\rvert=1\). Se è così, le soluzioni del libro sono tutte e sole quelle trovate correttamente da solàal. Non mi sembra proprio che, se \(\lvert\xi\rvert\ne1\), \(e^{\omega J t}\xi\) sia una soluzione dell'equazione data.
A volte, quando si programma, un "bodge" è una soluzione che dal lato di chi deve usare il codice funziona senza che si noti nulla di strano, ma che dal lato di chi lo ha scritto è tenuta insieme con lo sputo e senza nessun rispetto per l'estetica.
Insomma, il "pezzotto"...

"solaàl":
Cercare una soluzione di modulo 1 ti toglie di mezzo \(|u|\), e a quel punto l'equazione diventa \(\dot u - \omega Ju=0\) (perché \(J^{-1}=-J\), in analogia con \(\sqrt{-1}^{-1}=-\sqrt{-1}\)). Adesso,
\[
e^{\omega J t} = \cos (\omega t)I + J\sin(\omega t)
\] (perché l'esponenziale di una matrice antisimmetrica è ortogonale). Non è quello che hai scritto tu, ma ci somiglia, e forse bodgeare questa soluzione te ne dà una per la tua equazione!
Ok sì, si fa praticamente così. Il trucco qui - e non me n'ero accorto - è che l'Hamiltoniana, che è \( H(u)=c |u|^\alpha \), è costante lungo le soluzioni. Se \( u \) è una soluzione e \( u(0) = \xi\), allora \( |u(t)| = |\xi| \) per ogni \(t\). Il resto sono conti.
Ho capito. L'unica cosa da specificare è che \(\omega\) dipende da \(\lvert \xi \rvert\). Altrimenti la soluzione sarebbe lineare in \(\xi\).
Sono d'accordo con la formula, ma per curiosità, cosa volevi dire con il commento in parentesi? Secondo me, l'esponenziale ha quella forma perché \(J^2=-I\), e quindi
\[
e^{\omegaJt}= \sum_{n=0}^\infty \frac{J^n \omega^n t^n}{n!}=\sum_{k=0}^\infty (-1)^k \frac{\omega^{2k}t^{2k}}{(2k)!} + J\sum_{k=0}^\infty (-1)^k\frac{\omega^{2k+1}t^{2k+1}}{(2k+1)!}.\]
Ora non so se c'è una spiegazione più intrinseca.
"solaàl":
Adesso,
\[
e^{\omega J t} = \cos (\omega t)I + J\sin(\omega t)
\] (perché l'esponenziale di una matrice antisimmetrica è ortogonale).
Sono d'accordo con la formula, ma per curiosità, cosa volevi dire con il commento in parentesi? Secondo me, l'esponenziale ha quella forma perché \(J^2=-I\), e quindi
\[
e^{\omegaJt}= \sum_{n=0}^\infty \frac{J^n \omega^n t^n}{n!}=\sum_{k=0}^\infty (-1)^k \frac{\omega^{2k}t^{2k}}{(2k)!} + J\sum_{k=0}^\infty (-1)^k\frac{\omega^{2k+1}t^{2k+1}}{(2k+1)!}.\]
Ora non so se c'è una spiegazione più intrinseca.
E' la seconda volta in due giorni che mi fai una domanda di algebre di Lie
conosci l'Hall (Lie groups, Lie algebras and representation)?
Metti insieme i pezzi: \((e^A)^t=e^{A^t}=e^{-A}=(e^A)^{-1}\), per ogni gruppo di Lie \(G\) la mappa esponenziale \(e : \mathfrak g \to G\) assume valori nella componente connessa di \(1_G\), e quindi \(e^A\) appartiene allo spazio delle matrici ortogonali a determinante 1, ossia \(SO(n)\).

Metti insieme i pezzi: \((e^A)^t=e^{A^t}=e^{-A}=(e^A)^{-1}\), per ogni gruppo di Lie \(G\) la mappa esponenziale \(e : \mathfrak g \to G\) assume valori nella componente connessa di \(1_G\), e quindi \(e^A\) appartiene allo spazio delle matrici ortogonali a determinante 1, ossia \(SO(n)\).
Ah era solo questo. Pensavo fosse una spiegazione senza serie di potenze della formula con seno e coseno.
conosci l'Hall (Lie groups, Lie algebras and representation)?Si.
"dissonance":E' esattamente quello che è, dato che ogni elemento di $SO(2)$ si rappresenta come $\cos\alpha I_2 + \sin \alpha J_2$ per un unico numero reale $\alpha \in [0,2\pi)$...
Ah era solo questo. Pensavo fosse una spiegazione senza serie di potenze della formula con seno e coseno.
Ho capito, è concettualmente interessante, però purtroppo \(\alpha\) non è esplicito. Inoltre mi pare che valga solo in dimensione 2.
[ot]
Si, è un argomento che mi interessa pur essendo tangenziale ai miei interessi di ricerca. Ma come mai ti sei fermato, nell'altro thread?[/ot]
[ot]
è la seconda volta che mi fai una domanda di algebre di Lie
Si, è un argomento che mi interessa pur essendo tangenziale ai miei interessi di ricerca. Ma come mai ti sei fermato, nell'altro thread?[/ot]
Non ha niente di concettuale, mi pare: io ho visto questa costruzione al primo corso di algebra lineare... E sì, vale solo in dimensione 2.
Cosa significa, poi, che $\alpha$ non è esplicito? Puoi esprimerlo come un certo arcocoseno o arcoseno di un ingresso della matrice (ovviamente ridotto modulo il dominio dell'arcocoseno); questa operazione è ben definita, continua, etc.
Cosa significa, poi, che $\alpha$ non è esplicito? Puoi esprimerlo come un certo arcocoseno o arcoseno di un ingresso della matrice (ovviamente ridotto modulo il dominio dell'arcocoseno); questa operazione è ben definita, continua, etc.
Si, si, capisco. Volevo dire che qui noi abbiamo bisogno di un valore esplicito per \(\omega\), e inoltre siamo in dimensione arbitraria, quindi è davvero necessario passare dalla serie di potenze.
Ho capito cosa hai chiesto: sì, ma $\omega$ chiaramente si può desumere dai dati del problema; il punto è che l'immagine dellesponenziale cade in un sottoinsieme ancor piu piccolo di SO(2N), quello delle matrici a blocchi del tipo \(\cos \alpha I_N \oplus \sin\alpha J\)