Operatori, funzioni di matrici, ODEs
Salve a tutti. Ho un dubbio sul seguente esercizio:
\( \dot{\bf{x}}=A\bf{x} \),
$A = [[1,1,1],[1,-1,1],[1,1,-1]]$. Devo calcolare $x(t)$ in funzione di $x(0)$ e dire se esistono condizioni iniziali tali che per $t \to \infty$ la soluzione della ODE diverge.
Ho seguito il metodo suggerito da Megas nel mio messaggio bumpato recentemente, su un esercizio uguale a questo. Dopo aver diagonalizzato (la matrice è simmetrica a coefficienti reali perciò non ho problemi), trovato gli autovettori, e usato
$$e^{tA} = S e^{Dt}S^{-1}$$
Così infine otterrei: $$ x(t) = e^{tA}x(0)$$
Non riporto i calcoli perché non mi sembrano per nulla utili. Al di là del fatto che non so se la mia soluzione sia giusta (ho fatto un check veloce su matrixcalc e dovrebbe esserlo, però son le 2 di notte e non assicuro nulla).
Sono andato a vedere la soluzione del professore è letteralmente questa:
Siccome $A$ è autoaggiunta si ha che la soluzione è $$x(t) = \sum_{n=1}^{3}a_nv_ne^{\lambda_n t} $$, ove i $v_i$ sono gli autovettori della matrice $A$ e i coefficienti $a_i$ sono determinati dalla condizione iniziale...
Qualcuno può dirmi come si arriva a tale soluzione, ogni volta che provo a fare un esercizio che penso si risolva con una tecnica nota, mi spunta fuori una soluzione da una riga.
Io ci ho messo quasi 45 minuti a fare tutti quei calcoli senza fare errori e all'esame son 6 esercizi e l'esame ne dura 2 di ore. Quindi evidentemente il primo metodo è da scartare altrimenti finisco per non fare mezzo esame
Se qualcuno potesse aiutarmi mi sarebbe di grande aiuto
\( \dot{\bf{x}}=A\bf{x} \),
$A = [[1,1,1],[1,-1,1],[1,1,-1]]$. Devo calcolare $x(t)$ in funzione di $x(0)$ e dire se esistono condizioni iniziali tali che per $t \to \infty$ la soluzione della ODE diverge.
Ho seguito il metodo suggerito da Megas nel mio messaggio bumpato recentemente, su un esercizio uguale a questo. Dopo aver diagonalizzato (la matrice è simmetrica a coefficienti reali perciò non ho problemi), trovato gli autovettori, e usato
$$e^{tA} = S e^{Dt}S^{-1}$$
Così infine otterrei: $$ x(t) = e^{tA}x(0)$$
Non riporto i calcoli perché non mi sembrano per nulla utili. Al di là del fatto che non so se la mia soluzione sia giusta (ho fatto un check veloce su matrixcalc e dovrebbe esserlo, però son le 2 di notte e non assicuro nulla).
Sono andato a vedere la soluzione del professore è letteralmente questa:
Siccome $A$ è autoaggiunta si ha che la soluzione è $$x(t) = \sum_{n=1}^{3}a_nv_ne^{\lambda_n t} $$, ove i $v_i$ sono gli autovettori della matrice $A$ e i coefficienti $a_i$ sono determinati dalla condizione iniziale...
Qualcuno può dirmi come si arriva a tale soluzione, ogni volta che provo a fare un esercizio che penso si risolva con una tecnica nota, mi spunta fuori una soluzione da una riga.
Io ci ho messo quasi 45 minuti a fare tutti quei calcoli senza fare errori e all'esame son 6 esercizi e l'esame ne dura 2 di ore. Quindi evidentemente il primo metodo è da scartare altrimenti finisco per non fare mezzo esame

Se qualcuno potesse aiutarmi mi sarebbe di grande aiuto


Risposte
Se $A$ è simmetrica, \(e^{tA}\) è pure simmetrica, quindi esiste una base in cui è diagonale. In questo caso specifico la base è sempre la stessa per ogni $t$, e a cambiare sono gli autovalori: se \(P=\left(\begin{smallmatrix} 1 & 1 & 1 \\
-1 & 1 & 1 \\
0 & -2 & 1\end{smallmatrix}\right)\) allora \(Pe^{tA}P^{-1} = \left(\begin{smallmatrix}e^t & 0 & 0 \\
0 & e^{-t} & 0 \\
0 & 0 & e^{-2 t}\end{smallmatrix}\right)\)
-1 & 1 & 1 \\
0 & -2 & 1\end{smallmatrix}\right)\) allora \(Pe^{tA}P^{-1} = \left(\begin{smallmatrix}e^t & 0 & 0 \\
0 & e^{-t} & 0 \\
0 & 0 & e^{-2 t}\end{smallmatrix}\right)\)
Ok come avevi fatto nel messaggio precedente. Poi ti trovi $e^{tA}$ ,moltiplicando ambo i membri per $P$ e $P^{-1}$ in maniera tale da ottenere $e^{tA} = P ((e^-t,0,0),(0,e^{2t},0),(0,0,e^{-2t}))P^{-1}$. E così otteniamo quella matrice che ho messo nella foto (lasciando stare possibili errori nei calcoli). Tuttavia, Megas, non vedo ancora come arrivare alla formula del professore. Io ho provato a ragionarci un pò su e l'unica cosa che mi viene in mente è esprimermi il vettore della condizione iniziale come combinazione lineare degli autovettori:
\( \bf{x}(0) = \sum_{k=1}^{3} a_i \bf{v}_i\), ove i coefficienti sono ovviamente facilmente determinabili una volta nota la condizione iniziale.
Adesso so che $x(t) = e^{tA}x(0) = e^{tA} \sum_{k=1}^{3}a_i v_i = a_1e^{tA} v_1 + a_2 e^{tA} v_2 + a_3 e^{tA}v_3$. Ma non penso di essere sulla strada giusta...
Tu cosa ne pensi. Ho notato che hai completamente ignorato la soluzione del professore, non è per caso non convince neanche te?
\( \bf{x}(0) = \sum_{k=1}^{3} a_i \bf{v}_i\), ove i coefficienti sono ovviamente facilmente determinabili una volta nota la condizione iniziale.
Adesso so che $x(t) = e^{tA}x(0) = e^{tA} \sum_{k=1}^{3}a_i v_i = a_1e^{tA} v_1 + a_2 e^{tA} v_2 + a_3 e^{tA}v_3$. Ma non penso di essere sulla strada giusta...

Tu cosa ne pensi. Ho notato che hai completamente ignorato la soluzione del professore, non è per caso non convince neanche te?
"SteezyMenchi":Questa mi sembra esattamente la risposta che ti è stata data.
\( \bf{x}(0) = \sum_{k=1}^{3} a_i \bf{v}_i\), ove i coefficienti sono ovviamente facilmente determinabili una volta nota la condizione iniziale.
Adesso so che $x(t) = e^{tA}x(0) = e^{tA} \sum_{k=1}^{3}a_i v_i = a_1e^{tA} v_1 + a_2 e^{tA} v_2 + a_3 e^{tA}v_3$. Ma non penso di essere sulla strada giusta...![]()
Ho notato che hai completamente ignorato la soluzione del professore, non è per caso non convince neanche te?A momenti non leggo nemmeno le domande, figurati se leggo le risposte...
No aspetta la sua è diversa dalla mia, lui ottiene una cosa del tipo $x(t) = \sum_{i} a_i f(\lambda_i)v_i$ che è molto differente dall'avere tre prodotti tra una matrice orribile e un autovettore. Non capisco come possa essere: $$\sum_i a_i e^{tA}v_i \equiv \sum_i a_i e^{t\lambda_i}v_i$$
Almeno al momento non mi sembra siano per nulla equivalenti, però forse sto missando qualcosa di palese al tuo occhio
Almeno al momento non mi sembra siano per nulla equivalenti, però forse sto missando qualcosa di palese al tuo occhio

se A è diagonale, \(e^{tA}\) è diagonale
Ci ho ragionato sopra Megas. Allora se $D = d_{ij}$ è una matrice diagonale allora $B = e^{tD}$ è anch'essa diagonale. In particolare abbiamo provato che tale matrice avrà come entrate $b_{ij}, i = j$ proprio $e^{td_{ii}}$ Fin qui siamo entrambi d'accordo. Adesso prendiamo $e^{tD}$ e calcoliamo $P e^{tD} P^-1$, ove $D$ è la matrice diagonale ottenuta diagonalizzando la nostra matrice di partenza $A$ del primo messaggio.
Avevamo mostrato che $e^{tA} = P e^{tD} P^-1$, tuttavia, questo triplo prodotto matriciale non restituisce una matrice diagonale. Dunque quando andiamo a scrivere
$$e^{tA} \sum_{k=1}^{3}a_i v_i = a_1e^{tA} v_1 + a_2 e^{tA} v_2 + a_3 e^{tA}v_3$$
Avremo un prodotto tra una matrice qualsiasi, non diagonale, e un vettore con tre componenti qualsiasi. Di conseguenza l'uguaglianza:
$$ e^{tA}v_i = e^{\lambda_i}v_i $$
non può essere vera.
Se anche considerassimo una matrice diagonale $A = a_{ij}$ ove $a_{ij} = e^{t\lambda_i}, i = j$ avremmo in ogni caso che l'uguaglianza è falsa:
$ e^{tA}v_i = e^{\lambda_i}v_i $
Infatti moltiplicando una matrice diagonale finito dimensionale per un vettore qualsiasi (le dimensioni devono accordarsi ovviamente ) si ottiene, banalmente, un nuovo vettore le cui componenti sono le stesse di quello vecchio ma moltiplicate ciascuna per l'entrata diagonale corrispondente. Dunque risulta impossibile ottenere la moltiplicazione tra la funzione dell'autovalore $f(\lambda_i)$ e il corrispettivo autovettore.
Avevamo mostrato che $e^{tA} = P e^{tD} P^-1$, tuttavia, questo triplo prodotto matriciale non restituisce una matrice diagonale. Dunque quando andiamo a scrivere
$$e^{tA} \sum_{k=1}^{3}a_i v_i = a_1e^{tA} v_1 + a_2 e^{tA} v_2 + a_3 e^{tA}v_3$$
Avremo un prodotto tra una matrice qualsiasi, non diagonale, e un vettore con tre componenti qualsiasi. Di conseguenza l'uguaglianza:
$$ e^{tA}v_i = e^{\lambda_i}v_i $$
non può essere vera.
Se anche considerassimo una matrice diagonale $A = a_{ij}$ ove $a_{ij} = e^{t\lambda_i}, i = j$ avremmo in ogni caso che l'uguaglianza è falsa:
$ e^{tA}v_i = e^{\lambda_i}v_i $
Infatti moltiplicando una matrice diagonale finito dimensionale per un vettore qualsiasi (le dimensioni devono accordarsi ovviamente ) si ottiene, banalmente, un nuovo vettore le cui componenti sono le stesse di quello vecchio ma moltiplicate ciascuna per l'entrata diagonale corrispondente. Dunque risulta impossibile ottenere la moltiplicazione tra la funzione dell'autovalore $f(\lambda_i)$ e il corrispettivo autovettore.
Perché ti metti in una base in cui \(e^{tA}\) è diagonale, ma non fai il conto in quella base insistendo a tornare nell'altra?
Credo di non essermi spiegato bene, Il punto è che anche se mi metto nella base di autovettori, in cui $A$ è diagonale, di conseguenza $e^{tA}$ è diagonale come dici tu e facciamo i conti in quella base, quell'equivalenza non può essere soddisfatta. Questo è quello che intendo:
$a_1e^{tA}v_1 = ((e^{\lambda_1t},0,0),(0,e^{\lambda_2t},0),(0,0,e^{\lambda_3t}))((a_1v_1^1),(a_1v_1^2),(a_1v_1^3)) = ((e^{\lambda_1t}a_1v_1^1),(e^{\lambda_2t}a_1v_1^2),(e^{\lambda_3t}a_1v_1^3))$
Mentre abbiamo
$a_1e^{\lambda_1t}v_1 = ((e^{\lambda_1t}a_1v_1^1),(e^{\lambda_1t}a_1v_1^2),(e^{\lambda_1t}a_1v_1^3))$
Adesso se sommiamo quantità differenti è ovvio che otterremo quantità differenti alla fine. Spero di averi espresso meglio il mio dubbio
$a_1e^{tA}v_1 = ((e^{\lambda_1t},0,0),(0,e^{\lambda_2t},0),(0,0,e^{\lambda_3t}))((a_1v_1^1),(a_1v_1^2),(a_1v_1^3)) = ((e^{\lambda_1t}a_1v_1^1),(e^{\lambda_2t}a_1v_1^2),(e^{\lambda_3t}a_1v_1^3))$
Mentre abbiamo
$a_1e^{\lambda_1t}v_1 = ((e^{\lambda_1t}a_1v_1^1),(e^{\lambda_1t}a_1v_1^2),(e^{\lambda_1t}a_1v_1^3))$
Adesso se sommiamo quantità differenti è ovvio che otterremo quantità differenti alla fine. Spero di averi espresso meglio il mio dubbio

"SteezyMenchi":
Qualcuno può dirmi come si arriva a tale soluzione ...
Determinando semplicemente gli autovalori e i rispettivi autovettori:
Integrale particolare 1
$[[0],[e^(-2x)],[-e^(-2x)]]$
Integrale particolare 2
$[[e^(-x)],[-e^(-x)],[-e^(-x)]]$
Integrale particolare 3
$[[2e^(2x)],[e^(2x)],[e^(2x)]]$
Integrale generale
$a_1[[0],[e^(-2x)],[-e^(-2x)]]+a_2[[e^(-x)],[-e^(-x)],[-e^(-x)]]+a_3[[2e^(2x)],[e^(2x)],[e^(2x)]]$
Ovviamente, come ha scritto il docente, le tre costanti arbitrarie si determinano imponendo la condizione iniziale:
$a_1[[0],[1],[-1]]+a_2[[1],[-1],[-1]]+a_3[[2],[1],[1]]=[[x_1(0)],[x_2(0)],[x_3(0)]] rarr$
$rarr [[0,1,2],[1,-1,1],[-1,-1,1]]*[[a_1],[a_2],[a_3]]=[[x_1(0)],[x_2(0)],[x_3(0)]] rarr$
$rarr [[a_1],[a_2],[a_3]]=[[0,1,2],[1,-1,1],[-1,-1,1]]^(-1)*[[x_1(0)],[x_2(0)],[x_3(0)]] rarr$
$rarr [[a_1],[a_2],[a_3]]=[[0,1/2,-1/2],[1/3,-1/3,-1/3],[1/3,1/6,1/6]]*[[x_1(0)],[x_2(0)],[x_3(0)]]$
Insomma, non è assolutamente necessario calcolare l'esponenziale della matrice.
"SteezyMenchi":
... dire se esistono condizioni iniziali tali che ...
$a_3 ne 0 rarr$
$rarr 1/3x_1(0)+1/6x_2(0)+1/6x_3(0) ne 0 rarr$
$rarr 2x_1(0)+x_2(0)+x_3(0) ne 0$