Dimostrazione su sistema con EDO vettoriale

Gost91
Problema - Dato il sistema lineare e continuo

\[\begin{cases}
\dot{x}(t)=Ax(t)+Bu(t) \\
y(t)=Cx(t)
\end{cases}\]

dove \(x\in \mathbb{R}^{n}\), \(u\in \mathbb{R}^m\), \(y\in\mathbb{R}^p\), e dati gli insiemi

\[\overline{O}_t:=\{x\in\mathbb{R}^n:C\exp(A\sigma)x=0,\, \forall \sigma \in [0,t]\} \\
\Theta:=\begin{bmatrix} C \\ CA \\ \vdots \\ C A^{n-1}\end{bmatrix}\]

dimostrare che \(\forall t >0 \) risulta

\[\overline{O}_t=\ker\Theta\]


Dimostrazione - L'idea che mi sono fatto per dimostrare il risultato consiste nel far vedere che valgono simultaneamente le relazioni

\[\begin{split}&\overline{O}_t \supseteq \ker\Theta\\
&\overline{O}_t \subseteq \ker\Theta\end{split}\]

la prima mi risulta abbastanza agevole da mostrare, la seconda un po' meno.
Dunque, se \(x\in \ker\Theta\) allora, per la definizione di \(\ker\Theta\), si ha

\[CA^ix=0, \, \forall i\in\{0,1,2...,n-1\}\]

da questo fatto segue che

\[\begin{split} C\exp(A\sigma)x:&=C\sum_{k=0}^\infty\frac{(A\sigma)^k}{k!}x \\
&=C\sum_{k=0}^\infty A^k\frac{\sigma^k}{k!}x \\
&=C\sum_{k=0}^\infty \bigg(\sum_{i=0}^{n-1} c_{k,i} A^i \bigg)\frac{\sigma^k}{k!}x \\
&=C\sum_{i=0}^{n-1}\sum_{k=0}^\infty \frac{c_{k,i} \sigma^k}{k!} A^i x \\
&=C\sum_{i=0}^{n-1}c_i (\sigma) A^i x \\
&=\sum_{i=0}^{n-1}c_i(\sigma)CA^ix \\
&=\sum_{i=0}^{n-1}c_i(\sigma)0 =0 \to x \in \overline{O}_t, \, \forall \sigma \in \mathbb{R}
\end{split}\]

avendo posto \(c_i(\sigma):=\sum_{k=0}^\infty c_{k,i} \sigma^k/k!\), e avendo sfruttato il teorema di Cayley-Hamilton tra il terzo e il quarto membro.

Ora la seconda relazione. Se \(x\in\overline{O}_t\) allora, per la definizione di \(\overline{O}_t\), si ha

\[\begin{split}
C\exp(A\sigma)x&=0 \\
\sum_{i=0}^{n-1}c_i(\sigma)CA^ix &=
\end{split}\]

per ottenere l'asserto si deve far vedere che le costanti \(c_i(\sigma)\) sono tutte non nulle allo scorrere dell'indice nella sommatoria e \(\forall \sigma \in [0,t]\). A tal proposito, sfrutto un metodo per calcolare i valori di tali costanti.
Distinguo due casi: il caso in cui \(A\) possiede \(n\) autovalori \(\lambda_i\) distinti e il caso complementare.

Si può dimostrare che nel primo caso le suddette costanti soddisfano il seguente sistema lineare

\[V(\lambda_1,\lambda_2, \dots,\lambda_n)\begin{bmatrix} c_0(\sigma) \\ c_1(\sigma)\\ \vdots \\ c_{n-1}(\sigma)\end{bmatrix}=\begin{bmatrix}\exp(\lambda_1 \sigma) \\ \exp(\lambda_2 \sigma) \\ \vdots \\ \exp(\lambda_n \sigma) \\ \end{bmatrix}\]

Essendo \(V\) una matrice invertibile ed essendo il vettore dei termini noti non nullo in ogni sua componente qualsiasi sia \(\sigma\), si ha che in questo caso le costanti \(c_i(\sigma)\) sono tutte non nulle \(\forall \sigma \in \mathbb{R}\).

Ora per l'altro caso la faccenda, almeno formalmente, si complica, in quanto adesso le costanti in questione soddisfano un sistema lineare con matrice dei coefficienti e vettore dei termini noti più complicati.
Detto \(\lambda_i\) un generico autovalore di molteplicità algebrica \(\mu_i\), con questo si definiscono le seguenti \(\mu_i\) righe del sistema lineare

\[\frac{\text{d}^j}{\text{d}\lambda_i^j}[e_i^\text{T} V(\lambda_1,\lambda_2, \dots,\lambda_n)]\begin{bmatrix} c_0(\sigma) \\ c_1(\sigma)\\ \vdots \\ c_{n-1}(\sigma)\end{bmatrix}=\sigma^j\exp(\lambda_i\sigma), \, \forall j\in\{0,1,...,\mu_i-1\}\]

dove \(e_i^\text{T}\) è il versore riga \(i\)-esimo di \(\mathbb{R}^n\), e dunque \(e_i^\text{T} V\) la riga \(i\)-esima della matrice \(V\).

Ripetendo il discorso \(\forall i \in\{0,1,...,n\}\) e riunendo tutte le equazioni costruite si ottiene un sistema lineare a cui obbediscono le costanti cercate. Ancora una volta si ottiene un sistema invertibile e con termini noti tutti non nulli se e solo se \(\sigma\neq0\), quindi in questo caso l'asserto è verificato nel caso \(\sigma>0\).

Il problema è che in questo caso per \(\sigma=0\) si ha il vettore dei termini noti ha qualche componente nulla, e quindi non tutte le costanti sono non nulle. La dimostrazione non è completa, ancora non mi è venuto in mente come completarla.

Forse una buona idea è quella di studiare le costanti mediante la loro definizione, in quanto queste si riducono a

\[c_i(0)=c_{0,1}\]

Risposte
Gost91
"Gost91":
per ottenere l'asserto si deve far vedere che le costanti \(c_i(σ)\) sono tutte non nulle


Questo è un errore in quanto i prodotti scalari \(CA^ix\) potrebbero essere anche negativi. Il ragionamento quindi non funziona. Credo comunque di aver risolto.

Se \(x\in\overline{O}_t\) allora \(C\exp(A\sigma)x=0\) qualsiasi sia \(\sigma\in[0,t]\). Ponendo \(\sigma=0\) si trova la seguente identità

\[C\mathbb{I}=0\]

Se si deriva rispetto \(\sigma\) la relazione \(C\exp(A\sigma)x=0\) e si pone \(\sigma=0\) si trova

\[CA=0\]

E ancora, ripetendo il discorso derivando per altre \((n-1)-1\) volte si trovano le restanti relazioni cercate, quindi

\[CA^ix=0 \qquad i=0,1,...,n-1\]

provando la relazione \(x\in\ker\Theta\).

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.