Dimostrazione su sistema con EDO vettoriale
Problema - Dato il sistema lineare e continuo
\[\begin{cases}
\dot{x}(t)=Ax(t)+Bu(t) \\
y(t)=Cx(t)
\end{cases}\]
dove \(x\in \mathbb{R}^{n}\), \(u\in \mathbb{R}^m\), \(y\in\mathbb{R}^p\), e dati gli insiemi
\[\overline{O}_t:=\{x\in\mathbb{R}^n:C\exp(A\sigma)x=0,\, \forall \sigma \in [0,t]\} \\
\Theta:=\begin{bmatrix} C \\ CA \\ \vdots \\ C A^{n-1}\end{bmatrix}\]
dimostrare che \(\forall t >0 \) risulta
\[\overline{O}_t=\ker\Theta\]
Dimostrazione - L'idea che mi sono fatto per dimostrare il risultato consiste nel far vedere che valgono simultaneamente le relazioni
\[\begin{split}&\overline{O}_t \supseteq \ker\Theta\\
&\overline{O}_t \subseteq \ker\Theta\end{split}\]
la prima mi risulta abbastanza agevole da mostrare, la seconda un po' meno.
Dunque, se \(x\in \ker\Theta\) allora, per la definizione di \(\ker\Theta\), si ha
\[CA^ix=0, \, \forall i\in\{0,1,2...,n-1\}\]
da questo fatto segue che
\[\begin{split} C\exp(A\sigma)x:&=C\sum_{k=0}^\infty\frac{(A\sigma)^k}{k!}x \\
&=C\sum_{k=0}^\infty A^k\frac{\sigma^k}{k!}x \\
&=C\sum_{k=0}^\infty \bigg(\sum_{i=0}^{n-1} c_{k,i} A^i \bigg)\frac{\sigma^k}{k!}x \\
&=C\sum_{i=0}^{n-1}\sum_{k=0}^\infty \frac{c_{k,i} \sigma^k}{k!} A^i x \\
&=C\sum_{i=0}^{n-1}c_i (\sigma) A^i x \\
&=\sum_{i=0}^{n-1}c_i(\sigma)CA^ix \\
&=\sum_{i=0}^{n-1}c_i(\sigma)0 =0 \to x \in \overline{O}_t, \, \forall \sigma \in \mathbb{R}
\end{split}\]
avendo posto \(c_i(\sigma):=\sum_{k=0}^\infty c_{k,i} \sigma^k/k!\), e avendo sfruttato il teorema di Cayley-Hamilton tra il terzo e il quarto membro.
Ora la seconda relazione. Se \(x\in\overline{O}_t\) allora, per la definizione di \(\overline{O}_t\), si ha
\[\begin{split}
C\exp(A\sigma)x&=0 \\
\sum_{i=0}^{n-1}c_i(\sigma)CA^ix &=
\end{split}\]
per ottenere l'asserto si deve far vedere che le costanti \(c_i(\sigma)\) sono tutte non nulle allo scorrere dell'indice nella sommatoria e \(\forall \sigma \in [0,t]\). A tal proposito, sfrutto un metodo per calcolare i valori di tali costanti.
Distinguo due casi: il caso in cui \(A\) possiede \(n\) autovalori \(\lambda_i\) distinti e il caso complementare.
Si può dimostrare che nel primo caso le suddette costanti soddisfano il seguente sistema lineare
\[V(\lambda_1,\lambda_2, \dots,\lambda_n)\begin{bmatrix} c_0(\sigma) \\ c_1(\sigma)\\ \vdots \\ c_{n-1}(\sigma)\end{bmatrix}=\begin{bmatrix}\exp(\lambda_1 \sigma) \\ \exp(\lambda_2 \sigma) \\ \vdots \\ \exp(\lambda_n \sigma) \\ \end{bmatrix}\]
Essendo \(V\) una matrice invertibile ed essendo il vettore dei termini noti non nullo in ogni sua componente qualsiasi sia \(\sigma\), si ha che in questo caso le costanti \(c_i(\sigma)\) sono tutte non nulle \(\forall \sigma \in \mathbb{R}\).
Ora per l'altro caso la faccenda, almeno formalmente, si complica, in quanto adesso le costanti in questione soddisfano un sistema lineare con matrice dei coefficienti e vettore dei termini noti più complicati.
Detto \(\lambda_i\) un generico autovalore di molteplicità algebrica \(\mu_i\), con questo si definiscono le seguenti \(\mu_i\) righe del sistema lineare
\[\frac{\text{d}^j}{\text{d}\lambda_i^j}[e_i^\text{T} V(\lambda_1,\lambda_2, \dots,\lambda_n)]\begin{bmatrix} c_0(\sigma) \\ c_1(\sigma)\\ \vdots \\ c_{n-1}(\sigma)\end{bmatrix}=\sigma^j\exp(\lambda_i\sigma), \, \forall j\in\{0,1,...,\mu_i-1\}\]
dove \(e_i^\text{T}\) è il versore riga \(i\)-esimo di \(\mathbb{R}^n\), e dunque \(e_i^\text{T} V\) la riga \(i\)-esima della matrice \(V\).
Ripetendo il discorso \(\forall i \in\{0,1,...,n\}\) e riunendo tutte le equazioni costruite si ottiene un sistema lineare a cui obbediscono le costanti cercate. Ancora una volta si ottiene un sistema invertibile e con termini noti tutti non nulli se e solo se \(\sigma\neq0\), quindi in questo caso l'asserto è verificato nel caso \(\sigma>0\).
Il problema è che in questo caso per \(\sigma=0\) si ha il vettore dei termini noti ha qualche componente nulla, e quindi non tutte le costanti sono non nulle. La dimostrazione non è completa, ancora non mi è venuto in mente come completarla.
Forse una buona idea è quella di studiare le costanti mediante la loro definizione, in quanto queste si riducono a
\[c_i(0)=c_{0,1}\]
\[\begin{cases}
\dot{x}(t)=Ax(t)+Bu(t) \\
y(t)=Cx(t)
\end{cases}\]
dove \(x\in \mathbb{R}^{n}\), \(u\in \mathbb{R}^m\), \(y\in\mathbb{R}^p\), e dati gli insiemi
\[\overline{O}_t:=\{x\in\mathbb{R}^n:C\exp(A\sigma)x=0,\, \forall \sigma \in [0,t]\} \\
\Theta:=\begin{bmatrix} C \\ CA \\ \vdots \\ C A^{n-1}\end{bmatrix}\]
dimostrare che \(\forall t >0 \) risulta
\[\overline{O}_t=\ker\Theta\]
Dimostrazione - L'idea che mi sono fatto per dimostrare il risultato consiste nel far vedere che valgono simultaneamente le relazioni
\[\begin{split}&\overline{O}_t \supseteq \ker\Theta\\
&\overline{O}_t \subseteq \ker\Theta\end{split}\]
la prima mi risulta abbastanza agevole da mostrare, la seconda un po' meno.
Dunque, se \(x\in \ker\Theta\) allora, per la definizione di \(\ker\Theta\), si ha
\[CA^ix=0, \, \forall i\in\{0,1,2...,n-1\}\]
da questo fatto segue che
\[\begin{split} C\exp(A\sigma)x:&=C\sum_{k=0}^\infty\frac{(A\sigma)^k}{k!}x \\
&=C\sum_{k=0}^\infty A^k\frac{\sigma^k}{k!}x \\
&=C\sum_{k=0}^\infty \bigg(\sum_{i=0}^{n-1} c_{k,i} A^i \bigg)\frac{\sigma^k}{k!}x \\
&=C\sum_{i=0}^{n-1}\sum_{k=0}^\infty \frac{c_{k,i} \sigma^k}{k!} A^i x \\
&=C\sum_{i=0}^{n-1}c_i (\sigma) A^i x \\
&=\sum_{i=0}^{n-1}c_i(\sigma)CA^ix \\
&=\sum_{i=0}^{n-1}c_i(\sigma)0 =0 \to x \in \overline{O}_t, \, \forall \sigma \in \mathbb{R}
\end{split}\]
avendo posto \(c_i(\sigma):=\sum_{k=0}^\infty c_{k,i} \sigma^k/k!\), e avendo sfruttato il teorema di Cayley-Hamilton tra il terzo e il quarto membro.
Ora la seconda relazione. Se \(x\in\overline{O}_t\) allora, per la definizione di \(\overline{O}_t\), si ha
\[\begin{split}
C\exp(A\sigma)x&=0 \\
\sum_{i=0}^{n-1}c_i(\sigma)CA^ix &=
\end{split}\]
per ottenere l'asserto si deve far vedere che le costanti \(c_i(\sigma)\) sono tutte non nulle allo scorrere dell'indice nella sommatoria e \(\forall \sigma \in [0,t]\). A tal proposito, sfrutto un metodo per calcolare i valori di tali costanti.
Distinguo due casi: il caso in cui \(A\) possiede \(n\) autovalori \(\lambda_i\) distinti e il caso complementare.
Si può dimostrare che nel primo caso le suddette costanti soddisfano il seguente sistema lineare
\[V(\lambda_1,\lambda_2, \dots,\lambda_n)\begin{bmatrix} c_0(\sigma) \\ c_1(\sigma)\\ \vdots \\ c_{n-1}(\sigma)\end{bmatrix}=\begin{bmatrix}\exp(\lambda_1 \sigma) \\ \exp(\lambda_2 \sigma) \\ \vdots \\ \exp(\lambda_n \sigma) \\ \end{bmatrix}\]
Essendo \(V\) una matrice invertibile ed essendo il vettore dei termini noti non nullo in ogni sua componente qualsiasi sia \(\sigma\), si ha che in questo caso le costanti \(c_i(\sigma)\) sono tutte non nulle \(\forall \sigma \in \mathbb{R}\).
Ora per l'altro caso la faccenda, almeno formalmente, si complica, in quanto adesso le costanti in questione soddisfano un sistema lineare con matrice dei coefficienti e vettore dei termini noti più complicati.
Detto \(\lambda_i\) un generico autovalore di molteplicità algebrica \(\mu_i\), con questo si definiscono le seguenti \(\mu_i\) righe del sistema lineare
\[\frac{\text{d}^j}{\text{d}\lambda_i^j}[e_i^\text{T} V(\lambda_1,\lambda_2, \dots,\lambda_n)]\begin{bmatrix} c_0(\sigma) \\ c_1(\sigma)\\ \vdots \\ c_{n-1}(\sigma)\end{bmatrix}=\sigma^j\exp(\lambda_i\sigma), \, \forall j\in\{0,1,...,\mu_i-1\}\]
dove \(e_i^\text{T}\) è il versore riga \(i\)-esimo di \(\mathbb{R}^n\), e dunque \(e_i^\text{T} V\) la riga \(i\)-esima della matrice \(V\).
Ripetendo il discorso \(\forall i \in\{0,1,...,n\}\) e riunendo tutte le equazioni costruite si ottiene un sistema lineare a cui obbediscono le costanti cercate. Ancora una volta si ottiene un sistema invertibile e con termini noti tutti non nulli se e solo se \(\sigma\neq0\), quindi in questo caso l'asserto è verificato nel caso \(\sigma>0\).
Il problema è che in questo caso per \(\sigma=0\) si ha il vettore dei termini noti ha qualche componente nulla, e quindi non tutte le costanti sono non nulle. La dimostrazione non è completa, ancora non mi è venuto in mente come completarla.
Forse una buona idea è quella di studiare le costanti mediante la loro definizione, in quanto queste si riducono a
\[c_i(0)=c_{0,1}\]
Risposte
"Gost91":
per ottenere l'asserto si deve far vedere che le costanti \(c_i(σ)\) sono tutte non nulle
Questo è un errore in quanto i prodotti scalari \(CA^ix\) potrebbero essere anche negativi. Il ragionamento quindi non funziona. Credo comunque di aver risolto.
Se \(x\in\overline{O}_t\) allora \(C\exp(A\sigma)x=0\) qualsiasi sia \(\sigma\in[0,t]\). Ponendo \(\sigma=0\) si trova la seguente identità
\[C\mathbb{I}=0\]
Se si deriva rispetto \(\sigma\) la relazione \(C\exp(A\sigma)x=0\) e si pone \(\sigma=0\) si trova
\[CA=0\]
E ancora, ripetendo il discorso derivando per altre \((n-1)-1\) volte si trovano le restanti relazioni cercate, quindi
\[CA^ix=0 \qquad i=0,1,...,n-1\]
provando la relazione \(x\in\ker\Theta\).