Controlli automatici: discussioni sulla teoria, esercizi
Salve signori. Apro questo forum per chiarire alcuni argomenti di controlli automatici, e per vedere e commentare qualke esercizio con voi.
Domanda 1. Matrice di trasferimento
La matrice di trasferimento è quella matrice che ha all'elemento i-j la funzione di trasferimento derivante dal rapporto tra l'ingresso i-esimo e l'uscita j-esima.
Ma come si dimostra questa "proprietà"? cioè intuitivamente potrei arrivarci con esempio, cioè mi costruisco un sistema a due ingressi e due uscite per dire e mi ricavo la matrice di trasferimento associata (la cui definizione è "analoga" a quella di un sistema SISO).
Domanda 1. Matrice di trasferimento
La matrice di trasferimento è quella matrice che ha all'elemento i-j la funzione di trasferimento derivante dal rapporto tra l'ingresso i-esimo e l'uscita j-esima.
Ma come si dimostra questa "proprietà"? cioè intuitivamente potrei arrivarci con esempio, cioè mi costruisco un sistema a due ingressi e due uscite per dire e mi ricavo la matrice di trasferimento associata (la cui definizione è "analoga" a quella di un sistema SISO).
Risposte
Puoi vederlo sviluppando in forma simbolica l'espressione dell'uscita nel dominio di Laplace:
$ulY_(f) (s)=ululC(sululI-ululA)^(-1)ululBulU(s)+ululDU(s)=ululW(s)ulU(s)$,
nonchè
$[(Y_(1)),(Y_(2)),(vdots),(Y_(n))]=[(W_(11),W_(12),ldots,W_(1m)),(W_(21),W_(22),ldots,W_(2m)),(vdots,vdots,ddots,vdots),(W_(n1),W_(n2),ldots,W_(nm))][(U_1),(U_2),(vdots),(U_m)]$.
Da qui è chiaro che la $j$-esima uscita è pari a
$Y_j(s)=sum_(k=1)^m W_(jk) (s) * U_k (s)$, e che quindi
$W_(jk)(s)=[(Y_j(s))/(U_k(s))]_(U_i(s)=0) quad forall i ne k$.
$ulY_(f) (s)=ululC(sululI-ululA)^(-1)ululBulU(s)+ululDU(s)=ululW(s)ulU(s)$,
nonchè
$[(Y_(1)),(Y_(2)),(vdots),(Y_(n))]=[(W_(11),W_(12),ldots,W_(1m)),(W_(21),W_(22),ldots,W_(2m)),(vdots,vdots,ddots,vdots),(W_(n1),W_(n2),ldots,W_(nm))][(U_1),(U_2),(vdots),(U_m)]$.
Da qui è chiaro che la $j$-esima uscita è pari a
$Y_j(s)=sum_(k=1)^m W_(jk) (s) * U_k (s)$, e che quindi
$W_(jk)(s)=[(Y_j(s))/(U_k(s))]_(U_i(s)=0) quad forall i ne k$.
Dimostrazione semplice ed efficace...
Domanda 2. Stabilità...
Qui l'argomento l'ho imparato ad applicare un pò a meccanica sinceramente, il che ovviamente non mi va giù. se abbiamo un sistema SISO, per semplicità e vogliamo studiarne la stabilità interna è sufficiente il solo studio degli autovalori? cioè
Caso TC:
il sistema è asintoticamente stabile se e solo se le parti reali delle radici del polinomio caratteristico sono negative
il sistema è marginalmente stabile se e solo se le parti reali delle radici del polinomio caratteristico sono negative e con radici nulle la molteciplità geometrica è pari a quella algebrica.
Caso TD:
il sistema è asintoticamente stabile se e solo se le radici del polinomio caratteristico hanno modulo minore di 1
il sistema è marginalmente stabile se e solo se le radici del polinomio caratteristico hanno modulo minore di 1 e con radici di modulo unitario molteciplità geometrica è pari a quella algebrica.
Ma questi teoremi discendono dal fatto che è sufficiente studiare la sola matrice A avendo un sistema del tipo $x'(t)=Ax(t)+Bu(t)$ e $y(t) = Cx(t)+Du(t)$.
la cosa che ho capito io è che tutto è conseguenza (nei sistemi LTI) del principio di sovrapposizione degli effetti, ma non ho capito il ruolo che esso gioca. Mi spiego meglio, la matrice A ci simboleggia in teoria la costituzione interna del sistema e nulla essa ha a che fare con le sollecitazioni applicate, e diciamo che in via puramente intuitiva posso capire il perchè ci si può concentrare sulla matrice A e basta, ma non arrivo a comprendere bene la via matematica che mi giustifica il mio pensiero.
Domanda 2. Stabilità...
Qui l'argomento l'ho imparato ad applicare un pò a meccanica sinceramente, il che ovviamente non mi va giù. se abbiamo un sistema SISO, per semplicità e vogliamo studiarne la stabilità interna è sufficiente il solo studio degli autovalori? cioè
Caso TC:
il sistema è asintoticamente stabile se e solo se le parti reali delle radici del polinomio caratteristico sono negative
il sistema è marginalmente stabile se e solo se le parti reali delle radici del polinomio caratteristico sono negative e con radici nulle la molteciplità geometrica è pari a quella algebrica.
Caso TD:
il sistema è asintoticamente stabile se e solo se le radici del polinomio caratteristico hanno modulo minore di 1
il sistema è marginalmente stabile se e solo se le radici del polinomio caratteristico hanno modulo minore di 1 e con radici di modulo unitario molteciplità geometrica è pari a quella algebrica.
Ma questi teoremi discendono dal fatto che è sufficiente studiare la sola matrice A avendo un sistema del tipo $x'(t)=Ax(t)+Bu(t)$ e $y(t) = Cx(t)+Du(t)$.
la cosa che ho capito io è che tutto è conseguenza (nei sistemi LTI) del principio di sovrapposizione degli effetti, ma non ho capito il ruolo che esso gioca. Mi spiego meglio, la matrice A ci simboleggia in teoria la costituzione interna del sistema e nulla essa ha a che fare con le sollecitazioni applicate, e diciamo che in via puramente intuitiva posso capire il perchè ci si può concentrare sulla matrice A e basta, ma non arrivo a comprendere bene la via matematica che mi giustifica il mio pensiero.
Prendi una generica traiettoria nominale, cui corrisponde una generica traiettoria perturbata:
${("stato iniziale"quad x^0),("ingresso"quad ccL(u(t))=U(s)):}quad quad quad{("stato iniziale perturbato"quad x^0+delta x_0),("ingresso"quad ccL(u(t))=U(s)):}$
L'espressione della traiettoria nominale è
$x(t)=ccL^(-1)(M(s)BU(s)+M(s)x^0)
$quad quad quad quad=ccL^(-1)(M(s)BU(s))+ccL^(-1)(M(s)x^0)$
dove per comodità $M(s)=(sI-A)^(-1)$. La traiettoria perturbata invece è
$barx(t)=ccL^(-1)(M(s)BU(s)+M(s)(x^0+deltax_0))$
$quad quad quad quad=ccL^(-1)(M(s)BU(s))+ccL^(-1)(M(s)x^0)+ccL^(-1)(M(s)deltax_0)$
e quindi
$||barx(t)-x(t)||=||ccL^(-1)(M(s)deltax_0)||$,
dove con $||cdot||$ indico la norma euclidea nello spazio degli stati.
Ora ti suggerisco di ripetere i conti considerando questa situazione particolare:
${("stato iniziale"quad x^0=0),("ingresso"quad u(t)=0):} quad quad quad{("stato iniziale perturbato"quad barx^0=delta x_0),("ingresso"quad u(t)=0):}$
che ovviamente implica $x(t)=0$ come traiettoria nominale. Otterrai che l'espressione di $||barx(t)-x(t)||$ è esattamente la stessa.
${("stato iniziale"quad x^0),("ingresso"quad ccL(u(t))=U(s)):}quad quad quad{("stato iniziale perturbato"quad x^0+delta x_0),("ingresso"quad ccL(u(t))=U(s)):}$
L'espressione della traiettoria nominale è
$x(t)=ccL^(-1)(M(s)BU(s)+M(s)x^0)
$quad quad quad quad=ccL^(-1)(M(s)BU(s))+ccL^(-1)(M(s)x^0)$
dove per comodità $M(s)=(sI-A)^(-1)$. La traiettoria perturbata invece è
$barx(t)=ccL^(-1)(M(s)BU(s)+M(s)(x^0+deltax_0))$
$quad quad quad quad=ccL^(-1)(M(s)BU(s))+ccL^(-1)(M(s)x^0)+ccL^(-1)(M(s)deltax_0)$
e quindi
$||barx(t)-x(t)||=||ccL^(-1)(M(s)deltax_0)||$,
dove con $||cdot||$ indico la norma euclidea nello spazio degli stati.
Ora ti suggerisco di ripetere i conti considerando questa situazione particolare:
${("stato iniziale"quad x^0=0),("ingresso"quad u(t)=0):} quad quad quad{("stato iniziale perturbato"quad barx^0=delta x_0),("ingresso"quad u(t)=0):}$
che ovviamente implica $x(t)=0$ come traiettoria nominale. Otterrai che l'espressione di $||barx(t)-x(t)||$ è esattamente la stessa.
Se ho capito bene la tua dimostrazione in pratica significa che per lo studio della stabilità non è importante lo stato iniziale bensì l'entità della perturbazione rispetto allo stato iniziale quindi posso semplificarmi la vita studiandolo rispetto allo stato iniziale e all'ingresso nullo. Una cosa rispetto all'ingresso nella prima parte della dimostrazione non hai considerato eventuali perturbazioni sull'ingresso, l'hai fatto per alleggerire i calcoli o per un motivo particolare?
"Lauke":
Se ho capito bene la tua dimostrazione in pratica significa che per lo studio della stabilità non è importante lo stato iniziale bensì l'entità della perturbazione rispetto allo stato iniziale quindi posso semplificarmi la vita studiandolo rispetto allo stato iniziale e all'ingresso nullo.
Si, esatto.
"Lauke":
Una cosa rispetto all'ingresso nella prima parte della dimostrazione non hai considerato eventuali perturbazioni sull'ingresso, l'hai fatto per alleggerire i calcoli o per un motivo particolare?
Beh, non ha molto senso parlare di perturbazioni sull'ingresso. Quello lo imponiamo noi. Casomai avrai un "ingresso di disturbo" da qualche altra parte del sistema che altera la situazione dello stato e che si rappresenta con $deltax_0$. Il bello dei sistemi LTI è appunto che puoi limitarti a studiare la stabilità nell'origine e per ingressi nulli, ottenendo a costo zero il comportamento per ingressi e condizioni iniziali qualsiasi.
Sia dato il seguente sistema NLTI TC
$\{(x_1'(t) = x1*(x2+1)+u),(x_2'(t) = x_1^2+x_2^2):}$
Determinare i punti di equilibrio, la linearizazzione intorno a tali punti, e dire se nell'intorno di tali punti il sistema è stabile internamente
L'unico pt soluzione del sistema è $(x_1,x_2,u) = (0,0,0)$
Le matrici Giacobiane A e B sono date da...
$A = [[x_2+1, x_1],[2x_1, 2x_2]]$ e $B = [(1), (0)]$
che nell'intorno dell'unico pt. d'equilibrio divengono... $A = [[1, 0], [0, 0]]$ e $B = [(1), (0)]$;
la matrice $\phi(s) = sI-A = [[s-1, 0], [0, s]]$ che ha per polinomio caratteristico...$s*(s-1)$ con due autovalori: $\lambda_1 = 0$ e $\lambda_2 = 1$ per cui il sistema possiede un modo divergente -> il sistema è instabile. è corretto?
$\{(x_1'(t) = x1*(x2+1)+u),(x_2'(t) = x_1^2+x_2^2):}$
Determinare i punti di equilibrio, la linearizazzione intorno a tali punti, e dire se nell'intorno di tali punti il sistema è stabile internamente
L'unico pt soluzione del sistema è $(x_1,x_2,u) = (0,0,0)$
Le matrici Giacobiane A e B sono date da...
$A = [[x_2+1, x_1],[2x_1, 2x_2]]$ e $B = [(1), (0)]$
che nell'intorno dell'unico pt. d'equilibrio divengono... $A = [[1, 0], [0, 0]]$ e $B = [(1), (0)]$;
la matrice $\phi(s) = sI-A = [[s-1, 0], [0, s]]$ che ha per polinomio caratteristico...$s*(s-1)$ con due autovalori: $\lambda_1 = 0$ e $\lambda_2 = 1$ per cui il sistema possiede un modo divergente -> il sistema è instabile. è corretto?
Non ho controllato i conti, ma il procedimento (criterio ridotto di Lyapunov) è quello corretto.
Oi raga quando avete un pò di tempo spiegate una cosa?
Supponiamo di avere il seguente sistema TD
$\{(x_1(k+1) = (1-\beta)x_1(k)+\alphax_3(k)),(x_2(k+1)=\betax_1(k)+x_2(k)),(x_3(k+1) = (1-\alpha)x_3(k)):}$ ora se voi vi costruite la matrice A associata a questo sistema di evoluzione dello stato otterrete la seguente...$[[1-\beta,0,\alpha],[\beta,1,0],[0,0,1-\alpha]]$
Ciò che volevo fare io era studiare la stabilità di questo sistema lineare, in particolare mi sono concentrato su di un caso cioè quando $\alpha=\beta=0$ in tal modo il sistema è diagonale, gli autovalori associati sono unitari, ed essendo diagonale la molteplicità algebrica e pari a quella geometrica e per quanto ne so io il sistema è stabile marginalmente. Ora la cosa che mi domandavo era la seguente:
Se è vero che il sistema è marginalmente stabile allora io dovrei almeno trovare un modo limitato e i rimanenti al più convergenti a 0. Ma allora se è vero quanto ho detto (e credo lo sia a meno che non ho sbagliato qualke conto), perchè i modi associati a questo sistema sono i seguenti?
$1, k, frac{k^2}{2}-frac{k}{2}$ ?
è ovvio che anche se il primo è limitato, gli altri due sono divergenti (ricordate parlo sempre di $\alpha=\beta=0$).
Attendo risposte, in caso non rispondete in tempo breve auguroni a tutti.
Supponiamo di avere il seguente sistema TD
$\{(x_1(k+1) = (1-\beta)x_1(k)+\alphax_3(k)),(x_2(k+1)=\betax_1(k)+x_2(k)),(x_3(k+1) = (1-\alpha)x_3(k)):}$ ora se voi vi costruite la matrice A associata a questo sistema di evoluzione dello stato otterrete la seguente...$[[1-\beta,0,\alpha],[\beta,1,0],[0,0,1-\alpha]]$
Ciò che volevo fare io era studiare la stabilità di questo sistema lineare, in particolare mi sono concentrato su di un caso cioè quando $\alpha=\beta=0$ in tal modo il sistema è diagonale, gli autovalori associati sono unitari, ed essendo diagonale la molteplicità algebrica e pari a quella geometrica e per quanto ne so io il sistema è stabile marginalmente. Ora la cosa che mi domandavo era la seguente:
Se è vero che il sistema è marginalmente stabile allora io dovrei almeno trovare un modo limitato e i rimanenti al più convergenti a 0. Ma allora se è vero quanto ho detto (e credo lo sia a meno che non ho sbagliato qualke conto), perchè i modi associati a questo sistema sono i seguenti?
$1, k, frac{k^2}{2}-frac{k}{2}$ ?
è ovvio che anche se il primo è limitato, gli altri due sono divergenti (ricordate parlo sempre di $\alpha=\beta=0$).
Attendo risposte, in caso non rispondete in tempo breve auguroni a tutti.
Penso che tu abbia sbagliato i conti: se la matrice $A=I=[(1,0,0),(0,1,0),(0,0,1)]$ allora puoi scrivere
$ulx(k+1)=A^k ul x_0=I^k ul x_0 = ul x_0$...
Infatti la molteplicità geometrica dell'autovalore $1$ è $1$, e non $3$ come quella algebrica $to$ non ci sono modi divergenti.
$ulx(k+1)=A^k ul x_0=I^k ul x_0 = ul x_0$...
Infatti la molteplicità geometrica dell'autovalore $1$ è $1$, e non $3$ come quella algebrica $to$ non ci sono modi divergenti.
non ho capito, scusami perchè la molteplicità geometrica dell'autovalore è 1 e non 3?
Scusa se così non fosse molteplicità algebrica e geometrica non coincederebbero e la matrice non sarebbe diagonalizzabile, cosa che mi pare difficile considerando che la matrice è già diagonale di suo. O no? trascuro qualkosa a livello algebrico?
Scusa se così non fosse molteplicità algebrica e geometrica non coincederebbero e la matrice non sarebbe diagonalizzabile, cosa che mi pare difficile considerando che la matrice è già diagonale di suo. O no? trascuro qualkosa a livello algebrico?
Scusa hai ragione, ho fatto confusione. La molteplicità geometrica di $1$ come autovalore di $I_3$ è $3$, infatti la dimensione del nucleo di $lambda I_3 - I_3=I_3-I_3=ul ul 0$ è palesamente $3$ (qualsiasi vettore in $RR^3$ moltiplicato per $ul ul 0$ dà $ul0$). Volevo puntare l'attenzione sul fatto seguente:
il polinomio caratteristico di $I_3$ è $(lambda-1)^3$, ma il polinomio minimo di $I_3$ è $lambda - 1$, infatti $I_3-I_3=ul ul 0$, quindi la molteplicità di $1$ come radice del polinomio minimo è $1$.
In generale, la matrice esponenziale contiene modi polinomiale - esponenziali del tipo $k^mu lambda ^k$, dove $mu$ varia tra $0$ e la molteplicità di $lambda$ come radice del polinomio minimo meno uno. Essendo la molteplicità pari a 1, l'unico modo in uscita sarà $k^0 lambda^k=1^k=1$. Del resto se $A=I_3$, come ho già fatto vedere, l'uscita è la condizione iniziale, dunque il sistema sarà sempre marginalmente stabile.
il polinomio caratteristico di $I_3$ è $(lambda-1)^3$, ma il polinomio minimo di $I_3$ è $lambda - 1$, infatti $I_3-I_3=ul ul 0$, quindi la molteplicità di $1$ come radice del polinomio minimo è $1$.
In generale, la matrice esponenziale contiene modi polinomiale - esponenziali del tipo $k^mu lambda ^k$, dove $mu$ varia tra $0$ e la molteplicità di $lambda$ come radice del polinomio minimo meno uno. Essendo la molteplicità pari a 1, l'unico modo in uscita sarà $k^0 lambda^k=1^k=1$. Del resto se $A=I_3$, come ho già fatto vedere, l'uscita è la condizione iniziale, dunque il sistema sarà sempre marginalmente stabile.
Scusa non te la prendere, ma veramente ti capisco poco, parti dal presupposto che l'unico metodo che ho per maneggiare questi sistemi è la trasformata di laplace o zeta. Quindi faccio sforzi sovr'umani per capirti a dir la verità, però siccome le cose a me piace capirle sennò applicarle è del tutto inutile se puoi farmi la cortesia di spiegarmi mejo...io di teorema per stabilire la stabilità (in questo caso parliamo di marginale) conosco solo quello relativo alla diagonalizzabilità della matrice, di cui però non conosco la dimostrazione. A questo punto è ovvio che se voglio capirne qualkosa me la devo fare, o almeno guardare quindi se puoi farmi, o dirmi dove prendere, le relative dimostrazioni al caso TC e TD te ne sarei grato perchè per quanto ne so io dovrei avere un riscontro nei modi del sistema, e come ho mostrato prima a me vengono quei modi con i miei ragionamenti, ma che a quanto ho capito non sono corretti...Puoi mandarmi le dimostrazioni?
Il procedimento che conosco per individuare i modi in uscita (tramite approccio nel dominio $ccZ$) è il seguente:
- con due conti, si trova che $A^k=ccZ^(-1)[z(zI-A)^(-1)]$
- hai che $z(zI-A)^(-1)= z ("adj"(zI-A))/(det(zI-A))$
- il polinomio caratteristico di $A$ è $det(zI-A)=prod_(i=1)^r (z- lambda_i)^(n_i)$ dove $r$ è il numero di autovalori distinti e $n_i$ è la molteplicità algebrica di ciascuno.
- il polinomio minimo del sistema è il minimo comune multiplo dei polinomi a denominatore di $z(zI-A)^(-1)$, e può scriversi come $m(z)=prod_(i=1)^r (z-lambda_i)^(m_i)$. In generale $m_i<= n_i$, perchè possono esserci cancellazioni con i numeratori. Chiamo $m_i$ la molteplicità di $lambda_i$ come radice del polinomio caratteristico.
- il generico elemento della matrice $z(zI-A)^(-1)$ è dato da
$p(z)=(n(z))/(d(z))=(n(z))/(prod_(i=1)^q(z-lambda_i)^(m_i))$
dove $q
$p(z)=sum_(i=1)^q sum_(j=1)^(m_i) (A_(ij)z)/((z-lambda_i)^j)$,
dove $A_(ij)$ sono gli opportuni residui per lo sviluppo.
- antitrasformando,
$p(k)=sum_(i=1)^q sum_(j=1)^(m_i) A_(ij) ((k),(j-1)) lambda_i^(k-(j-1))$.
- ne deriva che gli elementi di $A^k$, contengono funzioni del tipo $k^(mu) lambda_i^(k) $, dove $mu in {0,1,ldots,m_i-1}$, che sono i modi naturali del sistema.
Se poi ci sono anche coppie coniugate di autovalori complessi $lambda_i=sigma e^(j omega)$ i modi sono $k^mu sigma^k cos(omega k)$ e $k^mu sigma^k sin(omega k)$
Nel tuo caso la molteplicità $m$ di $1$ come radice del polinomio minimo è $1$, quindi non ci sono modi misti polinomiale - esponenziale ma solo modi esponenziali (che poi, vista la natura dell'autovalore, sono costanti).
Spero ti sia più chiaro.
- con due conti, si trova che $A^k=ccZ^(-1)[z(zI-A)^(-1)]$
- hai che $z(zI-A)^(-1)= z ("adj"(zI-A))/(det(zI-A))$
- il polinomio caratteristico di $A$ è $det(zI-A)=prod_(i=1)^r (z- lambda_i)^(n_i)$ dove $r$ è il numero di autovalori distinti e $n_i$ è la molteplicità algebrica di ciascuno.
- il polinomio minimo del sistema è il minimo comune multiplo dei polinomi a denominatore di $z(zI-A)^(-1)$, e può scriversi come $m(z)=prod_(i=1)^r (z-lambda_i)^(m_i)$. In generale $m_i<= n_i$, perchè possono esserci cancellazioni con i numeratori. Chiamo $m_i$ la molteplicità di $lambda_i$ come radice del polinomio caratteristico.
- il generico elemento della matrice $z(zI-A)^(-1)$ è dato da
$p(z)=(n(z))/(d(z))=(n(z))/(prod_(i=1)^q(z-lambda_i)^(m_i))$
dove $q
$p(z)=sum_(i=1)^q sum_(j=1)^(m_i) (A_(ij)z)/((z-lambda_i)^j)$,
dove $A_(ij)$ sono gli opportuni residui per lo sviluppo.
- antitrasformando,
$p(k)=sum_(i=1)^q sum_(j=1)^(m_i) A_(ij) ((k),(j-1)) lambda_i^(k-(j-1))$.
- ne deriva che gli elementi di $A^k$, contengono funzioni del tipo $k^(mu) lambda_i^(k) $, dove $mu in {0,1,ldots,m_i-1}$, che sono i modi naturali del sistema.
Se poi ci sono anche coppie coniugate di autovalori complessi $lambda_i=sigma e^(j omega)$ i modi sono $k^mu sigma^k cos(omega k)$ e $k^mu sigma^k sin(omega k)$
Nel tuo caso la molteplicità $m$ di $1$ come radice del polinomio minimo è $1$, quindi non ci sono modi misti polinomiale - esponenziale ma solo modi esponenziali (che poi, vista la natura dell'autovalore, sono costanti).
Spero ti sia più chiaro.
Una piccola aggiunta: il polinomio minimo di $A$ è anche quel polinomio di grado minimo $p(lambda)=sum_k c_k lambda^k$, divisore del polinomio caratteristico, tale che $p(A)=sum_k c_k A^k= ul ul 0$, dove con $ul ul 0$ indico la matrice nulla. Si dice che la matrice $A$ annulla il suo polinomio minimo. Per questo prima scrivevo che il polinomio minimo di $I_3$ è $p(lambda)=lambda-1$: si ha $p(I_3)=I_3-I_3=ul ul 0$. Nota come $p(lambda)$ sia divisore del polinomio caratteristico di $A$, $(lambda-1)^3$.
ho avuto il riscontro della tua teoria...la soluzione del sistema che ho mandato stamattina è $x_1(k)=x_2(k)=x_3(k)=1(k)$ stabile marginalmente come doveva essere...in ogni caso forse sarà meglio che faccia qualke altro sistema tanto per avere ben chiaro il discorso.
Chiariscimi un'ultima cosa i MODI, non le soluzioni del sistema, che avevo trovato oggi alla fine erano corretti?
Supponiamo infatti di avere la seguente matrice $A' = [[1,0,0],[1,1,0],[1,1,1]]$. Questa matrice rispetto a quella di prima non è diagonalizzabile ma ha il medesimo polinomio caratteristico, quindi stesso polinomio minimo. I due sistemi, cioè quello di oggi e questo, hanno gli stessi modi?
Chiariscimi un'ultima cosa i MODI, non le soluzioni del sistema, che avevo trovato oggi alla fine erano corretti?
Supponiamo infatti di avere la seguente matrice $A' = [[1,0,0],[1,1,0],[1,1,1]]$. Questa matrice rispetto a quella di prima non è diagonalizzabile ma ha il medesimo polinomio caratteristico, quindi stesso polinomio minimo. I due sistemi, cioè quello di oggi e questo, hanno gli stessi modi?
No. L'unico modo del primo sistema è $1(k)$. I modi del secondo sono $1(k)$, $k$ e $k^2$ (infatti l'esponente $mu$ di $k$ varia tra $0$ e la molteplicità di $1$ nel polinomio minimo meno uno). L'uscita poi si ottiene come combinazione lineare di tali modi naturali, e dipende dalle condizioni iniziali.
Ok grazie per il momento =) una buona pasqua per domani
Supponiamo di avere la seguente risposta impulsiva $y(t) = (2e^t+sin(frac{\pi*t}{3}))*1(t-1))$. Mi si chiede di individuare la funzione di trasferimento associata a questa risposta.
Sappiamo che, nel caso di risposte impulsive...$Y(s) = G(s)$ per trasformare secondo Laplace allora sfrutto la sovrapposizione degli effetti e scrivo $y(t) = y_1(t)+y_2(t)$ con $y_1(t) = 2e^t*1(t-1) = 2*e*e^(t-1)*1(t-1) -> Y_1(s) = frac{2*e^(1-s)}{s-1}$ diciamo ho aggirato in questo modo un ostacolo che sembrava una fesseria, ma in realtà non lo era...Consideriamo ora $y_2(t) = sin(frac{\pi*t}{3})*1(t-1)$ in questo caso fare un giochetto come quello dell'esponenziale non mi riesce, in quanto l'ingresso sinusoidale parte da una "posizione un pò scomoda" che non mi permette di fare giochetti tipo quello dell'esponenziale...e quindi come mi comporto? potrei scrivere magari la sinusoide con le formule di eulero e procedere come per l'altro esponenziale...ma sinceramente mi pare un procedimento un pò astruso...in conclusione come mi comporto per la $y_2(t)$?
Sappiamo che, nel caso di risposte impulsive...$Y(s) = G(s)$ per trasformare secondo Laplace allora sfrutto la sovrapposizione degli effetti e scrivo $y(t) = y_1(t)+y_2(t)$ con $y_1(t) = 2e^t*1(t-1) = 2*e*e^(t-1)*1(t-1) -> Y_1(s) = frac{2*e^(1-s)}{s-1}$ diciamo ho aggirato in questo modo un ostacolo che sembrava una fesseria, ma in realtà non lo era...Consideriamo ora $y_2(t) = sin(frac{\pi*t}{3})*1(t-1)$ in questo caso fare un giochetto come quello dell'esponenziale non mi riesce, in quanto l'ingresso sinusoidale parte da una "posizione un pò scomoda" che non mi permette di fare giochetti tipo quello dell'esponenziale...e quindi come mi comporto? potrei scrivere magari la sinusoide con le formule di eulero e procedere come per l'altro esponenziale...ma sinceramente mi pare un procedimento un pò astruso...in conclusione come mi comporto per la $y_2(t)$?
Effettivamente la partenza è un pò scomoda...
Io farei partire il segnale dall'origine, così:
$y_2 '(t)=sin((pi (t+1))/3)*1(t+1-1)=sin((pi t)/3 + pi/3)$
($1(t)$ diventa ininfluente, la $ccL$-trasformata unilatera ignora ciò che accade prima dell'origine). Ora è facile, infatti è noto che
$ccL[sin(omega t + varphi)]=(omega * cos( varphi )+ s * sin( varphi))/(s^2+omega^2)$
e che $ccL[y_2(t)]=ccL[y_2'(t)]*e^(-s)$.
Io farei partire il segnale dall'origine, così:
$y_2 '(t)=sin((pi (t+1))/3)*1(t+1-1)=sin((pi t)/3 + pi/3)$
($1(t)$ diventa ininfluente, la $ccL$-trasformata unilatera ignora ciò che accade prima dell'origine). Ora è facile, infatti è noto che
$ccL[sin(omega t + varphi)]=(omega * cos( varphi )+ s * sin( varphi))/(s^2+omega^2)$
e che $ccL[y_2(t)]=ccL[y_2'(t)]*e^(-s)$.
P.S. Ho ricavato, tramite le formule di eulero, la trasformata di Laplace di un segnale del tipo $sin(\omega*t)*1(t-\tau))$ ho fatto un pò di passaggi ma è una formula di carattere generale, che a dir la verità non avevo mai visto in giro...bhu
la formula è la seguente $L[sin(\omega*t)*1(t-\tau))] = e^-(\tau*s)*(sin(\omega*tau)*frac{s}{s^2+\omega^2}+cos(\omega*tau)*frac{\omega}{s^2+\omega^2})$
la formula è la seguente $L[sin(\omega*t)*1(t-\tau))] = e^-(\tau*s)*(sin(\omega*tau)*frac{s}{s^2+\omega^2}+cos(\omega*tau)*frac{\omega}{s^2+\omega^2})$