"Diagonalizzazione" di una matrice
Premessa. Ho visto questa cosa per la prima volta mentre stavo risolvendo un problema di meccanica lagrangiana; secondo me, potrebbe essere un argomento molto interessante, soprattutto dal punto di vista della geometria-algebra lineare.
Prendiamo una matrice [tex]$A$[/tex] quadrata di ordine [tex]n[/tex]. Si sa che c'è tutta una teoria per studiare A, diagonalizzarla se possibile, trovarne autovalori e autovettori etc.
Ebbene, tutto quanta la faccenda ruota attorno al ben noto polinomio caratteristico di cui si cercano le radici: [tex]$\textrm{det}(A-\lambda I)=0[/tex] (1), dove [tex]$I$[/tex] è l'identità di ordine [tex]n[/tex].
Domanda: che cosa succede se in (1) non usiamo più [tex]$I$[/tex]? Fissiamo un'altra arbitraria matrice [tex]B[/tex] quadrata di ordine [tex]n[/tex]: ha senso [tex]$\textrm{det}(A-\lambda' B)=0[/tex]? Se sì, che cosa stiamo facendo? Chi sono i [tex]\lambda'[/tex]? E le soluzioni del sistema [tex](A-\lambda'B)=\overline{\bold{0}}[/tex] chi sono? Non sono propriamente autovettori...
Spero sia una cosa interessante; per altro, ha un nome tutto questo?
A voi la palla
Grazie
Prendiamo una matrice [tex]$A$[/tex] quadrata di ordine [tex]n[/tex]. Si sa che c'è tutta una teoria per studiare A, diagonalizzarla se possibile, trovarne autovalori e autovettori etc.
Ebbene, tutto quanta la faccenda ruota attorno al ben noto polinomio caratteristico di cui si cercano le radici: [tex]$\textrm{det}(A-\lambda I)=0[/tex] (1), dove [tex]$I$[/tex] è l'identità di ordine [tex]n[/tex].
Domanda: che cosa succede se in (1) non usiamo più [tex]$I$[/tex]? Fissiamo un'altra arbitraria matrice [tex]B[/tex] quadrata di ordine [tex]n[/tex]: ha senso [tex]$\textrm{det}(A-\lambda' B)=0[/tex]? Se sì, che cosa stiamo facendo? Chi sono i [tex]\lambda'[/tex]? E le soluzioni del sistema [tex](A-\lambda'B)=\overline{\bold{0}}[/tex] chi sono? Non sono propriamente autovettori...
Spero sia una cosa interessante; per altro, ha un nome tutto questo?
A voi la palla

Grazie

Risposte
Si, ha un nome tutto questo. Mi pare che si chiami "problema agli autovalori generalizzato" (GEP). Alvinlee è uno che ne sa di più sulla questione.
In che contesto della meccanica l'hai trovato? Mi ricordo effettivamente di averlo incrociato pure io... Riguarda forse delle questioni di stabilità degli equilibri?
In che contesto della meccanica l'hai trovato? Mi ricordo effettivamente di averlo incrociato pure io... Riguarda forse delle questioni di stabilità degli equilibri?
Ciao dissonance,
ti ringrazio per la risposta.
Capisco. Ho trovato questo, che credo sia il thread in cui ne avevi parlato proprio con Alvinlee; peccato che le sue slides non risultino più visibili.
Ma quindi è una questione numerica? Pensavo fosse un argomento più di Algebra lineare: secondo te, ha un senso "algebrico" risolvere questo problema per un generico endomorfismo o per una generica matrice? Non so se mi sono spiegato.
Esattamente. Quando scrivi il potenziale di un sistema olonomo, hai una funzione [tex]f:A \subset \mathbb{R}^{n} \to \mathbb{R}[/tex]. Ne studi i punti critici, annullando le derivate parziali. Poi studi l'hessiana e al solito modo determini i massimi (equilibrio stabile) e i minimi (equilibrio instabile).
Attorno alle posizioni di equilibrio stabile, si possono studiare le piccole oscillazioni del sistema (moto armonico).
Sia [tex]P_1[/tex] una posizione di equilibrio stabile; chiamiamo $H$ l'hessiana del potenziale e $G$ la metrica (sarebbe il tensore metrico sulla varietà della configurazioni), entrambe calcolate nel punto [tex]P_1[/tex].
Considera ora il GEP [tex]\textrm{det}(H + G\omega^{2})=0[/tex]: questi "autovalori generalizzati", [tex]\omega^2[/tex] sono esattamente (i quadrati del)le pulsazioni dei moti (armonici) che si sviluppano in un intorno della posizione di equilibrio (dalle quali possiamo subito risalire al periodo, [tex]T=\frac{2\pi}{\omega}[/tex]).
Tutto molto bello e "semplice", almeno dal punto di vista meccanico. Peccato che non abbia trovato uno straccio di giustificazione. Perchè funziona così? Che cosa c'è sotto a livello matematico?
Grazie

ti ringrazio per la risposta.
"dissonance":
Si, ha un nome tutto questo. Mi pare che si chiami "problema agli autovalori generalizzato" (GEP). Alvinlee è uno che ne sa di più sulla questione.
Capisco. Ho trovato questo, che credo sia il thread in cui ne avevi parlato proprio con Alvinlee; peccato che le sue slides non risultino più visibili.
Ma quindi è una questione numerica? Pensavo fosse un argomento più di Algebra lineare: secondo te, ha un senso "algebrico" risolvere questo problema per un generico endomorfismo o per una generica matrice? Non so se mi sono spiegato.
"dissonance":
In che contesto della meccanica l'hai trovato? Mi ricordo effettivamente di averlo incrociato pure io... Riguarda forse delle questioni di stabilità degli equilibri?
Esattamente. Quando scrivi il potenziale di un sistema olonomo, hai una funzione [tex]f:A \subset \mathbb{R}^{n} \to \mathbb{R}[/tex]. Ne studi i punti critici, annullando le derivate parziali. Poi studi l'hessiana e al solito modo determini i massimi (equilibrio stabile) e i minimi (equilibrio instabile).
Attorno alle posizioni di equilibrio stabile, si possono studiare le piccole oscillazioni del sistema (moto armonico).
Sia [tex]P_1[/tex] una posizione di equilibrio stabile; chiamiamo $H$ l'hessiana del potenziale e $G$ la metrica (sarebbe il tensore metrico sulla varietà della configurazioni), entrambe calcolate nel punto [tex]P_1[/tex].
Considera ora il GEP [tex]\textrm{det}(H + G\omega^{2})=0[/tex]: questi "autovalori generalizzati", [tex]\omega^2[/tex] sono esattamente (i quadrati del)le pulsazioni dei moti (armonici) che si sviluppano in un intorno della posizione di equilibrio (dalle quali possiamo subito risalire al periodo, [tex]T=\frac{2\pi}{\omega}[/tex]).
Tutto molto bello e "semplice", almeno dal punto di vista meccanico. Peccato che non abbia trovato uno straccio di giustificazione. Perchè funziona così? Che cosa c'è sotto a livello matematico?
Grazie

Penso che la giustificazione sia semplicemente che tu non ti trovi più in $RR^n$. Le trasformazioni che hai preso in considerazione possiedono un "prodotto interno" (penso che metrica o tensore metrico possano essere più corretti spesso ma qui mi limito agli spazi vettoriali per comodità) diversa e quindi devi considerare il problema in modo diverso. Ma dovrei riguardare con calma la teoria su quell'argomento.
Ciao vict,
grazie per la risposta.
Dunque, ho fatto un po' di calcolo tensoriale nel corso, anche se devo dire che è tutto tranne che chiaro.
Però, per quanto riguarda lo spazio ambiente: è vero, non sono più in [tex]\mathbb{R}^{n}[/tex], ma in una varietà $M$ e nel suo spazio tangente [tex]$\textrm{T}M$[/tex] (qui vive infatti la lagrangiana).
Però sia negli esempi che negli esercizi, per fortuna, non si considerano cose molto strane: insomma, al massimo lo spazio delle configurazioni è una circonferenza, o se abbiamo più gradi di libertà, qualche varietà del tipo [tex]\mathbb{R} \times Q[/tex], insomma nulla di troppo astruso.
Tu dici che il GEP viene fuori da queste cose e dalla struttura dello "spazio ambiente"?
La questione si fa sempre più interessante.
grazie per la risposta.
"vict85":
Penso che la giustificazione sia semplicemente che tu non ti trovi più in $RR^n$. Le trasformazioni che hai preso in considerazione possiedono un "prodotto interno" (penso che metrica o tensore metrico possano essere più corretti spesso ma qui mi limito agli spazi vettoriali per comodità)
Dunque, ho fatto un po' di calcolo tensoriale nel corso, anche se devo dire che è tutto tranne che chiaro.
Però, per quanto riguarda lo spazio ambiente: è vero, non sono più in [tex]\mathbb{R}^{n}[/tex], ma in una varietà $M$ e nel suo spazio tangente [tex]$\textrm{T}M$[/tex] (qui vive infatti la lagrangiana).
Però sia negli esempi che negli esercizi, per fortuna, non si considerano cose molto strane: insomma, al massimo lo spazio delle configurazioni è una circonferenza, o se abbiamo più gradi di libertà, qualche varietà del tipo [tex]\mathbb{R} \times Q[/tex], insomma nulla di troppo astruso.
Tu dici che il GEP viene fuori da queste cose e dalla struttura dello "spazio ambiente"?
La questione si fa sempre più interessante.

Mi sembra di ricordare che la condizione del determinante nullo
è per un'imposizione di parallelismo. Tra cosa? per evitare di dire inesattezze, non dico nulla.
-uhm .siccome già ieri volevo riguardare Meccanica Razionale -questa potrebbe essere l'occasione.
L'idea comunque è studiare le piccole perturbazioni, considerando un vettore "perturbazione" per il punto di equilibrio.
Così poi vedere la qualità dell'equilibrio.
è per un'imposizione di parallelismo. Tra cosa? per evitare di dire inesattezze, non dico nulla.
-uhm .siccome già ieri volevo riguardare Meccanica Razionale -questa potrebbe essere l'occasione.
L'idea comunque è studiare le piccole perturbazioni, considerando un vettore "perturbazione" per il punto di equilibrio.
Così poi vedere la qualità dell'equilibrio.
"Paolo90":
Ciao vict,
grazie per la risposta.
[quote="vict85"]Penso che la giustificazione sia semplicemente che tu non ti trovi più in $RR^n$. Le trasformazioni che hai preso in considerazione possiedono un "prodotto interno" (penso che metrica o tensore metrico possano essere più corretti spesso ma qui mi limito agli spazi vettoriali per comodità)
Dunque, ho fatto un po' di calcolo tensoriale nel corso, anche se devo dire che è tutto tranne che chiaro.
Però, per quanto riguarda lo spazio ambiente: è vero, non sono più in [tex]\mathbb{R}^{n}[/tex], ma in una varietà $M$ e nel suo spazio tangente [tex]$\textrm{T}M$[/tex] (qui vive infatti la lagrangiana).
Però sia negli esempi che negli esercizi, per fortuna, non si considerano cose molto strane: insomma, al massimo lo spazio delle configurazioni è una circonferenza, o se abbiamo più gradi di libertà, qualche varietà del tipo [tex]\mathbb{R} \times Q[/tex], insomma nulla di troppo astruso.
Tu dici che il GEP viene fuori da queste cose e dalla struttura dello "spazio ambiente"?
La questione si fa sempre più interessante.

Le mie sono principalmente ipotesi legate alle forme bilineari. Ci dovrei pensare un po' prima di esserne sicuro.
Vict, comincio a capire quello che intendi e penso tu abbia ragione (complice un'osservazione illuminata di un collega).
Non credo sia un caso: gli "autovettori" trovati con questo metodo risultano essere ortogonali tra loro rispetto al prodotto scalare definito sulla varietà.
Detto meglio: supponiamo che [tex]$B$[/tex] sia una matrice simmetrica (definita positiva) e siano $\lambda_i$ gli autovalori generalizzati di [tex]A[/tex]. Allora le soluzioni [tex]$\overline{X}$[/tex] non nulle del sistema [tex]$(A-\lambda_i B)\overline{X}=\overline{0}$[/tex] sono ortogonali rispetto alla forma bilineare con matrice associata [tex]$B$[/tex], i.e. [tex]^{t}XBX=0$[/tex].
Quanto ho affermato discende dall'osservazione di una decina di casi pratici. Ora andrebbe dimostrato, se è vero; oppure ci vuole il controesempio, che però finora non è saltato fuori.
C'è solo una cosa che non mi torna: quando ho studiato Algebra lineare non mi hanno mai insegnato questo metodo, che pure mi pare "furbo" per trovare basi ortonormali rispetto a prodotti scalari arbitrari: allora ci buttavamo in un mare di conti imponendo a mano le condizioni di ortogonalità e sulla norma.
Che dite? Grazie
Non credo sia un caso: gli "autovettori" trovati con questo metodo risultano essere ortogonali tra loro rispetto al prodotto scalare definito sulla varietà.
Detto meglio: supponiamo che [tex]$B$[/tex] sia una matrice simmetrica (definita positiva) e siano $\lambda_i$ gli autovalori generalizzati di [tex]A[/tex]. Allora le soluzioni [tex]$\overline{X}$[/tex] non nulle del sistema [tex]$(A-\lambda_i B)\overline{X}=\overline{0}$[/tex] sono ortogonali rispetto alla forma bilineare con matrice associata [tex]$B$[/tex], i.e. [tex]^{t}XBX=0$[/tex].
Quanto ho affermato discende dall'osservazione di una decina di casi pratici. Ora andrebbe dimostrato, se è vero; oppure ci vuole il controesempio, che però finora non è saltato fuori.
C'è solo una cosa che non mi torna: quando ho studiato Algebra lineare non mi hanno mai insegnato questo metodo, che pure mi pare "furbo" per trovare basi ortonormali rispetto a prodotti scalari arbitrari: allora ci buttavamo in un mare di conti imponendo a mano le condizioni di ortogonalità e sulla norma.
Che dite? Grazie

Detto meglio: supponiamo che $B$ sia una matrice simmetrica (definita positiva) e siano $\lambda_i$ gli autovalori generalizzati di $A$. Allora le soluzioni $\overline{X}$ non nulle del sistema $(A-\lambda_i B)\overline{X}=\overline{0}$ sono ortogonali rispetto alla forma bilineare con matrice associata $B$, i.e. $^tXBX=0$.
Non sono sicuro di avere capito bene: intendi dire che se $\overline{X}$ è soluzione di $(A-\lambda_i B)\overline{X}=\overline{0}$ allora $^tXBX=0$ (cioè $\overline{X}$ è isotropo per il prodotto scalare di $B$), oppure intendi che se $\overline{X_1}$ e $\overline{X_2}$ sono soluzioni rispettivamente di $(A-\lambda_i B)\overline{X}=\overline{0}$ e $(A-\lambda_j B)\overline{X}=\overline{0}$ (con i != j) allora questi sono ortogonali tra loro, cioè $^tX_1 B X_2 = 0$?
Me lo chiedo perché la prima affermazione non è vera: se B è definita positiva allora un vettore qualsiasi $X$ di R^n è tale che $^tXBX=0$ se e solo se $X=0$, (è parte della definizione che si dà usualmente di matrice definita positiva)
"ZeroMemory":
Non sono sicuro di avere capito bene: intendi dire che se $\overline{X}$ è soluzione di $(A-\lambda_i B)\overline{X}=\overline{0}$ allora $^tXBX=0$ (cioè $\overline{X}$ è isotropo per il prodotto scalare di $B$), oppure intendi che se $\overline{X_1}$ e $\overline{X_2}$ sono soluzioni rispettivamente di $(A-\lambda_i B)\overline{X}=\overline{0}$ e $(A-\lambda_j B)\overline{X}=\overline{0}$ (con i != j) allora questi sono ortogonali tra loro, cioè $^tX_1 B X_2 = 0$?
Hai assolutamente ragione, mi sono espresso male e me ne scuso.
Intendevo la seconda versione, comunque.
Detto alla buona per capirci: facciamo finta di calcolare semplici autovalori e autovettori. Si trova che gli autovettori sono ortogonali tra loro.
Se non ricordo male, questa è una cosa che capita sempre per matrici simmetriche ed è uno dei "pezzi forti" del teorema spettrale.
Ma devo pensare ancora un po'.
Grazie per l'interessamento

Pare che anche la seconda affermazione sia errata...
Siano $x, y$ vettori indipendenti di $R^n$. Possiamo costruire $A$ tale che $A: x -> 2(Bx)$ e $y -> 3(By)$ (se volessimo definire completamente A basterebbe completare ${x, y}$ a ${x, y, z_3, ... , z_n}$ base di $R^n$ e specificare anche le immagini dei vettori $z_i$, ma non ci interessa...). A questo punto abbiamo che x e y risolvono il sistema $(A - lambda B)x=0$ rispettivamente per $lambda = 2, 3$. Quindi se l'affermazione fosse vera dovremmo dire data una matrice definita positiva B, il solo fatto che due vettori siano indipendenti implica che questi siano ortogonali (per il prodotto scalare definito da B), perché esisterebbe A che ha x e y come "autovettori". Ma $e_i, e_j$ sono indipendenti, quindi sarebbe $^te_i B e_j = 0$, ma $^te_i B e_j = b_i_j$, perciò dovremmo ammettere che ogni matrice definita positiva è diagonale!.
Sulla base di questo è facile esibire un controesempio:
$ B = ( ( 2 , -1/sqrt(6) , -1/sqrt(2) ),( -1/sqrt(6) , 3/2 , -1/(2sqrt(3)) ),( -1/sqrt(2) , -1/(2sqrt(3)) , 5/2 ) ) $ è definita positiva (è simmetrica e ha autovalori 1, 2, 3)
ma $ A = ( ( 3B^1 , 2B^2 , 0 ) ) = ( ( 6 , -2/sqrt(6) , 0 ),( -3/sqrt(6) , 3 , 0 ),( -3/sqrt(2) , -1/sqrt(3) , 0 ) ) $ è tale che
$ Ae_1 = A^1 = ( ( 6 ),( -3/sqrt(6) ),( -3/sqrt(2) ) ) = 3 * ( ( 2),( -1/sqrt(6) ),( -1/sqrt(2) ) ) = 3 * B^1 = 3*(Be_1) $ e $ Ae_2 = A^2 = ( ( -2/sqrt(6) ),( 3 ),( -1/sqrt(3) ) ) = 2 * ( ( -1/sqrt(6) ),( 3/2 ),( -1/(2sqrt(3)) ) ) = 2 * B^2 = 2*(Be_2) $
ma $e_1, e_2$ non sono ortogonali rispetto al prodotto scalare definito da $B$ perché $^te_1Be_2 = b_1_2 = -1/sqrt(6)$
può essere che tu volessi dire qualcosa di diverso?
Siano $x, y$ vettori indipendenti di $R^n$. Possiamo costruire $A$ tale che $A: x -> 2(Bx)$ e $y -> 3(By)$ (se volessimo definire completamente A basterebbe completare ${x, y}$ a ${x, y, z_3, ... , z_n}$ base di $R^n$ e specificare anche le immagini dei vettori $z_i$, ma non ci interessa...). A questo punto abbiamo che x e y risolvono il sistema $(A - lambda B)x=0$ rispettivamente per $lambda = 2, 3$. Quindi se l'affermazione fosse vera dovremmo dire data una matrice definita positiva B, il solo fatto che due vettori siano indipendenti implica che questi siano ortogonali (per il prodotto scalare definito da B), perché esisterebbe A che ha x e y come "autovettori". Ma $e_i, e_j$ sono indipendenti, quindi sarebbe $^te_i B e_j = 0$, ma $^te_i B e_j = b_i_j$, perciò dovremmo ammettere che ogni matrice definita positiva è diagonale!.
Sulla base di questo è facile esibire un controesempio:
$ B = ( ( 2 , -1/sqrt(6) , -1/sqrt(2) ),( -1/sqrt(6) , 3/2 , -1/(2sqrt(3)) ),( -1/sqrt(2) , -1/(2sqrt(3)) , 5/2 ) ) $ è definita positiva (è simmetrica e ha autovalori 1, 2, 3)
ma $ A = ( ( 3B^1 , 2B^2 , 0 ) ) = ( ( 6 , -2/sqrt(6) , 0 ),( -3/sqrt(6) , 3 , 0 ),( -3/sqrt(2) , -1/sqrt(3) , 0 ) ) $ è tale che
$ Ae_1 = A^1 = ( ( 6 ),( -3/sqrt(6) ),( -3/sqrt(2) ) ) = 3 * ( ( 2),( -1/sqrt(6) ),( -1/sqrt(2) ) ) = 3 * B^1 = 3*(Be_1) $ e $ Ae_2 = A^2 = ( ( -2/sqrt(6) ),( 3 ),( -1/sqrt(3) ) ) = 2 * ( ( -1/sqrt(6) ),( 3/2 ),( -1/(2sqrt(3)) ) ) = 2 * B^2 = 2*(Be_2) $
ma $e_1, e_2$ non sono ortogonali rispetto al prodotto scalare definito da $B$ perché $^te_1Be_2 = b_1_2 = -1/sqrt(6)$
può essere che tu volessi dire qualcosa di diverso?