Diagonalizzante appartenenete SO(3) relativa alla diagonale

stenford
Sono giorni che ci sbatto la testa:

Sullo spazio vettoriale $V = R3$ si consideri la forma quadratica:
$ L=(x1, x2, x3) = |( x1, x2, x3)| B |(x1,x2,x3)|$

dove $B$ =

$| ( 0 , 3 , 3 ),( 3 , 0 , 3 ),( 3 , 3 , 0 ) |$
Si determini una matrice $R$ di $SO(3)$ tale che $B = R A R^(-1)$
dove A è una matrice
diagonale

Io ho trovato gli autovalori di segno (1,2) con $| -3,-3,6|$ come autovalori e quindi ho trovato la diagonale.
Ora quello che dovrei fare sarebbe trovare una matrice che identifichi un cambio base(correggetemi se sbaglio) che mi porti alla matrice relativa all'autospazio...
Quindi trovo gli autovettori e li incolonno per ottenere la matrice R:
$| ( 1 , 0 , 1 ),( 0 , 1 , 1 ),( -1 , -1 , 1 ) |$
ma il fatto è che il determinante non i viene 1...
Dove sbaglio? qualè il metodo per trovare una diagonalizzante?

Risposte
Paolo902
Hai trovato gli autovalori.

Bene, ora trova una base per ogni autospazio e poi applica Gram-Schmidt alle due basi trovate. Hai finalmente due basi ortonormali: incolonnale. Hai una matrice ortogonale. Eventualmente permuta due colonne "giuste" (o cambia il segno ad una) per aggiustare il (segno del) determinante.

stenford
Allora la base degli autospazi dovrebbe essere:

$|(1,0,1)|$ $|(0,1,-1)|$ $ |(1,1,1)|$
i primi relativi all'autovalore -3.. l'ultimo a 6
Il problema è questo: se provo ad applicare gram shmidt che se non sbaglio è:
$ |vi|- (( |u|,|vi| )/( |u|,|u| )) * |u|$
con u vettore della base per cui (u,u) in questo caso $|1,1,1| sia diverso da 0.
ottengo sempre (u,vi)=0 (quindi i vettori sono fi coniugati?),e quindi non riesco ad usare il processo di gram-shmidt.
Ma ogni vettore, a parte u, ha (vi,vi)=0 quindi non so come normalizzare tali basi per ottenere la matrice con determinante 1
Comunque l'esercizio di riferimento è:
http://www.mat.unimi.it/users/lanteri/g ... -apr09.pdf
3-b se può servire
grazie per l'aiuto :)

Quinzio
Il fatto è che gli autovettori non formano nemmeno una base ortogonale. Se prendi i prodotti scalari dei vettori a due a due non ottieni sempre zero.
Se ti chiedono di trovare la base di autovettori che diagonalizza la matrice non è vero che puoi scegliere questa base (in modo che sia ad esempio ortogonale). La base viene quel che viene. E' unica tra l'altro.
Non si può neanche applicare Graham-Schmidt perchè poi la base ottenuta non diagonalizza la matrice.
Forse sono io che non capisco. Non saprei.

Sk_Anonymous
Hai sbagliato il primo autovettore:

$det((-lambda,3,3),(3,-lambda,3),(3,3,-lambda))=0 rarr [lambda^3-27lambda-54=0] rarr [(lambda+3)^2(lambda-6)=0] rarr [lambda=-3] vv [lambda=6]$

$[lambda=-3] rarr [vec(v_(-3))=(t_1,t_2,-t_1-t_2)] rarr [vec(v_(-3))=(1,0,-1)] vv [vec(v_(-3))=(0,1,-1)]$

$[lambda=6] rarr [vec(v_(6))=(t,t,t)] rarr [vec(v_(6))=(1,1,1)]$

Ora puoi facilmente ortonormalizzare.

Paolo902
"Quinzio":
Il fatto è che gli autovettori non formano nemmeno una base ortogonale. Se prendi i prodotti scalari dei vettori a due a due non ottieni sempre zero.
Se ti chiedono di trovare la base di autovettori che diagonalizza la matrice non è vero che puoi scegliere questa base (in modo che sia ad esempio ortogonale). La base viene quel che viene. E' unica tra l'altro.
Non si può neanche applicare Graham-Schmidt perchè poi la base ottenuta non diagonalizza la matrice.
Forse sono io che non capisco. Non saprei.



Mi scuso, sono di fretta, eventualmente ne riparliamo con calma.

Capisco le tue obiezioni, alcune cose di quello che dici sono vere, in generale. Ma la matrice in questione è simmetrica e questo cambia le cose: il teorema spettrale, in campo reale, ti dice che la simmetria è c.n.s per la diagonalizzabilità in base ortogonale (o ortonormale, se preferisci). Detto male, la simmetria ti garantisce che se applichi Gram-Schimdt dentro ciascun autospazio, non esci dall'autospazio e quindi riesce a rendere ortogonali gli autovettori.

Attenzione, comunque: in generale, non vedo perchè la base di autovettori debba essere unica. Metti che hai una matrice con autovalori $1,2,3$ tutti semplici e supponi che $(1,1,1)$ sia un autovettore relativo a 1. Allora nella base puoi mettere un qualunque $k(1,1,1)$ con $k \in \mathbb R$, non vedo che cosa cambia. Ti torna?

Scusate le fretta.

maurer
Oh sì Paolo ha ragione su ogni punto. E si può rendere peggiore la cosa: l'unicità non è unica nemmeno se chiediamo che la base sia ortonormale (nel caso in cui abbia senso). Infatti, basta applicare una qualunque isometria non identica (una rotazione, ad esempio) ad un sottospazio invariante per ottenere una base diversa che diagonalizza sempre la matrice.

stenford
ragazzi ho finalmente capitoo!!
grazie speculor avevo sbagliato a copiare l'ultimo vettore..
cmq ho trovato un teorema che dice che :"Sia f simmetrico. Autovettori relativi ad autovettori distinti sono ortogonali"
Quindi devo unicamente controllare che gli autovettori siano ortogonali fra di loro nello stesso autospazio quindi applico gram-shmidt .
Però: se cerco di applicare Gram shmidt devo trovare quel vettore $V$ la cui forma quadratica :

$ V * B * V$ sia diversa da zero sennò ponendolo al denominatore (per la formula di gram-shmidt) ottengo un'assurdo...
il problema è che nessun autovettore relativo all'autospazio dell'autovalore -3 ha forma quadratica diversa da 0!!
l'ho provato anche nel caso generale ponendo il generico vettore dell'autospazio $V3$:

$| ( x ),( y ),( -x-y ) |$ * B * $| ( x ),( y ),( -x-y ) |$ !=0
Mi viene :
$x^2+xy+y^2!=0$
e che quindi le radici risiedono in C .. ma il campo analizzato era R quindi?
non trovandolo con gram-shmidt ho provato alla "vecchia maniera", ovvero ho preso $ u = | ( 0 ),( 1 ),( -1 ) |$ come vettore di partenza e ho cercato quel vettore dell'autospazio $V3$ in modo tale che (u,v)=0 con in ottengo la condizione y=-2x sul generico vettore in che quindi è della forma $| ( x ),( -2x ),( x ) |$
Quindi ottengo il vettore $| ( 1 ),( -2 ),( 1 ) |$ che effettivamente è ortogonale sia a $| ( 1 ),( 1 ),( 1 ) |$ che a
$| ( 0 ),( 1 ),( -1 ) |$..
Li pongo in colonna ma ottengo un vettore con determinante neanche uguale a |1| quindi neanche ortogonale!
Dove sbaglio?

stenford
scusatemi per il multi-post ma volevo chiedere anche un'altra cosa :P
visto che non siamo in uno spazio vettoriale euclideo è sbagliato cercare una base ortogonale ma bisogna cercare una base coniugata rispetto al prodotto interno.
Quindi le matrici che devo cercare devono essere formate da vettori ortogonali e non semplicemente coniugati al prodotto interno..
ciò vuol dire che la base ortogonale è da ricercare usando il classico prodotto vettoriale e non quello fornito dall'esercizio?

Quinzio
"Paolo90":
[quote="Quinzio"]Il fatto è che gli autovettori non formano nemmeno una base ortogonale. Se prendi i prodotti scalari dei vettori a due a due non ottieni sempre zero.
Se ti chiedono di trovare la base di autovettori che diagonalizza la matrice non è vero che puoi scegliere questa base (in modo che sia ad esempio ortogonale). La base viene quel che viene. E' unica tra l'altro.
Non si può neanche applicare Graham-Schmidt perchè poi la base ottenuta non diagonalizza la matrice.
Forse sono io che non capisco. Non saprei.



Mi scuso, sono di fretta, eventualmente ne riparliamo con calma.

Capisco le tue obiezioni, alcune cose di quello che dici sono vere, in generale. Ma la matrice in questione è simmetrica e questo cambia le cose: il teorema spettrale, in campo reale, ti dice che la simmetria è c.n.s per la diagonalizzabilità in base ortogonale (o ortonormale, se preferisci). Detto male, la simmetria ti garantisce che se applichi Gram-Schimdt dentro ciascun autospazio, non esci dall'autospazio e quindi riesce a rendere ortogonali gli autovettori.

Attenzione, comunque: in generale, non vedo perchè la base di autovettori debba essere unica. Metti che hai una matrice con autovalori $1,2,3$ tutti semplici e supponi che $(1,1,1)$ sia un autovettore relativo a 1. Allora nella base puoi mettere un qualunque $k(1,1,1)$ con $k \in \mathbb R$, non vedo che cosa cambia. Ti torna?

Scusate le fretta.[/quote]

Ok, però bisognerebbe chiarire una cosa che non ho ancora visto.
Abbiamo due sottospazi: uno relativo all'autovalore -3 che ha dimensione 2, e uno relativo all'autovalore 6 che ha dimensione 1.
Lo spazio che va ortogonalizzato e quello "-3". Ovvero vanno trovati in esso due vettori ortogonali.
A questo punto, qualunque coppia di autovettori trovi sono sempre ortogonali relativamente al terzo a.vettore relativo a "6".
Altrimenti, se dovessi seguire gli interventi fatti, sembra che possa usare GrahamS. prendendo i 3 autovettori come un insieme indistinto, ma non è così.

stenford
già comunque alla fine mi è venuto l'esercizio
in quanto lo spazio da ortogonalizzare è -3 ma appunto va ortogonalizzato(quindi in uno spazio con prodotto scalare per definizione) e infine normalizzato per ottenere la matrice necessaria. Infatti se provi a normalizzare qualsiasi vettore dell'autospazio rispetto al prodotto definito da B otterrai sempre 0 .. assurdo

Paolo902
"Quinzio":

Lo spazio che va ortogonalizzato e quello "-3". Ovvero vanno trovati in esso due vettori ortogonali.
A questo punto, qualunque coppia di autovettori trovi sono sempre ortogonali relativamente al terzo a.vettore relativo a "6".
Altrimenti, se dovessi seguire gli interventi fatti, sembra che possa usare GrahamS. prendendo i 3 autovettori come un insieme indistinto, ma non è così.


Pensavo che fosse abbastanza chiaro:

"Paolo90":
Detto male, la simmetria ti garantisce che se applichi Gram-Schimdt dentro ciascun autospazio, non esci dall'autospazio e quindi riesce a rendere ortogonali gli autovettori.


Comunque adesso ti è tutto chiaro?

stenford
sìsì grazie mille veramente a tutti!! :)

Paolo902
Prego, figurati :wink:

stenford
anzi asp mi hai fatto venire due dubbi:
su un'autospazio puoi usare gram-shmidt solamente se il prodotto interno è definito positivo ma qui ha segnatura (1,2) quindi non si può usare no?
Quindi se un prodotto interno su uno spazio vettoriale euclideo(R3 lo è) non è definito positivo allora non può avere vettori ortonormali(non si può usare gram-shmidt in particolare per normalizzarli) fra di loro, cosa richiesta per trovare la matrice appartenente ad $SO(3)$..
per questo motivo si deve concludere che il prodotto da utilizzare per ortonormalizzare la base degli autospazi è quello canonico.. se sbaglio correggimi ti prego xd
Se invece il prodotto interno applicato su uno spazio vettoriale è definito positivo allora si può usare gram-shmidt e quindi si va a cavallo e non c'è bisogno del prodotto interno canonico no?

Seconda domanda:
perchè se un prodotto interno non è definito positivo allora non è possibile normalizzare la base come accade in questo esercizio?infatti per tutti i vettori dell'autospazio mi veniva norma =0 chiaramente impossibile da normalizzare.. centra qualcosa il fatto che siamo in $R$ e non in $C$?

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.