Forma quadratica parametrica
Considera la forma quadratica dipendente da parametro
a) Per ogni parametro $alpha in R$ scrivere la matrice simmetrica associata $A(alpha)$ e studiare il segno di $Q$.
b) Per $alpha=0$ determina una matrice diagonalizzante ortogonale e ridurre $Q(x,y,z,0)$ in forma canonica mediante cambio di base.
Qualcuno può aiutarmi con questo esercizio? Almeno per impostarlo e iniziare a ragionarvi sopra...non so proprio dove mettere le mani
$ Q(x,y,z,alpha)=x^2+z^2+2alphaxy+2xz $
a) Per ogni parametro $alpha in R$ scrivere la matrice simmetrica associata $A(alpha)$ e studiare il segno di $Q$.
b) Per $alpha=0$ determina una matrice diagonalizzante ortogonale e ridurre $Q(x,y,z,0)$ in forma canonica mediante cambio di base.
Qualcuno può aiutarmi con questo esercizio? Almeno per impostarlo e iniziare a ragionarvi sopra...non so proprio dove mettere le mani
Risposte
credo di poterti essere d'aiuto solo in parte.
1. io sapevo che per forme quadratiche del tipo: $a_0x^2+a_1xy+a_2y^2+a_3xz+a_4yz+a_5z^2+a_6x+a_7y+a_8z+a_9=0 $
la matrice associata fosse:
che nel tuo caso dovrebbe diventare: $ [ ( 1 , alpha , 1 ),( alpha , 0 , 0 ),( 1 , 0 , 1 ) ] $
2. calcoli gli autovettori come sempre e poi li ortogonalizzi (senza la necessità di normalizzare) e costruisci la matrice che ha per colonne gli autovettori.
per la seconda parte invece mi spiace ma non posso esserti d'aiuto.
1. io sapevo che per forme quadratiche del tipo: $a_0x^2+a_1xy+a_2y^2+a_3xz+a_4yz+a_5z^2+a_6x+a_7y+a_8z+a_9=0 $
la matrice associata fosse:
$ [ ( a_0 , a_1/2 , a_3/2 , a_6/2 ),( a_1/2 , a_2 , a_4/2 , a_7/2 ),( a_3/2 , a_4/2 , a_5 , a_8/2 ),( a_6/2 , a_7/2 , a_8/2 , a_9 ) ] $
che nel tuo caso dovrebbe diventare: $ [ ( 1 , alpha , 1 ),( alpha , 0 , 0 ),( 1 , 0 , 1 ) ] $
2. calcoli gli autovettori come sempre e poi li ortogonalizzi (senza la necessità di normalizzare) e costruisci la matrice che ha per colonne gli autovettori.
per la seconda parte invece mi spiace ma non posso esserti d'aiuto.
Fino alla scrittura della matrice associata ci sono. Poi mi impantano già dal calcolo degli autovalori, dato che non riesco a scomporre il polinomio caratteristico $ lambda ^3-2lambda^2+alpha^2-alpha^2lambda=0 $ .
Ho provato a risolvere Ruffini utilizzando costanti numeriche e variabili in $alpha$ ($alpha$, $-alpha$, $2alpha$, $(alpha)/2$, $2+alpha$, $alpha^2$, $(1)/alpha$, $2/alpha$, $alpha^(-2)$, $-alpha^(-2)$, $-alpha^(-2)+1$) ma niente.
Una domanda: perché con costanti numeriche, una volta trovati i vettori ortogonali, per costruire la matrice diagonalizzante ortogonale è necessario normalizzarli mentre con parametri no?
Ho provato a risolvere Ruffini utilizzando costanti numeriche e variabili in $alpha$ ($alpha$, $-alpha$, $2alpha$, $(alpha)/2$, $2+alpha$, $alpha^2$, $(1)/alpha$, $2/alpha$, $alpha^(-2)$, $-alpha^(-2)$, $-alpha^(-2)+1$) ma niente.
Una domanda: perché con costanti numeriche, una volta trovati i vettori ortogonali, per costruire la matrice diagonalizzante ortogonale è necessario normalizzarli mentre con parametri no?
"mobley":
mi impantano già dal calcolo degli autovalori, dato che non riesco a scomporre il polinomio caratteristico
devi imporre la condizione $alpha = 0$ come indica il testo dell'esercizio. con questa piccola accortezza il polinomio caratteristico (stando ai tuoi calcoli che non ho rifatto) diventa $chi_Q(lambda)=lambda^3 - 2lambda^2$.
"mobley":
Una domanda: perché con costanti numeriche, una volta trovati i vettori ortogonali, per costruire la matrice diagonalizzante ortogonale è necessario normalizzarli mentre con parametri no?
non è che lo si fa con le costanti numeriche e con i parametri no. l'esercizio qui chiede di trovare "una matrice diagonalizzante ortogonale". ortogonale non è ortonormale (il suffisso normale sta a richiamare il fatto che i vettori oltre ad essere "orto(gonali)" sono anche normalizzati).
"cooper":
devi imporre la condizione $alpha = 0$ come indica il testo dell'esercizio
...ma che cazz...

Ok, provo a ricapitolare.
Per il punto a) vado a studiare il segno della forma quadratica con sylvester:
$ A=[ ( 1 , alpha , 1 ),( alpha , 0 , 0 ),( 1 , 0 , 1 ) ] $
da cui
$ A_(\1)=1>0 $
$ A_(\2)=det| ( 1 , alpha ),( alpha , 0 ) | ->alpha=0 $
da cui
$ A_(\1)=1>0 $
$ A_(\2)=det| ( 1 , alpha ),( alpha , 0 ) | ->alpha=0 $
quindi la matrice $A$ è indefinita.
Per il punto b), dato il polinomio $lambda^3-2lambda^2=0$, ottengo autovalori $lambda_(\1)=0$ con molteplicità algebrica $m(0)=2$ e $lambda_(\2)=2$ con molteplicità algebrica $m(2)=1$.
Gli autovettori sono, rispettivamente:
$ [ ( 1 , 0 , 1 ),( 0 , 0 , 0 ),( 1 , 0 , 1 ) ] ->det|1|=1->R(A_(\0))=1->dim(S(0))=2-> bar(u)=[ ( 0 ),( l ),( k ) ] =l[ ( 0 ),( 1 ),( 0 ) ] +k[ ( 0 ),( 0 ),( 1 ) ] $
$ [ ( -1 , 0 , 1 ),( 0 , -2 , 0 ),( 1 , 0 , -1 ) ] ->det | ( -1 , 0 ),( 0 , -2 ) | =2->R(A_(\2))=2->dim(S(2))=1-> bar(v)=[ ( h ),( 0 ),( h ) ] =h[ ( 1 ),( 0 ),( 1 ) ] $
Ora devo verificare se sono ortogonali. Se avessi avuto due autovettori "singoli" del tipo $ bar(x)=l[ ( 2 ),( 0 ),( 0 ) ]$ e $ bar(y)=k[ ( 0 ),( 0 ),( 2)]$ avrei fatto $ bar(x)bar(y)=l\cdot k[ ( 2 ),( 0 ),( 0 ) ] [ ( 0 ),( 0 ),( 2 ) ]=l\cdot k[(2\cdot0)+(0\cdot0)+(0\cdot2)]=0 $. Ora invece, avendo $bar(u)=l[ ( 0 ),( 1 ),( 0 ) ]+k[ ( 0 ),( 0 ),( 1 ) ]$, ha senso scrivere
$ bar(u)bar(v)=(l[ ( 0 ),( 1 ),( 0 ) ]+k[ ( 0 ),( 0 ),( 1 ) ] )h[ ( 1 ),( 0 ),( 1 ) ] $
Se si, devo svolgere i singoli prodotti tra autovettori? Perché in tal caso l'ortogonalità non sarebbe verificata...
Se no, come ne dimostro l'ortogonalità?
"cooper":
non è che lo si fa con le costanti numeriche e con i parametri no. l'esercizio qui chiede di trovare "una matrice diagonalizzante ortogonale". ortogonale non è ortonormale (il suffisso normale sta a richiamare il fatto che i vettori oltre ad essere "orto(gonali)" sono anche normalizzati).
Il professore, per operare il cambio di variabili, normalizzava gli autovettori così da potersi costruire una matrice diagonalizzante ortogonale tale per cui la sua inversa era uguale alla sua trasposta (come da definizione di ortonormalità).
Ovvero a dire:
$ P=[ bar(u_(\1)) \ \ bar(v_(\1)) ] $ era la matrice diagonalizzante ortogonale con $bar(u_(\1))$ normalizzazione di $bar(u)$ e $bar(v_(\1))$ normalizzazione di $bar(v)$. Da qui,
$bar(X)^TAbar(X)=bar(X)^TPDP^Tbar(X)$
con $D$ matrice diagonale. Per cui, data per definizione $bar(Y)=P^Tbar(X)$ con $P^T$ matrice trasposta della matrice diagonalizzante ortogonale normalizzata, il cambio di variabili era $bar(Y)^TDbar(Y)=lambda_(\1) {::}text(y)_(\ \ 1)^(2)+lambda_(\2) {::}text(y)_(\ \ 2)^(2)+ ...+lambda_(\n) {::}text(y)_(\ \ n)^(2)$
Siccome qui chiede il cambiamento di variabili suppongo di dover normalizzare no? Il che mi porterebbe a dire che nei casi in cui invece il cambiamento di variabili non è richiesto devo solo trovare la matrice ortogonale, senza normalizzare.
allora, purtroppo mi sembra di vedere degli errori.
a) premettendo che ho dato una veloce letta su internet alla segnatura di una matrice, non capisco perchè imponi $alpha = 0$.
quello che ottieni (se ho ben capito il procedimento) sono i tre (e non due da quello che mi è parso di capire) minori principali: $A_1 = 1 > 0$ e $A_2=A_3=- alpha^2 < 0$. da qui concludo che è indefinita $AA alpha in RR$.
b)
fin qua è giusto ma pi hai fatto un po' di pasticci.
$lambda=0$
un generico vettore dell'autospazio è: $((-z),(y),(z))$ e non quello che hai scritto tu. da qui i due autovettori che ottieni sono per esempio $v_1=((-1),(0),(1)) ^^ v_2=((0),(1),(0))$.
$lambda 0 2$ mi sembra tutto ok!
allora la matrice diagonalizzante (in generale NON ortogonale) è: $ ( ( -1 , 0 , 1 ),( 0 , 1 , 0 ),( 1 , 0 , 1 ) ) $
no, non devi verificare che siano ortogonali. devi renderli tali. come? col processo di ortogonalizzazione di Gram-Schmidt (lo conosci)? cioè:
$w_1 = v_1 $
$w_2 = v_2- ()/()*w_1$
$w_3 = v_3- ()/()*w_1- ()/()*w_2$
in questo modo troverai i tuoi tre autovettori ortogonalizzati.
a questo punto sostituisci alle colonne della matrice di prima questi tre nuovi vettori facendo attenzione a mantenre lo stesso ordine di prima.
purtroppo per la seconda parte del punto b) non posso esserti di aiuto in alcun modo perchè le forme quadratiche non le ho mai tratatte. può quindi essere che per ortogonalizzare gli autovettori ci fosse un metodo che contemplasse anche la seconda parte dell'esercizio ma purtroppo non so nemmeno cosa stia chiedendo.
a) premettendo che ho dato una veloce letta su internet alla segnatura di una matrice, non capisco perchè imponi $alpha = 0$.
quello che ottieni (se ho ben capito il procedimento) sono i tre (e non due da quello che mi è parso di capire) minori principali: $A_1 = 1 > 0$ e $A_2=A_3=- alpha^2 < 0$. da qui concludo che è indefinita $AA alpha in RR$.
b)
"mobley":
Per il punto b), dato il polinomio λ3−2λ2=0, ottengo autovalori λ1=0 con molteplicità algebrica m(0)=2 e λ2=2 con molteplicità algebrica m(2)=1.
fin qua è giusto ma pi hai fatto un po' di pasticci.
$lambda=0$
un generico vettore dell'autospazio è: $((-z),(y),(z))$ e non quello che hai scritto tu. da qui i due autovettori che ottieni sono per esempio $v_1=((-1),(0),(1)) ^^ v_2=((0),(1),(0))$.
$lambda 0 2$ mi sembra tutto ok!
allora la matrice diagonalizzante (in generale NON ortogonale) è: $ ( ( -1 , 0 , 1 ),( 0 , 1 , 0 ),( 1 , 0 , 1 ) ) $
"mobley":
Ora devo verificare se sono ortogonali.
no, non devi verificare che siano ortogonali. devi renderli tali. come? col processo di ortogonalizzazione di Gram-Schmidt (lo conosci)? cioè:
$w_1 = v_1 $
$w_2 = v_2- (
$w_3 = v_3- (
in questo modo troverai i tuoi tre autovettori ortogonalizzati.
a questo punto sostituisci alle colonne della matrice di prima questi tre nuovi vettori facendo attenzione a mantenre lo stesso ordine di prima.
"mobley":
Il professore, per operare il cambio di variabili, normalizzava gli autovettori così da potersi costruire una matrice diagonalizzante ortogonale tale per cui la sua inversa era uguale alla sua trasposta (come da definizione di ortonormalità).
Ovvero a dire: ecc ecc
purtroppo per la seconda parte del punto b) non posso esserti di aiuto in alcun modo perchè le forme quadratiche non le ho mai tratatte. può quindi essere che per ortogonalizzare gli autovettori ci fosse un metodo che contemplasse anche la seconda parte dell'esercizio ma purtroppo non so nemmeno cosa stia chiedendo.

Quell'$alpha=0$ fa riferimento al punto b) come mi hai giustamente fatto notare tu: ho sbagliato io a quotare il tuo messaggio al punto a)
. Nessun imposizione al punto a), dunque.
E il terzo minore principale semplicemente non l'ho scritto perché bastava fermarsi ai primi due per verificarne l'indeterminatezza. Ma hai ragione, sempre meglio scrivere tutto!
Per il punto b) nulla da dire...sono ricaduto nello stesso errore che già nell'altro post avevo fatto
In ogni caso comunque ho capito come trovare l'autovettore per una molteplicità geometrica $=2$ , dovrei non sbagliare a patto di fare attenzione ai passaggi!
Per il processo che mi hai indicato, io non lo conosco e il docente non ne hai mai parlato. Semplicemente ci ha detto di "verificare l'ortogonalità degli autovettori" (cito testualmente), e qualora il prodotto tra autovettori non dovesse risultare $=0$ bisogna sostituire uno dei due autovettori con un altro ottenuto dalla stessa matrice per fare in modo che lo siano.
Ti faccio un esempio. Ho la matrice
i cui autovalori sono $ lambda_(\1)=1, lambda_(\2)=5, lambda_(\3)=-1 $ tutti con molteplicità algebrica $=1$.
Calcolo $bar(u)$ autovettore di $lambda_(\1)=1$:
$ A_(\1)=[ ( 2 , root()(7) , 1 ),( root()(7) , 0 , 0 ),( 1 , 0 , 0 ) ] ->det| ( 2 , root()(7) ),( root()(7) , 0 ) | != 0->R(A_(\1))=2->dim(S(1))-> { ( 2x_(\1)+ root()(7)x_(\2)=-x_(\3)),( root()(7)x_(\1)=0 ):}{ ( x_(\1)=0 ),( x_(\2)=-1/(root()(7))x_(\3) ):}->bar(u)=[ ( 0 ),( -1/(root()(7))h ),( h ) ] =h[ ( 0 ),( -1/(root()(7)) ),( 1 ) ] $
Ora, supponendo di aver trovato (con lo stesso procedimento) i seguenti tre vettori
noto come nessuno dei tre sia tra loro ortogonale. Infatti:
$ bar(u)bar(v)=l\cdotk[ ( 0 ),( -1/(root()(7))),( 1 ) ][ ( 4/root()(7) ),( 1),( 1) ]=l\cdotk[(0\cdot(-2)/(root()(7)))+(-1/(root()(7))\cdot1)+(1\cdot\1)] !=0$.
e nemmeno il primo con il terzo, e il secondo con il terzo. Per questo scelgo altri minori così da ottenere autovettori diversi dai precedenti che, questa volta, siano ortogonali.
Per $bar(u)$ sceglierò ad es. il minore $ | ( 2 , 1 ),( root()(7) , 0 ) |!=0 $ . Avrò quindi:
$ { ( 2x_(\1)+ x_(\3)=- root()(7)x_(\2)),( root()(7)x_(\1)=0 ):}{ ( x_(\1)=0 ),( x_(\3)=-root()(7)x_(\2) ):}->bar(u)=[ ( 0 ),( h ),( -root()(7)h ) ] =h[ ( 0 ),( 1 ),( -root()(7)) ] $
Operando allo stesso modo scelgo i minori delle rispettive matrici tali che $bar(v)=k[ ( 4 ),( root()(7) ),( 1) ]$ e $bar(w)=h[ ( -2/(root()(7)) ),( 1 ),( -1/(root()(7))) ]$.
In questo modo gli autovettori sono tutti mutuamente ortogonali. Questo è quanto ci ha spiegato il docente a lezione.
Ora non so se il procedimento che mi hai indicato tu sia la stessa cosa... Nel caso in cui sia diverso, come useresti il metodo che ho usato io sopra per dimostrare l'ortogonalità tra i due autovettori trovati? Purtroppo devo usare solo il "SUO" metodo...

E il terzo minore principale semplicemente non l'ho scritto perché bastava fermarsi ai primi due per verificarne l'indeterminatezza. Ma hai ragione, sempre meglio scrivere tutto!
Per il punto b) nulla da dire...sono ricaduto nello stesso errore che già nell'altro post avevo fatto

In ogni caso comunque ho capito come trovare l'autovettore per una molteplicità geometrica $=2$ , dovrei non sbagliare a patto di fare attenzione ai passaggi!
Per il processo che mi hai indicato, io non lo conosco e il docente non ne hai mai parlato. Semplicemente ci ha detto di "verificare l'ortogonalità degli autovettori" (cito testualmente), e qualora il prodotto tra autovettori non dovesse risultare $=0$ bisogna sostituire uno dei due autovettori con un altro ottenuto dalla stessa matrice per fare in modo che lo siano.
Ti faccio un esempio. Ho la matrice
$ A=[ ( 3 , root()(7) , 1 ),( root()(7) , 1 , 0 ),( 1 , 0 , 1 ) ] $
i cui autovalori sono $ lambda_(\1)=1, lambda_(\2)=5, lambda_(\3)=-1 $ tutti con molteplicità algebrica $=1$.
Calcolo $bar(u)$ autovettore di $lambda_(\1)=1$:
$ A_(\1)=[ ( 2 , root()(7) , 1 ),( root()(7) , 0 , 0 ),( 1 , 0 , 0 ) ] ->det| ( 2 , root()(7) ),( root()(7) , 0 ) | != 0->R(A_(\1))=2->dim(S(1))-> { ( 2x_(\1)+ root()(7)x_(\2)=-x_(\3)),( root()(7)x_(\1)=0 ):}{ ( x_(\1)=0 ),( x_(\2)=-1/(root()(7))x_(\3) ):}->bar(u)=[ ( 0 ),( -1/(root()(7))h ),( h ) ] =h[ ( 0 ),( -1/(root()(7)) ),( 1 ) ] $
Ora, supponendo di aver trovato (con lo stesso procedimento) i seguenti tre vettori
$ bar(u)=l[ ( 0 ),( -1/root()(7)),( 1 ) ], bar(v)=k[ ( 4/(root()(7))),( 1),( 1 ) ],bar(w)=h[ ( -2/root()(7) ),( 1),( 1 ) ] $
noto come nessuno dei tre sia tra loro ortogonale. Infatti:
$ bar(u)bar(v)=l\cdotk[ ( 0 ),( -1/(root()(7))),( 1 ) ][ ( 4/root()(7) ),( 1),( 1) ]=l\cdotk[(0\cdot(-2)/(root()(7)))+(-1/(root()(7))\cdot1)+(1\cdot\1)] !=0$.
e nemmeno il primo con il terzo, e il secondo con il terzo. Per questo scelgo altri minori così da ottenere autovettori diversi dai precedenti che, questa volta, siano ortogonali.
Per $bar(u)$ sceglierò ad es. il minore $ | ( 2 , 1 ),( root()(7) , 0 ) |!=0 $ . Avrò quindi:
$ { ( 2x_(\1)+ x_(\3)=- root()(7)x_(\2)),( root()(7)x_(\1)=0 ):}{ ( x_(\1)=0 ),( x_(\3)=-root()(7)x_(\2) ):}->bar(u)=[ ( 0 ),( h ),( -root()(7)h ) ] =h[ ( 0 ),( 1 ),( -root()(7)) ] $
Operando allo stesso modo scelgo i minori delle rispettive matrici tali che $bar(v)=k[ ( 4 ),( root()(7) ),( 1) ]$ e $bar(w)=h[ ( -2/(root()(7)) ),( 1 ),( -1/(root()(7))) ]$.
In questo modo gli autovettori sono tutti mutuamente ortogonali. Questo è quanto ci ha spiegato il docente a lezione.
Ora non so se il procedimento che mi hai indicato tu sia la stessa cosa... Nel caso in cui sia diverso, come useresti il metodo che ho usato io sopra per dimostrare l'ortogonalità tra i due autovettori trovati? Purtroppo devo usare solo il "SUO" metodo...
mi sembra un processo decisamente laborioso quello del tuo insegnante anche perchè se per disgrazia non trovi al primo colpo autovettori ortogonali ci vogliono una marea di conti e di tempo. l'altro metodo invece restituisce sempre dei vettori ortogonali indipendentemente dai vettori da cui parti. ma va bhe......
dovendo per forza usare il suo metodo a questo punto devi fare quello che tu stesso hai detto alla fine. controlli che siano ortogonali e se non lo sono consideri altri minori ecc ecc.
però attenzione a calcolare l'ortogonalità con il prodotto interno corretto. se non vado errato, data una forma quadratica, la forma bilineare simmetrica associata si trova da: $b(v,w)=1/2(q(v-w)-q(v)-q(w))$
dovendo per forza usare il suo metodo a questo punto devi fare quello che tu stesso hai detto alla fine. controlli che siano ortogonali e se non lo sono consideri altri minori ecc ecc.
però attenzione a calcolare l'ortogonalità con il prodotto interno corretto. se non vado errato, data una forma quadratica, la forma bilineare simmetrica associata si trova da: $b(v,w)=1/2(q(v-w)-q(v)-q(w))$
"cooper":
mi sembra un processo decisamente laborioso quello del tuo insegnante anche perchè se per disgrazia non trovi al primo colpo autovettori ortogonali ci vogliono una marea di conti e di tempo.
è proprio così. mi limito ad un "no comment"

"cooper":
l'altro metodo invece restituisce sempre dei vettori ortogonali indipendentemente dai vettori da cui parti.
adesso provo a capirci qualcosa, magari riesco a risparmiarmi ore di lavoro
"cooper":
però attenzione a calcolare l'ortogonalità con il prodotto interno corretto. se non vado errato, data una forma quadratica, la forma bilineare simmetrica associata si trova da: $b(v,w)=1/2(q(v-w)-q(v)-q(w))$
Mai vista questa formula. Come si applica ai due autovettori dell'esercizio?
la conosco solo per "sentito dire" diciamo ma secondo me comunque non riguarda i tuoi vettori particolari ma due vettori generici di $RR^3$. devi cioè fare qualcosa del tipo $vecx = (a,b,c) ^^ vecy=(d,e,f)$ e dopo applichi la tua forma quadratica, ovvero:
$b(x,y)=1/2[Q((a-d),(b-e),(c-f))-Q((a),(b),(c))-Q((d),(e),(f))] = calcoli = -ad -cf - dc - af - alpha db - alpha ae$
questo dovrebbe essere il tuo prodotto interno.
$b(x,y)=1/2[Q((a-d),(b-e),(c-f))-Q((a),(b),(c))-Q((d),(e),(f))] = calcoli = -ad -cf - dc - af - alpha db - alpha ae$
questo dovrebbe essere il tuo prodotto interno.
eh ma qui io ho
$ bar(u)=l[ ( a ),( b ),( c ) ] +k[ ( d ),( e ),( f ) ] =l[ ( 0 ),( 1 ),( 0 ) ] +k[ ( -1 ),( 0 ),( 1 ) ] $
$ bar(v)=h[ ( g ),( i ),( m ) ] =h[ ( 1 ),( 0 ),( 1 ) ] $
come la applico? e poi una volta applicata dovrei ottenere $=0$ in caso di ortogonalità e $!=0$ in caso di non ortogonalità?
$ bar(u)=l[ ( a ),( b ),( c ) ] +k[ ( d ),( e ),( f ) ] =l[ ( 0 ),( 1 ),( 0 ) ] +k[ ( -1 ),( 0 ),( 1 ) ] $
$ bar(v)=h[ ( g ),( i ),( m ) ] =h[ ( 1 ),( 0 ),( 1 ) ] $
come la applico? e poi una volta applicata dovrei ottenere $=0$ in caso di ortogonalità e $!=0$ in caso di non ortogonalità?
non ho capito cosa intendi e quale sia il tuo problema, scusa.
quello che ti ho scritto a meno di errori di conto e a meno di errori concettuali è il prodotto scalare rispetto al quale verificare l'ortogonalità. le lettere $a,b,c,d,e,f$ rappresentano le coordinate di un generico vettore col quale puoi avere a che fare. a questo punto prendi i tuoi due vettori (che non hanno insieme $l,k$) e seguendo le regole del prodotto scalare (considerando $alpha =0 $) verifichi se sono ortogonali.
esatto
quello che ti ho scritto a meno di errori di conto e a meno di errori concettuali è il prodotto scalare rispetto al quale verificare l'ortogonalità. le lettere $a,b,c,d,e,f$ rappresentano le coordinate di un generico vettore col quale puoi avere a che fare. a questo punto prendi i tuoi due vettori (che non hanno insieme $l,k$) e seguendo le regole del prodotto scalare (considerando $alpha =0 $) verifichi se sono ortogonali.
"mobley":
e poi una volta applicata dovrei ottenere =0 in caso di ortogonalità e ≠0 in caso di non ortogonalità?
esatto
"cooper":
non ho capito cosa intendi e quale sia il tuo problema, scusa.
il problema è che (sarà la stanchezza, sarà che non avevo mai avuto a che farci prima) non riuscivo ad applicare la formula nonostante le tue indicazioni (e non ci riesco tuttora, a dire il vero...

Ci provo...
Dati i due autospazi espressi in termini delle relative basi
$S(0)={bar(u) in R^3 : bar(u)=l[ ( 0 ) , ( 1 ) , ( 0 ) ]+k[ ( -1 ) , ( 0 ) , ( 1 ) ], l, k in R}$
$S(2)={bar(v) in R^3 : bar(v)=h[ ( 1 ) , ( 0 ) , ( 1 )], h in R}$
ho che:
$w_(\1)=v_(\1)=[ ( -1 ) , ( 0 ) , ( 1 ) ]$
$w_(\2)=v_(\2)-(v_(\2)\cdotw_(\1))/(w_(\1)\cdotw_(\1))\cdotw_(\1)=[ ( 0 ) , ( 1 ) , ( 0 ) ]-([ ( 0 ) , ( 1 ) , ( 0 ) ]\cdot[ ( -1 ) , ( 0 ) , ( 1 ) ])/([ ( -1 ) , ( 0 ) , ( 1 ) ]\cdot[ ( -1 ) , ( 0 ) , ( 1 ) ])\cdot[ ( -1 ) , ( 0 ) , ( 1 ) ]=[ ( 0 ) , ( 1 ) , ( 0 ) ]$
$w_(\3)=v_(\3)-(v_(\3)\cdotw_(\1))/(w_(\1)\cdotw_(\1))\cdotw_(\1)-(v_(\3)\cdotw_(\2))/(w_(\2)\cdotw_(\2))\cdotw_(\2)=[ ( 1 ) , ( 0 ) , ( 1 )]-([ ( 1 ) , ( 0 ) , ( 1 )]\cdot[ ( -1 ) , ( 0 ) , ( 1 ) ])/([ ( -1 ) , ( 0 ) , ( 1 ) ]\cdot[ ( -1 ) , ( 0 ) , ( 1 ) ])\cdot[ ( -1 ) , ( 0 ) , ( 1 ) ]-([ ( 1 ) , ( 0 ) , ( 1 )]\cdot[ ( 0 ) , ( 1 ) , ( 0 ) ])/([ ( 0 ) , ( 1 ) , ( 0 ) ]\cdot[ ( 0 ) , ( 1 ) , ( 0 ) ])\cdot[ ( 0 ) , ( 1 ) , ( 0 ) ]=[ ( 1 ) , ( 0 ) , ( 1 ) ]$.
In nessun modo ottengo vettore nullo. Sicuramente sbaglio ad utilizzarla, ma dove?
il procedimento di G-S è corretto ma quando svolgi i vari prodotti scalari usi il prodotto canonico di $RR^n$ ovvero per te il prodotto scalare è: $sum_(i) x_i y_i$ ovvero sommi il prodotto delle componenti omologhe dei vettori che stai considerando. quello che ti sto dicendo io è che in questo particolare problema il prodotto scalare da utilizzare è un altro. quale ce lo dice la forma quadratica. data infatti una forma quadratica (oppure viceversa data una forma bilineare) è sempre possibile associare un prodotto scalare simmetrico (una forma quadratica). in che modo? con la formula che ti ho scritto prima.
di conseguenza il prodotto scalare che devi utilizzare è: $b(vecx, vecy)= b( [((a),(b),(c))] ; [( (d),(e),(f) )] ) =−ad−cf−dc−af$ avendo posto $alpha = 0$.
quindi se per esempio consideriamo i vettori $v_1=((1),(2),(3)) ^^ v_2=((2),(-2),(0))$ il loro prodotto scalare sarà:
$b(v_1,v_2)=-(1)*(2)-(3)*(0)-(2)*(3)-(1)*(0)=-8$
di conseguenza il prodotto scalare che devi utilizzare è: $b(vecx, vecy)= b( [((a),(b),(c))] ; [( (d),(e),(f) )] ) =−ad−cf−dc−af$ avendo posto $alpha = 0$.
quindi se per esempio consideriamo i vettori $v_1=((1),(2),(3)) ^^ v_2=((2),(-2),(0))$ il loro prodotto scalare sarà:
$b(v_1,v_2)=-(1)*(2)-(3)*(0)-(2)*(3)-(1)*(0)=-8$
ok quindi:
$[ ( 0 ) , ( 1 ) , ( 0 ) ]\cdot[ ( 1 ) , ( 0 ) , ( 1 ) ]=0$ per il prodotto scalare tra il primo autovettore di $S(0)$ e $v$
$[ ( -1 ) , ( 0 ) , ( 1 ) ]\cdot[ ( 1 ) , ( 0 ) , ( 1 ) ]=0$ per il prodotto scalare tra il secondo autovettore di $S(0)$ e $v$
1) E' giusto?
2) Ogni volta che ho un autospazio di dimensione $2$ e un autospazio di dimensione $1$ (e non tutti e due di dimensione $1$, caso in cui mi limiterei a fare semplicemente $l\cdotk[ ( a ) , ( b ) , ( c ) ]\cdot[ ( d ) , ( e ) , ( f ) ]=l\cdotk[ ad+be+cf ]$) devo applicare Gram-Schmidt?
Dimostrando che i due autovettori sono ortogonali andrei poi a normalizzarli (dunque $||bar(u)||= root()((a^2l^2+b^2l^2+c^2l^2))=1 $ ) e ottengo la matrice ortonormale per il cambio di base
$[ ( 0 ) , ( 1 ) , ( 0 ) ]\cdot[ ( 1 ) , ( 0 ) , ( 1 ) ]=0$ per il prodotto scalare tra il primo autovettore di $S(0)$ e $v$
$[ ( -1 ) , ( 0 ) , ( 1 ) ]\cdot[ ( 1 ) , ( 0 ) , ( 1 ) ]=0$ per il prodotto scalare tra il secondo autovettore di $S(0)$ e $v$
1) E' giusto?
2) Ogni volta che ho un autospazio di dimensione $2$ e un autospazio di dimensione $1$ (e non tutti e due di dimensione $1$, caso in cui mi limiterei a fare semplicemente $l\cdotk[ ( a ) , ( b ) , ( c ) ]\cdot[ ( d ) , ( e ) , ( f ) ]=l\cdotk[ ad+be+cf ]$) devo applicare Gram-Schmidt?
Dimostrando che i due autovettori sono ortogonali andrei poi a normalizzarli (dunque $||bar(u)||= root()((a^2l^2+b^2l^2+c^2l^2))=1 $ ) e ottengo la matrice ortonormale per il cambio di base
"mobley":
1) E' giusto?
mi sembra di si.
"mobley":
2) Ogni volta che ho un autospazio di dimensione 2 e un autospazio di dimensione 1 ecc
non ho ben capito cosa mi stai chiedendo, ad ogni modo G-S lo puoi anche applicare ad autospazi con dimensione 1. partendo da un vettore ne costruisce altri ortogonali a quello ed ortogonali tra loro.
"mobley":
Dimostrando che i due autovettori sono ortogonali andrei poi a normalizzarli (dunque ||u¯||=(a2l2+b2l2+c2l2)−−−−−−−−−−−−−−−√=1 ) e ottengo la matrice ortonormale per il cambio di base
mi fido, perchè come già detto non conosco il procedimento.