Prodotti scalari simultaneamente ortogonalizzabili
Avrei bisogno di chiarimenti per quanto riguarda un argomento... Siano $\phi$ e $\psi$ due prodotti scalari, di cui $\phi$ definito positivo. Allora prendo $(V,\phi)$ spazio euclideo, e considero le matrici indotte dai due prodotti scalri nella base (per esempio) canonica. Avrò allora due matrici simmetriche $A=M_{can}(\phi)$ e $B=M_{can}(\psi)$ dove can indica la base canonica. Siccome sono in uno spazio euclideo e $B$ è simmetrica, per il teorema spettrale posso trovare una base spettrale, cioè una base che è contemporaneamente ortonormale per $A$ e ortogonale per $B$, perchè gli conferisce una forma diagonale. E qui cominciano i dubbi.
Da dove dovrei partire per trovare la base spettrale? Mi spiego meglio, io di solito trovo una base di autovettori per $B$, dopodichè la rendo ortogonale con Gram-Schmidt e poi la normalizzo rispetto al prodotto scalare $\phi$. In questo modo riesco a trovare una base spettrale. La domanda è: è possibile fare il contrario? cioè prendere prima una base ortonormale e poi tirarci fuori autovettori? Perchè in un esercizio il professore ha fatto una cosa simile e non riesco a capire perchè torni.
Mi spiego meglio. Per il teorema spettrale esiste una base spettrale $S$ per cui $M_{S}(\phi)=I$ e $M_{S}(\psi)=D$ con $I$ matrice identica e $D$ diagonale. A queste forme si arriva tramite una matrice ortogonale $N=M_{S,can}(id)$. Per cui:
$$M_{S}(\phi)=N^{t}*M_{can}(\phi)*N=I$$ e $$M_{S}(\psi)=N^{t}*M_{can}(\psi)*N=D$$
dove $N^{t}$ indica la matrice trasposta. Allora lui dice: calcoliamoci il polinomio caratteristico di $D$. Per definizione ho che
$$p_D (t)=det(D-tI)=det(N^{t}BN-tI)=det(N^{t}BN-tN^{t}AN)=det(N^{t}(B-tA)N)=det(N)^2det(B-tA)=det(B-tA)$$
Ma allora non dovrei avere che, visto che il polinomio caratteristico è invariante per coniugio, che $det(B-tA)=det(B-tI)$? Invece provando a risolvere un esercizio, ho visto che vengono diversi, e diversi vengono quindi gli autovalori. Forse ho sbagliato i calcoli, comunque le matrici sono:
$$A=M_{can}(\phi)=\left[\begin{matrix} 2 & 1 & 1\\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{matrix}\right]$$ e
$$B=M_{can}(\psi)=\left[\begin{matrix} 2 & 1 & 1\\ 1 & 1 & 0 \\ 1 & 0 & 1 \end{matrix}\right]$$
Dove si considera $\phi$ il prodotto scalare e $\psi$ da diagonalizzare. Allora mi torna che $det(B-tA)=4t(t-1)^2$ mentre $det(B-tI)=t(t-1)(t-3)$. Come è possibile?
Dopodichè continua prendendo una base ortonormale per il prodotto scalare, e poi da lì ricava gli autovettori rispetto a $B$ che (non capisco bene perchè in effetti) rimangono comunque ortonormali fra loro, anche dopo il cambio di base. Comunque quest'ultimo punto lo riguarderò bene in seguito, per ora mi interesserebbe capire la questione sul polinomio caratteristico.
Da dove dovrei partire per trovare la base spettrale? Mi spiego meglio, io di solito trovo una base di autovettori per $B$, dopodichè la rendo ortogonale con Gram-Schmidt e poi la normalizzo rispetto al prodotto scalare $\phi$. In questo modo riesco a trovare una base spettrale. La domanda è: è possibile fare il contrario? cioè prendere prima una base ortonormale e poi tirarci fuori autovettori? Perchè in un esercizio il professore ha fatto una cosa simile e non riesco a capire perchè torni.
Mi spiego meglio. Per il teorema spettrale esiste una base spettrale $S$ per cui $M_{S}(\phi)=I$ e $M_{S}(\psi)=D$ con $I$ matrice identica e $D$ diagonale. A queste forme si arriva tramite una matrice ortogonale $N=M_{S,can}(id)$. Per cui:
$$M_{S}(\phi)=N^{t}*M_{can}(\phi)*N=I$$ e $$M_{S}(\psi)=N^{t}*M_{can}(\psi)*N=D$$
dove $N^{t}$ indica la matrice trasposta. Allora lui dice: calcoliamoci il polinomio caratteristico di $D$. Per definizione ho che
$$p_D (t)=det(D-tI)=det(N^{t}BN-tI)=det(N^{t}BN-tN^{t}AN)=det(N^{t}(B-tA)N)=det(N)^2det(B-tA)=det(B-tA)$$
Ma allora non dovrei avere che, visto che il polinomio caratteristico è invariante per coniugio, che $det(B-tA)=det(B-tI)$? Invece provando a risolvere un esercizio, ho visto che vengono diversi, e diversi vengono quindi gli autovalori. Forse ho sbagliato i calcoli, comunque le matrici sono:
$$A=M_{can}(\phi)=\left[\begin{matrix} 2 & 1 & 1\\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{matrix}\right]$$ e
$$B=M_{can}(\psi)=\left[\begin{matrix} 2 & 1 & 1\\ 1 & 1 & 0 \\ 1 & 0 & 1 \end{matrix}\right]$$
Dove si considera $\phi$ il prodotto scalare e $\psi$ da diagonalizzare. Allora mi torna che $det(B-tA)=4t(t-1)^2$ mentre $det(B-tI)=t(t-1)(t-3)$. Come è possibile?
Dopodichè continua prendendo una base ortonormale per il prodotto scalare, e poi da lì ricava gli autovettori rispetto a $B$ che (non capisco bene perchè in effetti) rimangono comunque ortonormali fra loro, anche dopo il cambio di base. Comunque quest'ultimo punto lo riguarderò bene in seguito, per ora mi interesserebbe capire la questione sul polinomio caratteristico.
Risposte
"tommy1996q":
$M_S(\phi)=N^t*M_(can)(\phi)*N=I$
$M_S(\phi)=N^t*M_(can)(\phi)*N=D$
Nella seconda riga, immagino che tu intendessi $\psi$. In generale non esiste una matrice ortogonale $N$ per cui:
$N^t*M_(can)(\phi)*N=I$
Se esistesse, si dovrebbe almeno avere:
$det[N^t*M_(can)(\phi)*N]=det rarr det[N^t]det[M_(can)(\phi)]det[N]=1 rarr det[M_(can)(\phi)]=1$
che non rientra nelle ipotesi. Inoltre:
"tommy1996q":
...io di solito trovo una base di autovettori per $B$, dopodichè la rendo ortogonale con Gram-Schmidt e poi la normalizzo rispetto al prodotto scalare $\phi$. In questo modo riesco a trovare una base spettrale.
Ne dubito fortemente. Hai fatto una verifica? Se riferisci i due prodotti scalari rispetto alla "tua" base spettrale, $A$ è certamente uguale a $I$ ma $B$ non è necessariamente diagonale. Veramente, dovresti procedere nel seguente modo:
Passo 1
Determinare una base ortonormale rispetto al prodotto scalare $\phi$. Indicando con $W_1$ la matrice del cambiamento di base, non necessariamente ortogonale, le matrici che rappresentano i prodotti scalari rispetto alla nuova base sono:
$W_1^t*A*W_1=I$ per $\phi$
$W_1^t*B*W_1$ per $\psi$
A questo punto, la prima matrice è uguale a $I$ e la seconda matrice è simmetrica.
Passo 2
Determinare una base ortonormale rispetto al prodotto scalare canonico di autovettori della matrice $W_1^t*B*W_1$. Indicando con $W_2$ la matrice del cambiamento di base, necessariamente ortogonale, le matrici che rappresentano i prodotti scalari rispetto alla nuova base sono:
$W_2^t*W_1^t*A*W_1*W_2$ per $\phi$
$W_2^t*W_1^t*B*W_1*W_2$ per $\psi$
A questo punto, la prima matrice è ancora uguale a $I$:
$W_2^t*W_1^t*A*W_1*W_2=W_2^t*I*W_2=I$
e la seconda matrice è diagonale.
Un procedimento alternativo probabilmente più spedito consiste nel considerare la matrice $B-tA$, ma questo è un altro discorso.
Ho corretto la svista, grazie. Si le cose che dici tu sono giuste, sbagliavo perchè consideravo la base canonica come ortonormale mentre invece nel prodotto scalare che ho scelto non lo è. Prima devo, come dicevi, passare a una base ortonormale (attraverso una matrice che evidentemente non è ortogonale). Però ho 3 domande:
1) perchè nel passo 2 usi il prodotto scalare canonico?
2) Non capisco perchè non vada bene partire dagli autovettori. Per come l'ho capita io ci dovrebbero essere 2 modi equivalenti di procedere.
MODO 1
Calcolo gli autovettori della matrice associata a $\psi$, che considero come una matrice associata a un endomorfismo autoaggiunto. Per questo motivo riesco a scrivere $V$ spazio vettoriale come somma diretta ortogonale dei vari autospazi. A questo punto ci sono due possibilità: se un autospazio ha dimensione 1, normalizzo il vettore della base, mentre se ha dimensione maggiore o uguale a 2 uso Gram-Schmidt sulla base per renderla ortogonale e poi normalizzo la cosa che ottengo. In questo modo ho una base spettrale, perchè ortogonale per $\psi$ e ortonormale per $\phi$.
MODO 2
Parto prendendo una base ortonormale del prodotto scalare. Cambio base e trovo una certa matrice asociata a $\psi$. Ne calcolo gli autovettori e da questi, seguendo lo stesso procedimento di prima (ma stavolta usando il prodotto scalare standard) trovo una base spettrale
3) Non capisco perchè i due polinomi non vengono uguali (dopo provo a ricalcolarli, magari faccio stupidi errori di calcolo che non vedo). Anche se la matrice che uso non è ortogonale, avrei comunque che i due polinomi caratteristici mi differiscono di una certa costante moltiplicativa $det(M)^2$, no? Ma questo è irrilevante ai fini del calcolo degli autovalori, ma allora perchè mi tornano diversi anche gli autovalori?
1) perchè nel passo 2 usi il prodotto scalare canonico?
2) Non capisco perchè non vada bene partire dagli autovettori. Per come l'ho capita io ci dovrebbero essere 2 modi equivalenti di procedere.
MODO 1
Calcolo gli autovettori della matrice associata a $\psi$, che considero come una matrice associata a un endomorfismo autoaggiunto. Per questo motivo riesco a scrivere $V$ spazio vettoriale come somma diretta ortogonale dei vari autospazi. A questo punto ci sono due possibilità: se un autospazio ha dimensione 1, normalizzo il vettore della base, mentre se ha dimensione maggiore o uguale a 2 uso Gram-Schmidt sulla base per renderla ortogonale e poi normalizzo la cosa che ottengo. In questo modo ho una base spettrale, perchè ortogonale per $\psi$ e ortonormale per $\phi$.
MODO 2
Parto prendendo una base ortonormale del prodotto scalare. Cambio base e trovo una certa matrice asociata a $\psi$. Ne calcolo gli autovettori e da questi, seguendo lo stesso procedimento di prima (ma stavolta usando il prodotto scalare standard) trovo una base spettrale
3) Non capisco perchè i due polinomi non vengono uguali (dopo provo a ricalcolarli, magari faccio stupidi errori di calcolo che non vedo). Anche se la matrice che uso non è ortogonale, avrei comunque che i due polinomi caratteristici mi differiscono di una certa costante moltiplicativa $det(M)^2$, no? Ma questo è irrilevante ai fini del calcolo degli autovalori, ma allora perchè mi tornano diversi anche gli autovalori?
"tommy1996q":
Perchè nel passo 2 usi il prodotto scalare canonico?
Nel passo 2 si tratta semplicemente di determinare una matrice ortogonale tale che la matrice simmetrica $W_1^t*B*W_1$ sia diagonale. Da che mondo è mondo le colonne di una matrice ortogonale rappresentano una base ortonormale rispetto al prodotto scalare canonico. Del resto, tutte le volte che in un problema devi diagonalizzare una matrice simmetrica per similitudine mediante una matrice ortogonale, dai per scontato che il prodotto scalare sia quello canonico. Nel mio messaggio precedente ho voluto puntualizzarlo, ma avrei potuto anche non farlo.
"tommy1996q":
MODO 1
Calcolo gli autovettori della matrice associata a $\psi$, che considero come una matrice associata a un endomorfismo autoaggiunto. Per questo motivo riesco a scrivere $V$ spazio vettoriale come somma diretta ortogonale dei vari autospazi. A questo punto ci sono due possibilità: se un autospazio ha dimensione 1, normalizzo il vettore della base, mentre se ha dimensione maggiore o uguale a 2 uso Gram-Schmidt sulla base per renderla ortogonale e poi normalizzo la cosa che ottengo. In questo modo ho una base spettrale, perchè ortogonale per $\psi$ e ortonormale per $\phi$.
Mi sembra che tu dia per scontato che autovettori associati ad autovalori diversi di $B$ siano ortogonali anche rispetto al prodotto scalare $\phi$. Se ci metti una pezza ortogonalizzando tutta la base (pensavo che tu facessi così e, per questo, ho scritto che $A$ è certamente uguale a $I$), non necessariamente $B$ resta diagonale. A questo punto, se veramente ortogonalizzi gli autospazi separatamente, $B$ resta diagonale ma fallisce la consegna su $A$.
"tommy1996q":
MODO 2
Parto prendendo una base ortonormale del prodotto scalare. Cambio base e trovo una certa matrice asociata a $\psi$. Ne calcolo gli autovettori e da questi, seguendo lo stesso procedimento di prima (ma stavolta usando il prodotto scalare standard) trovo una base spettrale.
Mi sembra in tutto e per tutto il procedimento in due passi del mio messaggio precedente.
"tommy1996q":
Non capisco perchè i due polinomi non vengono uguali (dopo provo a ricalcolarli, magari faccio stupidi errori di calcolo che non vedo). Anche se la matrice che uso non è ortogonale, avrei comunque che i due polinomi caratteristici mi differiscono di una certa costante moltiplicativa $det(M)^2$, no? Ma questo è irrilevante ai fini del calcolo degli autovalori, ma allora perchè mi tornano diversi anche gli autovalori?
Ti rispondo più avanti.
Quindi va bene se prima ortonormalizzo il prodotto scalare, scrivo in quella base l'endomorfismo autoaggiunto, calcolo gli autovettori e li normalizzo, ma non se parto dagli autovettori? Non capisco perchè. Cioè una volta che ho verificato che la matrice $B$ è autoaggiunta rispetto al prodotto scalare $A$, perchè non posso dire che gli autospazi sono in somma diretta ortogonale?
Nell' esercizio proposto, per esempio ho fatto cosi:
$B$ rappresenta endomorfismo autoaggiunto $\iff B=A^{-1}B^{t}A \iff AB=B^{t}A \iff AB=(AB)^{t} \iff AB\in S(n)$ dove sappiamo $A$ simmetrica in quanto rappresenta prodotto scalare e $S(n)$ sono le matrici simmetriche.
Una volta detto ciò, ho che autvettori di $B$ in diversi autospazi sono ortogonali. Infatti sia $v\in V_{\lambda}$ e $w\inV_{\theta}$ con $\lambda \ne \theta$ Allora visto che $B$ è una matrice che rappresenta $f$ autoaggiunto ho:
$$\phi(f(v),w)=\phi(v,f(w)) \rightarrow \lambda \phi(v,w)=\theta \phi(v,w)$$
Da cui si deduce che $\phi(v,w)=0$. Quindi perchè non andrebbe bene? A questo punto come ho già detto si tratterebbe solo di normalizzare le basi degli autospazi di dimensione 1 e rendere ortogonali (per poi normalizzare) le basi degli autospazi di dimensione maggiore di 1. Così dovrei conservare la diagonalizzazione di $B$ e l' ortonormalizzazione di $A$, o sbaglio?
Nell' esercizio proposto, per esempio ho fatto cosi:
$B$ rappresenta endomorfismo autoaggiunto $\iff B=A^{-1}B^{t}A \iff AB=B^{t}A \iff AB=(AB)^{t} \iff AB\in S(n)$ dove sappiamo $A$ simmetrica in quanto rappresenta prodotto scalare e $S(n)$ sono le matrici simmetriche.
Una volta detto ciò, ho che autvettori di $B$ in diversi autospazi sono ortogonali. Infatti sia $v\in V_{\lambda}$ e $w\inV_{\theta}$ con $\lambda \ne \theta$ Allora visto che $B$ è una matrice che rappresenta $f$ autoaggiunto ho:
$$\phi(f(v),w)=\phi(v,f(w)) \rightarrow \lambda \phi(v,w)=\theta \phi(v,w)$$
Da cui si deduce che $\phi(v,w)=0$. Quindi perchè non andrebbe bene? A questo punto come ho già detto si tratterebbe solo di normalizzare le basi degli autospazi di dimensione 1 e rendere ortogonali (per poi normalizzare) le basi degli autospazi di dimensione maggiore di 1. Così dovrei conservare la diagonalizzazione di $B$ e l' ortonormalizzazione di $A$, o sbaglio?
"tommy1996q":
MODO 1
Calcolo gli autovettori della matrice associata a $\psi$, che considero come una matrice associata a un endomorfismo autoaggiunto. Per questo motivo riesco a scrivere $V$ spazio vettoriale come somma diretta ortogonale dei vari autospazi. A questo punto ci sono due possibilità: se un autospazio ha dimensione 1, normalizzo il vettore della base, mentre se ha dimensione maggiore o uguale a 2 uso Gram-Schmidt sulla base per renderla ortogonale e poi normalizzo la cosa che ottengo. In questo modo ho una base spettrale, perchè ortogonale per $\psi$ e ortonormale per $\phi$.
In un caso come questo, dove $A$ è una generica matrice simmetrica definita positiva:
$A=((a,b),(b,c)) ^^ \{(a>0),(ac-b^2>0):}$
e $B$ è una generica matrice diagonale con autovalori diversi:
$B=((\lambda_1,0),(0,\lambda_2)) ^^ \lambda_1ne\lambda_2$
tu sostieni che la seguente matrice:
$((1/sqrta,0),(0,1/sqrtc))*((a,b),(b,c))*((1/sqrta,0),(0,1/sqrtc))=((1/sqrta,0),(0,1/sqrtc))*((sqrta,b/sqrtc),(b/sqrta,sqrtc))=((1,b/sqrt(ac)),(b/sqrt(ac),1))$
è sempre uguale a $I$.
"tommy1996q":
Calcolo gli autovettori della matrice associata a $\psi$, che considero come una matrice associata a un endomorfismo autoaggiunto.
In questo caso non è necessario, li conosci già.
"tommy1996q":
A questo punto ci sono due possibilità: se un autospazio ha dimensione 1, normalizzo il vettore della base...
In questo caso c'è solo la prima possibilità, gli autospazi hanno dimensione $1$.
No no, non dico quello, o meglio, manca una ipotesi. Infatti per avere un endomorfismo autoaggiunto e poter quindi applicare il teorema spettrale serve che $AB$ sia simmetrica. Nel caso che proponi questo non è vero, o meglio è vero se e solo se $b=0$ oppure $\lambda_{1}= \lambda_{2}$. Nel primo caso è ovvio il risultato, nel secondo ottengo che tutti i vettori sono autovettori di $\lambda_{2}$ e non mi resta che ortogonalizzare e normalizzare per $A$.
Se $AB$ è simmetrica:
$\{((AB)^t=AB),((AB)^t=B^tA^t=BA):} rarr AB=BA$
le matrici commutano e, per diagonalizzarle simultaneamente, non è necessario scomodare la teoria oggetto di questa discussione. Se sei interessato, anche in rete, puoi trovare numerose risorse sull'argomento. Tra l'altro:
Le due matrici che hai proposto non commutano. Ad ogni modo, non dovresti cambiare le ipotesi di lavoro a tuo piacimento. Soprattutto quando non si applicano agli esercizi che tu proponi. Insomma, per non perdere tempo inutilmente, si può sapere qual è l'argomento della discussione?
$\{((AB)^t=AB),((AB)^t=B^tA^t=BA):} rarr AB=BA$
le matrici commutano e, per diagonalizzarle simultaneamente, non è necessario scomodare la teoria oggetto di questa discussione. Se sei interessato, anche in rete, puoi trovare numerose risorse sull'argomento. Tra l'altro:
"tommy1996q":
...comunque le matrici sono:
$A=((2,1,1),(1,2,1),(1,1,2))$
$B=((2,1,1),(1,1,0),(1,0,1))$
Le due matrici che hai proposto non commutano. Ad ogni modo, non dovresti cambiare le ipotesi di lavoro a tuo piacimento. Soprattutto quando non si applicano agli esercizi che tu proponi. Insomma, per non perdere tempo inutilmente, si può sapere qual è l'argomento della discussione?
L'argomento della discussione a questo punto sarebbe perchè il ragionamento fatto sopra non torna. E' evidentemente sbagliato, e tu hai giustamente fornito un controesempio. Ho capito il metodo di approccio giusto al problema. Ortonormalizzo il prodotto scalare e scrivo $B$ in quella base. Poi cerco base di autovettori e normalizzo anche quella. A questo punto la matrice di cambiamento di base fra queste due basi sarà ortogonale e ho trovato ciò che volevo. Quello che non capisco ora è perchè il ragionamento sopra non torni. Correggimi se sbaglio ma se $A$ e $B$ rappresentano rispettivamente un prodotto scalare e un endomorfismo autoaggiunto in una certa base $S$, allora dovremmo avere
$$B=A^{-1}B^{t}A$$
giusto? E quindi $AB=B^{t}A$, cioè $AB$ simetrico, e nel caso particolare che dicevi tu dovrei avere la commutatività. Probabilmente c'è un errore nella dimostrazione, ma non riesco a capire dove.
P.S. Quando dopo aver trovato la seconda base rispetto al prodotto scalare già ortonormalizzato (quindi rispetto al prodotto scalare standard, nel Passo 2 per capirci), quelle che trovo sono solo le coordinate rispetto la prima base ortonormale giusto? Per finire dovrei ricavarmi i vettori corrispondenti. So che probabilmente è scontato, ma è per essere sicuri di aver capito bene
$$B=A^{-1}B^{t}A$$
giusto? E quindi $AB=B^{t}A$, cioè $AB$ simetrico, e nel caso particolare che dicevi tu dovrei avere la commutatività. Probabilmente c'è un errore nella dimostrazione, ma non riesco a capire dove.
P.S. Quando dopo aver trovato la seconda base rispetto al prodotto scalare già ortonormalizzato (quindi rispetto al prodotto scalare standard, nel Passo 2 per capirci), quelle che trovo sono solo le coordinate rispetto la prima base ortonormale giusto? Per finire dovrei ricavarmi i vettori corrispondenti. So che probabilmente è scontato, ma è per essere sicuri di aver capito bene
"tommy1996q":
$B$ rappresenta endomorfismo autoaggiunto $hArr B=A^-1B^tA$
Non puoi utilizzare la relazione di cui sopra. Banalmente, per il semplice fatto che $A$ e $B$ non commutano. Più approfonditamente, per il fatto che l'endomorfismo rappresentato rispetto alla base canonica dalla matrice $B$ non è autoaggiunto rispetto al prodotto scalare rappresentato rispetto alla base canonica dalla matrice $A$. Del resto, se così fosse, la matrice che rappresenta l'endomorfismo rispetto a una base ortonormale del prodotto scalare dovrebbe essere simmetrica. Ma non è questo il caso. Intanto:
$((sqrt2/2,0,-sqrt2/2),(-sqrt6/6,sqrt6/3,-sqrt6/6),(sqrt3/6,sqrt3/6,sqrt3/6))((2,1,1),(1,2,1),(1,1,2))((sqrt2/2,-sqrt6/6,sqrt3/6),(0,sqrt6/3,sqrt3/6),(-sqrt2/2,-sqrt6/6,sqrt3/6))=((1,0,0),(0,1,0),(0,0,1))$
essendo la matrice più a sinistra la trasposta della matrice più a destra, le colonne della matrice più a destra costituiscono i vettori di una base ortonormale del prodotto scalare. Inoltre:
$((sqrt2/2,0,-sqrt2/2),(-sqrt6/6,sqrt6/3,-sqrt6/6),((2sqrt3)/3,(2sqrt3)/3,(2sqrt3)/3))((2,1,1),(1,1,0),(1,0,1))((sqrt2/2,-sqrt6/6,sqrt3/6),(0,sqrt6/3,sqrt3/6),(-sqrt2/2,-sqrt6/6,sqrt3/6))=((1/2,-sqrt3/2,sqrt6/6),(sqrt3/6,5/6,-sqrt2/6),((2sqrt6)/3,-(2sqrt2)/3,8/3))$
essendo la matrice più a sinistra l'inversa della matrice più a destra, rappresenta proprio l'endomorfismo rispetto a una base ortonormale del prodotto scalare. Come puoi osservare, non trattandosi di una matrice simmetrica, stai utilizzando una proprietà che, nell'esercizio da te proposto, non è assolutamente verificata. Insomma, se l'ipotesi è inapplicabile, del tutto inutile continuare. Ripeto: l'endomorfismo rappresentato rispetto alla base canonica dalla matrice $B$ non è autoaggiunto rispetto al prodotto scalare rappresentato rispetto alla base canonica dalla matrice $A$. Infine, permettimi di farti un appunto:
"tommy1996q":
...se $A$ e $B$ rappresentano rispettivamente un prodotto scalare e un endomorfismo autoaggiunto in una certa base $B$...
Non dovresti utilizzare lo stesso simbolo quando indichi enti diversi. Come può $B$ rappresentare, allo stesso tempo, un endomorfismo e una base dello spazio vettoriale in cui l'endomorfismo è definito? Inoltre, che cosa significa "un endomorfismo autoaggiunto in una certa base $B$"? Se un endomorfismo è autoaggiunto, lo è rispetto a un prodotto scalare, indipendentemente dalla base utilizzata per rappresentarlo. Se si utilizza una base ortonormale del prodotto scalare, la matrice che rappresenta l'endomorfismo è simmetrica. Insomma, un conto è un endomorfismo, che non necessita di un prodotto scalare per essere definito, un conto è un endomorfismo autoaggiunto, che necessita di un prodotto scalare per essere definito e la cui proprietà non dipende dalla scelta della base ma dal solo prodotto scalare, un conto sono le matrici che rappresentano l'endomorfismo rispetto alle diverse basi. Per completezza, allego la seguente immagine comprendente l'enunciato "cristallino" di un noto teorema:

"tommy1996q":
...quelle che trovo sono solo le coordinate rispetto la prima base ortonormale giusto? Per finire dovrei ricavarmi i vettori corrispondenti.
Dovresti spiegarti meglio. Mi stai chiedendo che cosa rappresentano, nel passo 2, le componenti degli autovettori che costituiscono le colonne della matrice ortogonale? Tra l'altro, mi sono accorto che avevo perso di vista il problema iniziale, dove si parlava esclusivamente di prodotti scalari. A rigore, si dovrebbe diagonalizzare per congruenza, utilizzando le matrici trasposte e come indicato nel mio primo messaggio:
$W_2^t*W_1^t*A*W_1*W_2$ per $\phi$
$W_2^t*W_1^t*B*W_1*W_2$ per $\psi$
Avendo a che fare con matrici simmetriche e con i dovuti accorgimenti, considerandolo soprattutto un algoritmo di calcolo, si è soliti procedere per similitudine. Il motivo per il quale tu abbia intavolato una discussione sugli operatori autoaggiunti andrebbe opportunamente argomentato. Ha una sua ragione d'essere ma, nel caso in cui risulti efficace, e non è questo il caso, si riduce alla diagonalizzazione simultanea di due matrici simmetriche che commutano, insomma, un altro tipo di problema, tra l'altro, soggetto a ipotesi più restrittive.
P.S.
Nella speranza che, almeno questo punto, sia ormai chiaro, sempre che io abbia compreso quale fosse l'ultima questione e non sia andato fuori tema, mi pare che alcuni punti della presente discussione fossero rimasti ancora aperti. Se ritieni importante approfondirli fammi sapere.
Di quello che dici mi torna tutto. Le colonne della matrice più a destra a cui fai riferimento sono i vettori di una base ortonormale del pordotto scalare, perchè quella matrice non è altro che una matrice di cambiamento di base dalla base ortonormale a quella canonica.
Grazie dell' appunto sulle lettere usate per indicare la base, ho corretto l'errore, comunque quello che volevo dire quando facevo riferimento alla base $B$ (che ho denominato ora $S$) era che le matrici $A$ e $B$ rappresentavano quei prodotti scalari in quella particolare base, so che l'essere autoaggiunto rispetto a un prodotto scalare non dipende dalla base scelta.
Mi accorgo, purtroppo solo ora, di aver fatto un errore a dir poco grossolano, perchè ricordavo male la dimostrazione della simultanea ortogonalizzazione di prodotti scalari. In quel caso si identificava la matrice corrispondente a uno dei prodotti scalari (quello non definito positivo) come matrice associata a un endomorfismo autoaggiunto. Ma questo si faceva solo DOPO aver ortonormalizzato l'altro prodotto scalare. In questo modo ci si riconduceva alle ipotesi del teorema spettrale. L'errore è stato voler identificare prodotto scalare e endomorfismo autoaggiunto prima della ortonormalizzazione, per questo non tornava. Ero convinto che una tale identificazione potesse essere fatta indifferentemente prima o dopo l'ortonormalizzazione,ma pensandoci un secondo mi sarei dovuto accorgere dell' assurdità della cosa in quanto ciò comporterebbe che 2 matrici simmetriche commutano sempre.
Grazi dell'aiuto, e scusa se ci ho messo così tanto!
P.S. Probabilmente nei prossimi giorno posterò qualcos'altro riguardo algebra lineare, prometto di essere più chiaro
Grazie dell' appunto sulle lettere usate per indicare la base, ho corretto l'errore, comunque quello che volevo dire quando facevo riferimento alla base $B$ (che ho denominato ora $S$) era che le matrici $A$ e $B$ rappresentavano quei prodotti scalari in quella particolare base, so che l'essere autoaggiunto rispetto a un prodotto scalare non dipende dalla base scelta.
Mi accorgo, purtroppo solo ora, di aver fatto un errore a dir poco grossolano, perchè ricordavo male la dimostrazione della simultanea ortogonalizzazione di prodotti scalari. In quel caso si identificava la matrice corrispondente a uno dei prodotti scalari (quello non definito positivo) come matrice associata a un endomorfismo autoaggiunto. Ma questo si faceva solo DOPO aver ortonormalizzato l'altro prodotto scalare. In questo modo ci si riconduceva alle ipotesi del teorema spettrale. L'errore è stato voler identificare prodotto scalare e endomorfismo autoaggiunto prima della ortonormalizzazione, per questo non tornava. Ero convinto che una tale identificazione potesse essere fatta indifferentemente prima o dopo l'ortonormalizzazione,ma pensandoci un secondo mi sarei dovuto accorgere dell' assurdità della cosa in quanto ciò comporterebbe che 2 matrici simmetriche commutano sempre.
Grazi dell'aiuto, e scusa se ci ho messo così tanto!
P.S. Probabilmente nei prossimi giorno posterò qualcos'altro riguardo algebra lineare, prometto di essere più chiaro

"tommy1996q":
Grazie dell'aiuto, e scusa se ci ho messo così tanto!
Sono discussioni che, anche se originate da sviste, disattenzioni, misconcezioni, hanno una certa importanza. Aiutano a riflettere passo passo sui contenuti da apprendere e, almeno nel mio caso, su quelli appresi alcuni anni or sono.

"tommy1996q":
Probabilmente nei prossimi giorno posterò qualcos'altro riguardo algebra lineare, prometto di essere più chiaro.
Sarò lieto, se possibile, di darti una mano.
