Prodotti scalari e autoaggiunti
Buonasera! Riporto qui questo esercizio sui prodotti scalari:
Sia $(V,phi)$ uno spazio euclideo di dimensione $n$ e sia $psi$ un altro prodotto scalare su V.
Data $C$ una base di $V$, sia $P_(C) in RR[t]$ il polinomio dato da $P_(C)=det(B-tA)$, dove $A$
è la matrice di $phi$ nella base $C$ e $B$ è la matrice di $psi$ nella base $C$
a)Dimostrare che $P_(C)$ è un polinomio di grado $n$ completamente fattorizzatile su $RR$, le cui radici e rispettive molteplicità algebriche non dipendono da $C$.
Supponiamo adesso che $psi$ sia non degenere e poniamo:
$U={f in End(V)| f$ è autoaggiunta sia rispetto a $phi$, sia rispetto a $psi}$
b)Dimostrare che $U$ è un sottospazio vettoriale di $End(V)$ di dimensione maggiore o uguale a $n$
c)Nel caso $V=RR^3$, $phi$ il prodotto scalare standard, $C$ la base canonica e $psi$ tale che $P_(C)=(t-1)^2(t-2)$, calcolare $dim U$.
Allora per il primo punto ho ragionato in questo modo: siamo nelle ipotesi del teorema di diagonalizzazione simultanea, quindi esiste una base ortonormale per $phi$ e ortogonale per $psi$, dunque la matrice $B$ è diagonale con dei $lambda_i$ sulla diagonale principale, mentre la matrice $A$ è l'identità. Dunque il polinomio caratteristico dovrebbe risultare:
$P_C=(lambda_1 -t)*...*(lambda_n-t)$, completamente fattorizzabile con i $lambda_i$ come radici. Fin qui dovrebbe andare tutto bene credo.
Per il secondo punto, verificare che $U$ è un sottospazio di $End(V)$ è una non difficile verifica. Il punto è dimostrarne la dimensione. Avevo pensato di sfruttare l'isomorfismo che c'è tra $End(V)$ e $M(n,RR)$. Qualche idea?
Sia $(V,phi)$ uno spazio euclideo di dimensione $n$ e sia $psi$ un altro prodotto scalare su V.
Data $C$ una base di $V$, sia $P_(C) in RR[t]$ il polinomio dato da $P_(C)=det(B-tA)$, dove $A$
è la matrice di $phi$ nella base $C$ e $B$ è la matrice di $psi$ nella base $C$
a)Dimostrare che $P_(C)$ è un polinomio di grado $n$ completamente fattorizzatile su $RR$, le cui radici e rispettive molteplicità algebriche non dipendono da $C$.
Supponiamo adesso che $psi$ sia non degenere e poniamo:
$U={f in End(V)| f$ è autoaggiunta sia rispetto a $phi$, sia rispetto a $psi}$
b)Dimostrare che $U$ è un sottospazio vettoriale di $End(V)$ di dimensione maggiore o uguale a $n$
c)Nel caso $V=RR^3$, $phi$ il prodotto scalare standard, $C$ la base canonica e $psi$ tale che $P_(C)=(t-1)^2(t-2)$, calcolare $dim U$.
Allora per il primo punto ho ragionato in questo modo: siamo nelle ipotesi del teorema di diagonalizzazione simultanea, quindi esiste una base ortonormale per $phi$ e ortogonale per $psi$, dunque la matrice $B$ è diagonale con dei $lambda_i$ sulla diagonale principale, mentre la matrice $A$ è l'identità. Dunque il polinomio caratteristico dovrebbe risultare:
$P_C=(lambda_1 -t)*...*(lambda_n-t)$, completamente fattorizzabile con i $lambda_i$ come radici. Fin qui dovrebbe andare tutto bene credo.
Per il secondo punto, verificare che $U$ è un sottospazio di $End(V)$ è una non difficile verifica. Il punto è dimostrarne la dimensione. Avevo pensato di sfruttare l'isomorfismo che c'è tra $End(V)$ e $M(n,RR)$. Qualche idea?
Risposte
"anto_zoolander":
Si i conti li ho fatti nella base $C$.
Ah vero un operatore è simmetrico rispetto a un prodotto scalare se e solo se la matrice che rappresenta l'operatore è simmetrica.
Falso: se la matrice che rappresenta l'operatore rispetto a una base ortonormale per il ps è simmetrica.
Puoi concludere con il teorema spettrale, no?
anche se ho un grande limite.
So che in generale dato un prodotto scalare e una qualsiasi base dello spazio.
$(Av)*w=v*(Aw) sse BA=A^tB$
Ovvero se la matrice che rappresenta il prodotto scalare commuta con la trasposta di $A$.
Ok, non è quello che hai dimostrato quando hai fatto il conto nel punto precedente?
Non ho capito, perché vedi $A$ sia come matrice associata a un prodotto scalare che come matrice associata a un endomorfismo?

1) corretto. Infatti poi ho scritto che è simmetrico se e solo se la matrice del prodotto scalare commuta con la trasposta di $A$.
Scusami o scusatemi, ma ogni tanto faccio confusione perché l'esercizio non l'ho fatto su carta ma ho svolto direttamente sul forum quindi non ho avuto molto ordine.
2) ... sono un pollo
3) mi pareva bello AHAHAHAH
Scusami o scusatemi, ma ogni tanto faccio confusione perché l'esercizio non l'ho fatto su carta ma ho svolto direttamente sul forum quindi non ho avuto molto ordine.
2) ... sono un pollo
3) mi pareva bello AHAHAHAH
"anto_zoolander":
1) corretto. Infatti poi ho scritto che è simmetrico se e solo se la matrice del prodotto scalare commuta con la trasposta di $A$.
Scusami o scusatemi, ma ogni tanto faccio confusione perché l'esercizio non l'ho fatto su carta ma ho svolto direttamente sul forum quindi non ho avuto molto ordine.
tranquillo, It's ok!

2) ... sono un pollo
3) mi pareva bello AHAHAHAH

Concludendo con il teorema spettrale hai la tesi. Well done anto!
Ciao

Però mi rimane soltanto un ultimo dubbio.
Il teorema spettrale non vale solo per matrici simmetriche?
O almeno io l'ho fatto solo nel caso in cui la matrice sia simmetrica(o hermitiana)
Il problema è che: ho dimostrato che è autoaggiunto, dunque commuta con la trasposta.
Ovvero so che $N$ commuta con $A$, ma non riesco a vedere come $N^t=N$
Di fatto $N^t=(A^(-1)B)^t=BA^(-1)$
È solo questo che non mi salta in testa
Comunque grazie
Il teorema spettrale non vale solo per matrici simmetriche?
O almeno io l'ho fatto solo nel caso in cui la matrice sia simmetrica(o hermitiana)
Il problema è che: ho dimostrato che è autoaggiunto, dunque commuta con la trasposta.
Ovvero so che $N$ commuta con $A$, ma non riesco a vedere come $N^t=N$
Di fatto $N^t=(A^(-1)B)^t=BA^(-1)$

È solo questo che non mi salta in testa

Comunque grazie

"anto_zoolander":
Però mi rimane soltanto un ultimo dubbio.
Il teorema spettrale non vale solo per matrici simmetriche?
O almeno io l'ho fatto solo nel caso in cui la matrice sia simmetrica(o hermitiana)
Il problema è che: ho dimostrato che è autoaggiunto, dunque commuta con la trasposta.
Ovvero so che $N$ commuta con $A$, ma non riesco a vedere come $N^t=N$
Di fatto $N^t=(A^(-1)B)^t=BA^(-1)$![]()
È solo questo che non mi salta in testa
Comunque grazie
L'essere autoaggiunto è una proprietà intrinseca dei prodotti scalari[nota]$\forall x, y \in V$ vale che $\phi(x, f(y)) = \phi(f(x), y)$, non si parla di basi.[/nota], tale proprietà coincide con l'avere la matrice associata simmetrica solo se si fissa una base ortonormale per il ps.
Ripercorriamo formalmente quello che hai fatto: sia $C$ una base dello spazio, definisci $H = L^{-1} \circ T$ dove $L, T$ sono endomorfismi dello spazio tali che le loro matrici associate rispetto a $C$ sono rispettivamente $A$ e $B$. Consideri poi il prodotto scalare $\phi$ definito positivo dell'esercizio, la cui matrice associata rispetto a $C$ è $A$, e dimostri che $\phi(Hv, w) = \phi(v, Hw)$. Dal teorema spettrale segue la tesi.
Questo fatto che commuta con la trasposta... dove l'hai letto? Io so per certo che se $f \in End(V)$ è autoaggiunto rispetto a $\phi \in PS(V)$ allora detto $F_{\phi}: V \to V^{*}$ che associa $y \to \psi(x) := \phi(y, x)$ si ha che $F_{\phi} \circ f = (f^{t}) \circ F_{\phi}$. Intendi questo?
Riguardo al teorema spettrale reale, metto tutto in spoiler:
Grazie per la dimostrazione ora me la scrivo e la studio 
Comunque intendo che $Av*w=v*Aw <=> X^tA^tBY=X^tBAY,forallX,Y inK^n$
Dunque se e solo se $A^tB=BA$ che è quanto hai scritto tu in termini di funzioni e composizione.
Intendo questo.
Poi io intendevo proprio che fissando $L_A:V->V$ operatore simmetrico rispetto al prodotto scalare $phi$ è rappresentato dalla matrice $A$ ho che comunque fissi una base per $V$ considerando $phi:VtimesV->K$ ho che se la matrice $B$ è quella che rappresenta $phi$ rispetto a una sua base allora $A^tB=BA$ ovvero che una qualsiasi matrice del prodotto scalare, cui $T$ è autoaggiunto commuta con la trasposta di $A$ e quindi anche $I_n$ commuta con la trasposta di $A$ pertanto $A$ deve essere simmetrica.

Comunque intendo che $Av*w=v*Aw <=> X^tA^tBY=X^tBAY,forallX,Y inK^n$
Dunque se e solo se $A^tB=BA$ che è quanto hai scritto tu in termini di funzioni e composizione.
Intendo questo.
Poi io intendevo proprio che fissando $L_A:V->V$ operatore simmetrico rispetto al prodotto scalare $phi$ è rappresentato dalla matrice $A$ ho che comunque fissi una base per $V$ considerando $phi:VtimesV->K$ ho che se la matrice $B$ è quella che rappresenta $phi$ rispetto a una sua base allora $A^tB=BA$ ovvero che una qualsiasi matrice del prodotto scalare, cui $T$ è autoaggiunto commuta con la trasposta di $A$ e quindi anche $I_n$ commuta con la trasposta di $A$ pertanto $A$ deve essere simmetrica.
"anto_zoolander":
Grazie per la dimostrazione ora me la scrivo e la studio
Comunque intendo che $Av*w=v*Aw <=> X^tA^tBY=X^tBAY,forallX,Y inK^n$
Dunque se e solo se $A^tB=BA$ che è quanto hai scritto tu in termini di funzioni e composizione.
Intendo questo.
Poi io intendevo proprio che fissando $L_A:V->V$ operatore simmetrico rispetto al prodotto scalare $phi$ è rappresentato dalla matrice $A$ ho che comunque fissi una base per $V$ considerando $phi:VtimesV->K$ ho che se la matrice $B$ è quella che rappresenta $phi$ rispetto a una sua base allora $A^tB=BA$ ovvero che una qualsiasi matrice del prodotto scalare, cui $T$ è autoaggiunto commuta con la trasposta di $A$ e quindi anche $I_n$ commuta con la trasposta di $A$ pertanto $A$ deve essere simmetrica.
Ok ma per ottenere $I_n$ ti serve una base ortonormale e cambiando base cambia anche la matrice associata a $L_A$.
Tu stai affermando che la matrice associata a $L_A$ è invariante rispetto al cambio di base, ma chi te lo dice che lo è?
Ecco è proprio questo il punto in cui mi intoppo.
Io intendevo diciamo di vedere $V$ su $L_A$ e $V$ su $phi$ con basi diverse.
A prescindere da questo, il tutto verte sul teorema spettrale.
Ovvero so che un operatore è simmetrico rispetto al prodotto scalare sse vale quella cosa del commutare.
in particolare un operatore è simmetrico se e solo se rispetto a una base ortonormale la matrice dell'operatore è simmetrica.
Ok, le due proposizioni sono equivalenti.
Forse il punto è che io nella mia mente, nell'esercizio, sto cercando di mantenere fissa la base $C$ e forse è questo l'errore che commetto
aggiungo
Forse dovrei pensarla così: fisso una base $C'$ ortonormale per $phi$. Poiché l'operatore è autoaggiunto rispetto a tale base ortonormale la matrice sarà simmetrica, quindi la posso diagonalizzare.
Sia $M$ la matrice che rappresenta l'operatore rispetto a $C'$ allora $N$ è simile a $M$, $M$ è simile a una matrice diagonale e pertanto $N$ è simile alla matrice matrice diagonale. Tutto questo usando il teorema spettrale e il fatto che la similitudine sia una relazione di equivalenza. Quindi concludo che $|A^(-1)B-lambdaI_n|$ è completamente fattorizzabile. Corretto?
Io intendevo diciamo di vedere $V$ su $L_A$ e $V$ su $phi$ con basi diverse.
A prescindere da questo, il tutto verte sul teorema spettrale.
Ovvero so che un operatore è simmetrico rispetto al prodotto scalare sse vale quella cosa del commutare.
in particolare un operatore è simmetrico se e solo se rispetto a una base ortonormale la matrice dell'operatore è simmetrica.
Ok, le due proposizioni sono equivalenti.
Forse il punto è che io nella mia mente, nell'esercizio, sto cercando di mantenere fissa la base $C$ e forse è questo l'errore che commetto
aggiungo
Forse dovrei pensarla così: fisso una base $C'$ ortonormale per $phi$. Poiché l'operatore è autoaggiunto rispetto a tale base ortonormale la matrice sarà simmetrica, quindi la posso diagonalizzare.
Sia $M$ la matrice che rappresenta l'operatore rispetto a $C'$ allora $N$ è simile a $M$, $M$ è simile a una matrice diagonale e pertanto $N$ è simile alla matrice matrice diagonale. Tutto questo usando il teorema spettrale e il fatto che la similitudine sia una relazione di equivalenza. Quindi concludo che $|A^(-1)B-lambdaI_n|$ è completamente fattorizzabile. Corretto?
Mi sembra corretto!
Letto tutti messaggi...molto interessante questo approccio alternativo.
Tornando al mio primo punto, per dimostrare l'indipendenza dalla base (col ragionamento del teorema di ortogonalizzazione simultanea), posso passare attraverso un altro ragionamento(magari cambiando base e vedere che i $lambda_i$ non cambiano
Invece il terzo punto, vi sembra corretto $dim U=4$?
Tornando al mio primo punto, per dimostrare l'indipendenza dalla base (col ragionamento del teorema di ortogonalizzazione simultanea), posso passare attraverso un altro ragionamento(magari cambiando base e vedere che i $lambda_i$ non cambiano
Invece il terzo punto, vi sembra corretto $dim U=4$?
Come cambiano le matrici se cambi base?
Sì è corretto.
Sì è corretto.
Beh la matrice $A$ in un altra base $C'$ resta sempre l'identità, mentre la nuova matrice $B$ non sono sicuro abbia gli stessi $lambda_i$ sulla diagonale. Questo dovrebbe accadere soltanto se le due matrici sono simili...
Scusa, ma perché $A$ è l'identità? Perché non provi a fare il conto esplicito?
Beh $A$ dovrebbe restare l'identità perchè prendo una base ortormale
Ma la base deve essere qualsiasi, sia in partenza che in arrivo.
Ok quindi la matrice A, dato che $phi$ è definito positivo, è una matrice simmetrica con elementi tutti positivi sulla diagonale
"nick_10":
Ok quindi la matrice A, dato che $phi$ è definito positivo, è una matrice simmetrica con elementi tutti positivi sulla diagonale
Ok, ma perché non provi a fare il conto? Insomma fissate $C$, $D$ basi hai che $p_D(t) = det(B' - tA')$ dove $B'$ è la matrice di $\psi$ rispetto a $D$ e $A'$ è la matrice di $\phi$ rispetto a $D$. Qual è la relazione fra $B'$ e $B$ e fra $A'$ e $A$?
Il conto esplicito con quali elementi potevo farlo? Sono sempre in un caso generale...
Comunque magari le matrici sono simili per Sylvester
Comunque magari le matrici sono simili per Sylvester
"nick_10":
Comunque magari le matrici sono simili per Sylvester
Al massimo sono congruenti!
Qual è la relazione fra $A$ e $A'$? In altre parole, come cambia la matrice associata a un prodotto scalare se cambi base?
Si scusami
Comunque se non sbaglio se $phi in PS(V)$ e $C,C'$ basi di $V$, allora le matrici associate $A$ e $A'$ (rispettivamente nella base $C$ e $C'$) sono congruenti(la relazione di congruenza è $A'=tMAM$, con $M$ matrice del cambio di base
Comunque se non sbaglio se $phi in PS(V)$ e $C,C'$ basi di $V$, allora le matrici associate $A$ e $A'$ (rispettivamente nella base $C$ e $C'$) sono congruenti(la relazione di congruenza è $A'=tMAM$, con $M$ matrice del cambio di base