Prodotti scalari e autoaggiunti

nick_10
Buonasera! Riporto qui questo esercizio sui prodotti scalari:

Sia $(V,phi)$ uno spazio euclideo di dimensione $n$ e sia $psi$ un altro prodotto scalare su V.
Data $C$ una base di $V$, sia $P_(C) in RR[t]$ il polinomio dato da $P_(C)=det(B-tA)$, dove $A$
è la matrice di $phi$ nella base $C$ e $B$ è la matrice di $psi$ nella base $C$
a)Dimostrare che $P_(C)$ è un polinomio di grado $n$ completamente fattorizzatile su $RR$, le cui radici e rispettive molteplicità algebriche non dipendono da $C$.
Supponiamo adesso che $psi$ sia non degenere e poniamo:
$U={f in End(V)| f$ è autoaggiunta sia rispetto a $phi$, sia rispetto a $psi}$
b)Dimostrare che $U$ è un sottospazio vettoriale di $End(V)$ di dimensione maggiore o uguale a $n$
c)Nel caso $V=RR^3$, $phi$ il prodotto scalare standard, $C$ la base canonica e $psi$ tale che $P_(C)=(t-1)^2(t-2)$, calcolare $dim U$.

Allora per il primo punto ho ragionato in questo modo: siamo nelle ipotesi del teorema di diagonalizzazione simultanea, quindi esiste una base ortonormale per $phi$ e ortogonale per $psi$, dunque la matrice $B$ è diagonale con dei $lambda_i$ sulla diagonale principale, mentre la matrice $A$ è l'identità. Dunque il polinomio caratteristico dovrebbe risultare:
$P_C=(lambda_1 -t)*...*(lambda_n-t)$, completamente fattorizzabile con i $lambda_i$ come radici. Fin qui dovrebbe andare tutto bene credo.

Per il secondo punto, verificare che $U$ è un sottospazio di $End(V)$ è una non difficile verifica. Il punto è dimostrarne la dimensione. Avevo pensato di sfruttare l'isomorfismo che c'è tra $End(V)$ e $M(n,RR)$. Qualche idea?

Risposte
dissonance
https://en.wikipedia.org/wiki/Eigendeco ... ue_problem

Qui potresti trovare degli spunti

Shocker1
Questo è uno dei più belli esercizi di algebra lineare: si sfrutta tutto ciò che si è fatto nel corso.
Sfrutta appieno il fatto che sei in uno spazio euclideo di dimensione finita: fissata una base ortonormale $B$ allora $f$ è autoaggiunto se e solo se $M_B(f)$ è simmetrica. Insomma, sia $B$ la base ortonormale per $\phi$ e ortogonale per $\psi$, com'è fatta la matrice associata a $f$? Da qui deduci la dimensione dello spazio.

Ciao :)

nick_10
Intanto grazie a entrambi!
Quindi il primo punto dovrebbe andare bene(unico mio dubbio era quello dell'indipendenza rispetto alla base scelta)

Per il secondo quindi, se la matrice associata è simmetrica, la dimensione dello spazio dovrebbe risultare $dim U=n(n+1)/2$

Shocker1
"nick_10":
Intanto grazie a entrambi!
Quindi il primo punto dovrebbe andare bene(unico mio dubbio era quello dell'indipendenza rispetto alla base scelta)

Per il secondo quindi, se la matrice associata è simmetrica, la dimensione dello spazio dovrebbe risultare $dim U=n(n+1)/2$

Occhio che $f \in U$ è autoaggiunto anche rispetto a $\psi$: come si traduce matricialmente questa relazione?

nick_10
Beh se $f $ è autoaggiunto anche rispetto a $psi $, se la base è ortogonale per $psi$, dovrebbe risultare $A^(*)=M^(-1t)AM $, con $A$ matrice associata a $f$ , $A^(*) $ a $f^*$ e $M$ al prodotto scalare (quindi M dovrebbe essere diagonale)

Shocker1
Ok ma $f$ per definizione è autoaggiunto rispetto a $\psi$ e quindi $f^{**} = f$, cioè $A^{**} = A$. $M$ è diagonale, ma puoi fare di più: è diagonale a blocchi!

nick_10
Quindi posso dimostrare che $AM$ è diagonale a blocchi?

Shocker1
No, mettiamoci in un caso semplice, diciamo che $M = diag(I, -I)$, adesso scrivi $A$ come matrice diagonale a blocchi. $AM = MA$ ti dice che le componenti in alto a destra e in basso a sinistra sono nulle(la caratteristica del campo è diversa da due), quindi $A$ è diagonale a blocchi. Capito? Adesso: scegliendo bene la base(in modo tale che sulla diagonale ci siano gli autovalori di $B$) puoi dimostrare che $A$ è diagonale a blocchi e calcolare facilmente $dimU$

anto_zoolander
Non mi intrometto, solo una curiosità


Shocker1
Ciao!

"anto_zoolander":
Non mi intrometto, solo una curiosità



La definizione che usa lui di prodotto scalare è quella di forma bilineare simmetrica. In questo modo si può parlare di prodotto scalare reale(cioè a valori in $\mathbb{R}$) definito positivo(e questo è il tuo prodotto scalare), definito negativo etc.



E poi




@nick_10: riguardo al punto uno, rileggendo, per farlo bene bene(altrimenti ti tolgono un po' di punti) devi dimostrare che $P_C$ è indipendente dalla scelta della base o che le sue radici lo sono.

anto_zoolander

Shocker1
Vabbè casomai a thread finito potresti provare, mi piacerebbe vedere una soluzione del primo punto senza teorema di ortogonalizzazione simultanea :D

nick_10
Allora il primo punto lo sistemerei piu avanti
Quindi per quanto riguarda il secondo punto, dall'ipotesi $AM=MA$ siamo arrivati a dire che $A$ è nella forma:
$A=((?,0),(0,?))$ (questa forma ,essendo simmetrica, sistemerebbe tra l'altro anche la condizione $f$ autoaggiunta rispetto a $phi$). Ovviamente la matrice sopra non rispecchia le dimensioni (non è una matrice $2xx2$!)

Però a questo punto non mi verrebbe da dire che la dimensione dello spazio può superare $n$(a meno che sulla diagonale principale oltre ai $lambda_i$ siano presenti altri fattori)

nick_10
@anto_zoolander: anche io sarei curioso di vedere metodi alternativi!!!

Shocker1
"nick_10":
Allora il primo punto lo sistemerei piu avanti
Quindi per quanto riguarda il secondo punto, dall'ipotesi $AM=MA$ siamo arrivati a dire che $A$ è nella forma:
$A=((?,0),(0,?))$ (questa forma ,essendo simmetrica, sistemerebbe tra l'altro anche la condizione $f$ autoaggiunta rispetto a $phi$). Ovviamente la matrice sopra non rispecchia le dimensioni (non è una matrice $2xx2$!)

Però a questo punto non mi verrebbe da dire che la dimensione dello spazio può superare $n$(a meno che sulla diagonale principale oltre ai $lambda_i$ siano presenti altri fattori)

Siamo sempre nel particolarissimo caso $M = ( ( I, 0), (0, -I))$.
Diciamo $A = ( (A_1, 0), (0, A_2))$ dove l'ordine di $A_1$ è uguale all'ordine del primo blocco diagonale di M, diciamo $n_1$, e $A_2$ ha ordine uguale al secondo blocco di $M$, diciamo $n_2$. $n_1$ indica la molteplicità algebrica di $1$, $n_2$ indica la molteplicità algebrica di $-1$. Poiché $A$ è simmetrica allora necessariamente $A_1, A_2$ sono simmetrici, segue che per $A_1$ ho $\frac{n_1(n_1 + 1)}{2}$. per $A_2$ invece ne ho $\frac{n_2(n_2 + 1)}{2}$. La dimensione di $U$ in questo caso è $\frac{n_1(n_1 + 1)}{2} + \frac{n_2(n_2 + 1)}{2}$.

Questo è un caso particolare giusto per vedere come funzionano le cose, diciamo che è un caso piccolo per affrontare quello generale in cui $M$ è una matrice diagonale a blocchi del tipo $diag(\lambda_1 I, .., \lambda_k I)$ e ogni blocco ha dimensione $\mu_a(\lambda_k) = \mu_g(\lambda_k)$.

I ragionamenti fatti per sopra si ripetono uguali per il caso generale, prova a formalizzarli.

Fammi sapere, ciao!

nick_10
Okok grazie mille
Il terzo punto dovrebbero essere dei conti da fare seguendo il ragionamento più "astratto" del secondo

nick_10
Magari vedendo la scrittura del polinomio, $dim U=(2*(2+1))/2+(1*(1+1))/2=4$?

anto_zoolander


aggiungo


Shocker1
Ciao,

"anto_zoolander":


Ok ma il prodotto scalare è a valori reali sicché $D_{1, 2} = ( ( I, 0, 0), (0, -I, 0), (0, 0, 0))$


aggiungo



I conti li hai fatti nella base $C$(giusto?), detto $H$ l'endomorfismo associato a $N$ rispetto alla base $C$, hai appena dimostrato che $H$ è autoaggiunto rispetto a $\phi$ prodotto scalare reale definito positivo... quindi?


@nick_10: sì l'ultimo punto lo fai sfruttando quello precedente.

anto_zoolander
Leggendo ho colto che i prodotti scalari possono essere definiti in 4 modi.
Semidefinito positivo, semidefinito negativo, definito positivo e definito negativo.
Dunque la matrice dentro sarà $I_r$ o $-I_r$

Si i conti li ho fatti nella base $C$.
Ah vero un operatore è simmetrico rispetto a un prodotto scalare se e solo se la matrice che rappresenta l'operatore è simmetrica.

Quindi in teoria è finito :-k


Rispondi
Per rispondere a questa discussione devi prima effettuare il login.