Prodotti scalari e autoaggiunti
Buonasera! Riporto qui questo esercizio sui prodotti scalari:
Sia $(V,phi)$ uno spazio euclideo di dimensione $n$ e sia $psi$ un altro prodotto scalare su V.
Data $C$ una base di $V$, sia $P_(C) in RR[t]$ il polinomio dato da $P_(C)=det(B-tA)$, dove $A$
è la matrice di $phi$ nella base $C$ e $B$ è la matrice di $psi$ nella base $C$
a)Dimostrare che $P_(C)$ è un polinomio di grado $n$ completamente fattorizzatile su $RR$, le cui radici e rispettive molteplicità algebriche non dipendono da $C$.
Supponiamo adesso che $psi$ sia non degenere e poniamo:
$U={f in End(V)| f$ è autoaggiunta sia rispetto a $phi$, sia rispetto a $psi}$
b)Dimostrare che $U$ è un sottospazio vettoriale di $End(V)$ di dimensione maggiore o uguale a $n$
c)Nel caso $V=RR^3$, $phi$ il prodotto scalare standard, $C$ la base canonica e $psi$ tale che $P_(C)=(t-1)^2(t-2)$, calcolare $dim U$.
Allora per il primo punto ho ragionato in questo modo: siamo nelle ipotesi del teorema di diagonalizzazione simultanea, quindi esiste una base ortonormale per $phi$ e ortogonale per $psi$, dunque la matrice $B$ è diagonale con dei $lambda_i$ sulla diagonale principale, mentre la matrice $A$ è l'identità. Dunque il polinomio caratteristico dovrebbe risultare:
$P_C=(lambda_1 -t)*...*(lambda_n-t)$, completamente fattorizzabile con i $lambda_i$ come radici. Fin qui dovrebbe andare tutto bene credo.
Per il secondo punto, verificare che $U$ è un sottospazio di $End(V)$ è una non difficile verifica. Il punto è dimostrarne la dimensione. Avevo pensato di sfruttare l'isomorfismo che c'è tra $End(V)$ e $M(n,RR)$. Qualche idea?
Sia $(V,phi)$ uno spazio euclideo di dimensione $n$ e sia $psi$ un altro prodotto scalare su V.
Data $C$ una base di $V$, sia $P_(C) in RR[t]$ il polinomio dato da $P_(C)=det(B-tA)$, dove $A$
è la matrice di $phi$ nella base $C$ e $B$ è la matrice di $psi$ nella base $C$
a)Dimostrare che $P_(C)$ è un polinomio di grado $n$ completamente fattorizzatile su $RR$, le cui radici e rispettive molteplicità algebriche non dipendono da $C$.
Supponiamo adesso che $psi$ sia non degenere e poniamo:
$U={f in End(V)| f$ è autoaggiunta sia rispetto a $phi$, sia rispetto a $psi}$
b)Dimostrare che $U$ è un sottospazio vettoriale di $End(V)$ di dimensione maggiore o uguale a $n$
c)Nel caso $V=RR^3$, $phi$ il prodotto scalare standard, $C$ la base canonica e $psi$ tale che $P_(C)=(t-1)^2(t-2)$, calcolare $dim U$.
Allora per il primo punto ho ragionato in questo modo: siamo nelle ipotesi del teorema di diagonalizzazione simultanea, quindi esiste una base ortonormale per $phi$ e ortogonale per $psi$, dunque la matrice $B$ è diagonale con dei $lambda_i$ sulla diagonale principale, mentre la matrice $A$ è l'identità. Dunque il polinomio caratteristico dovrebbe risultare:
$P_C=(lambda_1 -t)*...*(lambda_n-t)$, completamente fattorizzabile con i $lambda_i$ come radici. Fin qui dovrebbe andare tutto bene credo.
Per il secondo punto, verificare che $U$ è un sottospazio di $End(V)$ è una non difficile verifica. Il punto è dimostrarne la dimensione. Avevo pensato di sfruttare l'isomorfismo che c'è tra $End(V)$ e $M(n,RR)$. Qualche idea?
Risposte
Questo è uno dei più belli esercizi di algebra lineare: si sfrutta tutto ciò che si è fatto nel corso.
Sfrutta appieno il fatto che sei in uno spazio euclideo di dimensione finita: fissata una base ortonormale $B$ allora $f$ è autoaggiunto se e solo se $M_B(f)$ è simmetrica. Insomma, sia $B$ la base ortonormale per $\phi$ e ortogonale per $\psi$, com'è fatta la matrice associata a $f$? Da qui deduci la dimensione dello spazio.
Ciao
Sfrutta appieno il fatto che sei in uno spazio euclideo di dimensione finita: fissata una base ortonormale $B$ allora $f$ è autoaggiunto se e solo se $M_B(f)$ è simmetrica. Insomma, sia $B$ la base ortonormale per $\phi$ e ortogonale per $\psi$, com'è fatta la matrice associata a $f$? Da qui deduci la dimensione dello spazio.
Ciao

Intanto grazie a entrambi!
Quindi il primo punto dovrebbe andare bene(unico mio dubbio era quello dell'indipendenza rispetto alla base scelta)
Per il secondo quindi, se la matrice associata è simmetrica, la dimensione dello spazio dovrebbe risultare $dim U=n(n+1)/2$
Quindi il primo punto dovrebbe andare bene(unico mio dubbio era quello dell'indipendenza rispetto alla base scelta)
Per il secondo quindi, se la matrice associata è simmetrica, la dimensione dello spazio dovrebbe risultare $dim U=n(n+1)/2$
"nick_10":
Intanto grazie a entrambi!
Quindi il primo punto dovrebbe andare bene(unico mio dubbio era quello dell'indipendenza rispetto alla base scelta)
Per il secondo quindi, se la matrice associata è simmetrica, la dimensione dello spazio dovrebbe risultare $dim U=n(n+1)/2$
Occhio che $f \in U$ è autoaggiunto anche rispetto a $\psi$: come si traduce matricialmente questa relazione?
Beh se $f $ è autoaggiunto anche rispetto a $psi $, se la base è ortogonale per $psi$, dovrebbe risultare $A^(*)=M^(-1t)AM $, con $A$ matrice associata a $f$ , $A^(*) $ a $f^*$ e $M$ al prodotto scalare (quindi M dovrebbe essere diagonale)
Ok ma $f$ per definizione è autoaggiunto rispetto a $\psi$ e quindi $f^{**} = f$, cioè $A^{**} = A$. $M$ è diagonale, ma puoi fare di più: è diagonale a blocchi!
Quindi posso dimostrare che $AM$ è diagonale a blocchi?
No, mettiamoci in un caso semplice, diciamo che $M = diag(I, -I)$, adesso scrivi $A$ come matrice diagonale a blocchi. $AM = MA$ ti dice che le componenti in alto a destra e in basso a sinistra sono nulle(la caratteristica del campo è diversa da due), quindi $A$ è diagonale a blocchi. Capito? Adesso: scegliendo bene la base(in modo tale che sulla diagonale ci siano gli autovalori di $B$) puoi dimostrare che $A$ è diagonale a blocchi e calcolare facilmente $dimU$
Non mi intrometto, solo una curiosità
Ciao!
La definizione che usa lui di prodotto scalare è quella di forma bilineare simmetrica. In questo modo si può parlare di prodotto scalare reale(cioè a valori in $\mathbb{R}$) definito positivo(e questo è il tuo prodotto scalare), definito negativo etc.
@nick_10: riguardo al punto uno, rileggendo, per farlo bene bene(altrimenti ti tolgono un po' di punti) devi dimostrare che $P_C$ è indipendente dalla scelta della base o che le sue radici lo sono.
"anto_zoolander":
Non mi intrometto, solo una curiosità
La definizione che usa lui di prodotto scalare è quella di forma bilineare simmetrica. In questo modo si può parlare di prodotto scalare reale(cioè a valori in $\mathbb{R}$) definito positivo(e questo è il tuo prodotto scalare), definito negativo etc.
E poi
@nick_10: riguardo al punto uno, rileggendo, per farlo bene bene(altrimenti ti tolgono un po' di punti) devi dimostrare che $P_C$ è indipendente dalla scelta della base o che le sue radici lo sono.
Vabbè casomai a thread finito potresti provare, mi piacerebbe vedere una soluzione del primo punto senza teorema di ortogonalizzazione simultanea

Allora il primo punto lo sistemerei piu avanti
Quindi per quanto riguarda il secondo punto, dall'ipotesi $AM=MA$ siamo arrivati a dire che $A$ è nella forma:
$A=((?,0),(0,?))$ (questa forma ,essendo simmetrica, sistemerebbe tra l'altro anche la condizione $f$ autoaggiunta rispetto a $phi$). Ovviamente la matrice sopra non rispecchia le dimensioni (non è una matrice $2xx2$!)
Però a questo punto non mi verrebbe da dire che la dimensione dello spazio può superare $n$(a meno che sulla diagonale principale oltre ai $lambda_i$ siano presenti altri fattori)
Quindi per quanto riguarda il secondo punto, dall'ipotesi $AM=MA$ siamo arrivati a dire che $A$ è nella forma:
$A=((?,0),(0,?))$ (questa forma ,essendo simmetrica, sistemerebbe tra l'altro anche la condizione $f$ autoaggiunta rispetto a $phi$). Ovviamente la matrice sopra non rispecchia le dimensioni (non è una matrice $2xx2$!)
Però a questo punto non mi verrebbe da dire che la dimensione dello spazio può superare $n$(a meno che sulla diagonale principale oltre ai $lambda_i$ siano presenti altri fattori)
@anto_zoolander: anche io sarei curioso di vedere metodi alternativi!!!
"nick_10":
Allora il primo punto lo sistemerei piu avanti
Quindi per quanto riguarda il secondo punto, dall'ipotesi $AM=MA$ siamo arrivati a dire che $A$ è nella forma:
$A=((?,0),(0,?))$ (questa forma ,essendo simmetrica, sistemerebbe tra l'altro anche la condizione $f$ autoaggiunta rispetto a $phi$). Ovviamente la matrice sopra non rispecchia le dimensioni (non è una matrice $2xx2$!)
Però a questo punto non mi verrebbe da dire che la dimensione dello spazio può superare $n$(a meno che sulla diagonale principale oltre ai $lambda_i$ siano presenti altri fattori)
Siamo sempre nel particolarissimo caso $M = ( ( I, 0), (0, -I))$.
Diciamo $A = ( (A_1, 0), (0, A_2))$ dove l'ordine di $A_1$ è uguale all'ordine del primo blocco diagonale di M, diciamo $n_1$, e $A_2$ ha ordine uguale al secondo blocco di $M$, diciamo $n_2$. $n_1$ indica la molteplicità algebrica di $1$, $n_2$ indica la molteplicità algebrica di $-1$. Poiché $A$ è simmetrica allora necessariamente $A_1, A_2$ sono simmetrici, segue che per $A_1$ ho $\frac{n_1(n_1 + 1)}{2}$. per $A_2$ invece ne ho $\frac{n_2(n_2 + 1)}{2}$. La dimensione di $U$ in questo caso è $\frac{n_1(n_1 + 1)}{2} + \frac{n_2(n_2 + 1)}{2}$.
Questo è un caso particolare giusto per vedere come funzionano le cose, diciamo che è un caso piccolo per affrontare quello generale in cui $M$ è una matrice diagonale a blocchi del tipo $diag(\lambda_1 I, .., \lambda_k I)$ e ogni blocco ha dimensione $\mu_a(\lambda_k) = \mu_g(\lambda_k)$.
I ragionamenti fatti per sopra si ripetono uguali per il caso generale, prova a formalizzarli.
Fammi sapere, ciao!
Okok grazie mille
Il terzo punto dovrebbero essere dei conti da fare seguendo il ragionamento più "astratto" del secondo
Il terzo punto dovrebbero essere dei conti da fare seguendo il ragionamento più "astratto" del secondo
Magari vedendo la scrittura del polinomio, $dim U=(2*(2+1))/2+(1*(1+1))/2=4$?
aggiungo
Ciao,
Ok ma il prodotto scalare è a valori reali sicché $D_{1, 2} = ( ( I, 0, 0), (0, -I, 0), (0, 0, 0))$
I conti li hai fatti nella base $C$(giusto?), detto $H$ l'endomorfismo associato a $N$ rispetto alla base $C$, hai appena dimostrato che $H$ è autoaggiunto rispetto a $\phi$ prodotto scalare reale definito positivo... quindi?
@nick_10: sì l'ultimo punto lo fai sfruttando quello precedente.
"anto_zoolander":
Ok ma il prodotto scalare è a valori reali sicché $D_{1, 2} = ( ( I, 0, 0), (0, -I, 0), (0, 0, 0))$
aggiungo
I conti li hai fatti nella base $C$(giusto?), detto $H$ l'endomorfismo associato a $N$ rispetto alla base $C$, hai appena dimostrato che $H$ è autoaggiunto rispetto a $\phi$ prodotto scalare reale definito positivo... quindi?
@nick_10: sì l'ultimo punto lo fai sfruttando quello precedente.
Leggendo ho colto che i prodotti scalari possono essere definiti in 4 modi.
Semidefinito positivo, semidefinito negativo, definito positivo e definito negativo.
Dunque la matrice dentro sarà $I_r$ o $-I_r$
Si i conti li ho fatti nella base $C$.
Ah vero un operatore è simmetrico rispetto a un prodotto scalare se e solo se la matrice che rappresenta l'operatore è simmetrica.
Quindi in teoria è finito
Semidefinito positivo, semidefinito negativo, definito positivo e definito negativo.
Dunque la matrice dentro sarà $I_r$ o $-I_r$
Si i conti li ho fatti nella base $C$.
Ah vero un operatore è simmetrico rispetto a un prodotto scalare se e solo se la matrice che rappresenta l'operatore è simmetrica.
Quindi in teoria è finito
