Forme bilineari simmetriche: confusione
Buonasera a tutti.
Ho disperatamente bisogno di voi
. Sarà che è maggio e fa caldo (troppo caldo!), sarà che sono stanco, sarà che gli esami si avvicinano, ma ho molta confusione in testa, specie su quest'ultima parte del corso di Geometria e Algebra lineare.
Procedo con ordine. Forme bilineari simmetriche (f.b.s.): ok, so qual è la definizione, so trovare la matrice associata ad essa rispetto ad una base dello spazio vettoriale in questione. E ho anche chiaro che cos'è una forma quadratica.
Adesso, cominciamo a mettere un po' di nomi. Sia $V$ lo spazio vettoriale in cui vivo, di dimensione finita $n$. Sia $B$ una base fissata di $V$. Sia [tex]\varphi: V \times V \to \mathbb{R}[/tex] una forma bilineare simmetrica, la cui matrice associata rispetto alla base $B$ è $A=M^B(\varphi) in RR^(n,n)$.
Tutte le (altre) matrici associate alla stessa forma bilineare simmetrica sono della forma $^tPAP$ (con $^t$ indico la trasposta), essendo $P in GL(n,RR)$ la matrice del cambiamento di base. In altre parole, se cambio base e da $B$ vado nella base di $B'$ so scrivere la matrice $P$ (sulle colonne ho le componenti dei vettori della base $B'$ scritti rispetto alla base $B$) e quindi so anche trovare $A'=^tPAP$, cioè la matrice associata alla stessa f.b.s rispetto alla base $B'$. Ok fin qui?
Adesso cominciano i problemi. Con le convenzioni di cui sopra, in generale, posso dire che $A$ e $A'$ NON sono simili, dunque non hanno lo stesso polinomio caratteristico (e quindi, in particolare, non hanno medesimi autovalori). Però c'è il teorema di Sylvester che mi salva, perchè mi garantisce che la segnatura (cioè il numero di autovalori positivi e negativi) di una forma quadratica è un invariante della forma stessa.
Sono interessato a studiare la segnatura di una forma quadratica perchè mi essa mi dà parecchie informazioni: mi permette di classificare la f.b.s. (definita, semidefinita positiva-negativa).
Adesso, supponiamo che mi venga data una forma quadratica $Q(x)$ di $V$ e mi venga chiesto di:
1. scriverla in forma canonica (con forma canonica intendo: in maniera tale che la matrice ad essa associata sia diagonale)
2. specificare la base rispetto cui tale forma è scritta in forma canonica.
Il punto 1 è easy: diagonalizzo la matrice (dietro tutto c'è il th spettrale!) come se fosse una matrice associata ad un endomorfismo. Quindi alla fine scrivo sulla diagonale gli autovalori con la relativa molteplicità.
Adesso, il cambiamento di base: la nuova matrice in forma diagonale è scritta ovviamente rispetto a una base di autovettori (ma di chi? stiamo parlando di f.b.s non di endomorfismi!). Non solo ma mi è stato detto di trovare una base ortonormale di autovettori: questa è la base rispetto cui la forma quadratica è scritta in forma canonica.
Ebbene, io mi sono perso. Prima mi si dice che matrici associate alla stessa f.b.s NON sono in generale simili, poi mi si forza a rendere A e A' simili (giacchè questo è l'intento: voglio la base ortonormale di autovettori perchè la matrice del cambiamento di base sia ortogonale e quindi $^tP=P^-1$).
Insomma, in pratica è chiaro come procedere: diagonalizzi, Gram-Schimdt e sei a posto, è lo stesso discorso che sia con gli endomorfismi la cui matrice associata è simmetrica.
Ma proprio qui sta il punto: io non ho capito come si incastra la teoria degli endomorfismi (th spettrale, matrici simili etc) con il discorso sulle f.b.s.
In particolare, non capisco questa necessità della base ortonormale di autovettori.
Perdonate la lunghezza, la prolissità, la confusione.
Un grazie in anticipo a chi mi illumina.
Ho disperatamente bisogno di voi

Procedo con ordine. Forme bilineari simmetriche (f.b.s.): ok, so qual è la definizione, so trovare la matrice associata ad essa rispetto ad una base dello spazio vettoriale in questione. E ho anche chiaro che cos'è una forma quadratica.
Adesso, cominciamo a mettere un po' di nomi. Sia $V$ lo spazio vettoriale in cui vivo, di dimensione finita $n$. Sia $B$ una base fissata di $V$. Sia [tex]\varphi: V \times V \to \mathbb{R}[/tex] una forma bilineare simmetrica, la cui matrice associata rispetto alla base $B$ è $A=M^B(\varphi) in RR^(n,n)$.
Tutte le (altre) matrici associate alla stessa forma bilineare simmetrica sono della forma $^tPAP$ (con $^t$ indico la trasposta), essendo $P in GL(n,RR)$ la matrice del cambiamento di base. In altre parole, se cambio base e da $B$ vado nella base di $B'$ so scrivere la matrice $P$ (sulle colonne ho le componenti dei vettori della base $B'$ scritti rispetto alla base $B$) e quindi so anche trovare $A'=^tPAP$, cioè la matrice associata alla stessa f.b.s rispetto alla base $B'$. Ok fin qui?
Adesso cominciano i problemi. Con le convenzioni di cui sopra, in generale, posso dire che $A$ e $A'$ NON sono simili, dunque non hanno lo stesso polinomio caratteristico (e quindi, in particolare, non hanno medesimi autovalori). Però c'è il teorema di Sylvester che mi salva, perchè mi garantisce che la segnatura (cioè il numero di autovalori positivi e negativi) di una forma quadratica è un invariante della forma stessa.
Sono interessato a studiare la segnatura di una forma quadratica perchè mi essa mi dà parecchie informazioni: mi permette di classificare la f.b.s. (definita, semidefinita positiva-negativa).
Adesso, supponiamo che mi venga data una forma quadratica $Q(x)$ di $V$ e mi venga chiesto di:
1. scriverla in forma canonica (con forma canonica intendo: in maniera tale che la matrice ad essa associata sia diagonale)
2. specificare la base rispetto cui tale forma è scritta in forma canonica.
Il punto 1 è easy: diagonalizzo la matrice (dietro tutto c'è il th spettrale!) come se fosse una matrice associata ad un endomorfismo. Quindi alla fine scrivo sulla diagonale gli autovalori con la relativa molteplicità.
Adesso, il cambiamento di base: la nuova matrice in forma diagonale è scritta ovviamente rispetto a una base di autovettori (ma di chi? stiamo parlando di f.b.s non di endomorfismi!). Non solo ma mi è stato detto di trovare una base ortonormale di autovettori: questa è la base rispetto cui la forma quadratica è scritta in forma canonica.
Ebbene, io mi sono perso. Prima mi si dice che matrici associate alla stessa f.b.s NON sono in generale simili, poi mi si forza a rendere A e A' simili (giacchè questo è l'intento: voglio la base ortonormale di autovettori perchè la matrice del cambiamento di base sia ortogonale e quindi $^tP=P^-1$).
Insomma, in pratica è chiaro come procedere: diagonalizzi, Gram-Schimdt e sei a posto, è lo stesso discorso che sia con gli endomorfismi la cui matrice associata è simmetrica.
Ma proprio qui sta il punto: io non ho capito come si incastra la teoria degli endomorfismi (th spettrale, matrici simili etc) con il discorso sulle f.b.s.
In particolare, non capisco questa necessità della base ortonormale di autovettori.
Perdonate la lunghezza, la prolissità, la confusione.
Un grazie in anticipo a chi mi illumina.

Risposte
Ma infatti non è necessario che la base di autovettori sia ortonormale. Potresti tranquillamente diagonalizzare usando un algoritmo ad hoc per forme bilineari (ce ne sono vari) e trovare una base diagonalizzante per la forma bilineare che con l'endomorfismo non c'entra nulla. Questa anzi diventa l'unica maniera di procedere se non sei in un contesto di spazi vettoriali euclidei o hermitiani. In simboli:
hai la forma bilineare $B$, ma hai anche un prodotto scalare $\langle, \rangle$;
si dimostra che esiste un unico endomorfismo autoaggiunto $T$ tale che $B(v, w)=\langleTv, w\rangle$ per ogni $v, w$;
diagonalizzare $B$ e diagonalizzare $T$ sono in generale due imprese radicalmente diverse, a meno che tu non intenda diagonalizzare in base ortonormale, nel qual caso per una particolare congiuntura astrale le due nozioni coincidono.
Questo argomento è spiegato (IMHO) molto bene sul libro di Lang Algebra lineare.
[edit] P.S.: Per prodotto scalare in questo post intendo prodotto scalare definito positivo.
hai la forma bilineare $B$, ma hai anche un prodotto scalare $\langle, \rangle$;
si dimostra che esiste un unico endomorfismo autoaggiunto $T$ tale che $B(v, w)=\langleTv, w\rangle$ per ogni $v, w$;
diagonalizzare $B$ e diagonalizzare $T$ sono in generale due imprese radicalmente diverse, a meno che tu non intenda diagonalizzare in base ortonormale, nel qual caso per una particolare congiuntura astrale le due nozioni coincidono.
Questo argomento è spiegato (IMHO) molto bene sul libro di Lang Algebra lineare.
[edit] P.S.: Per prodotto scalare in questo post intendo prodotto scalare definito positivo.
Ah, dimenticavo. E se invece il prodotto scalare non ci fosse stato? Magari lo spazio vettoriale in questione non è reale né complesso, ma si appoggia su un campo curioso come ad esempio $ZZ_5$. In questo caso il prodotto scalare "definito positivo" puoi scordartelo; [size=75](*)[/size] anche il teorema di Sylvester è solo un ricordo ma è ancora vero che tutte le forme bilineari sono diagonalizzabili. Puoi trovare una dimostrazione semplice di quest'ultima affermazione sul libro di Sernesi Geometria 1, 2a edizione, a pagina 222: attenzione che entrambe le dimostrazioni proposte funzionano solo se il campo di riferimento non ha caratteristica 2. [size=75](**)[/size]
Entrambe le dimostrazioni suggeriscono inoltre algoritmi di diagonalizzazione della forma bilineare. Come puoi vedere, con la diagonalizzazione degli endomorfismi c'entrano davvero poco.
____________________________
(*) Tempo fa ho assaggiato le conseguenze di questo fatto durante una discussione con NightKnight. Se ti capita di leggerla, nota come tutte le mie idee -basate su una presunta analogia con gli spazi vettoriali euclidei- non hanno funzionato.
(**) Per una trattazione più estesa, che tenga conto anche di questa faccenda della caratteristica 2, puoi consultare Sharipov, IV §3. Ma non te lo consiglio se sei sotto esame, è una lettura molto impegnativa. Non ricordo come si affronti la questione sul libro di Lang, invece.
[edit] Ho consultato il Lang. Questo discorso non viene affrontato, si parla solo di diagonalizzazione nel caso reale o complesso.
Entrambe le dimostrazioni suggeriscono inoltre algoritmi di diagonalizzazione della forma bilineare. Come puoi vedere, con la diagonalizzazione degli endomorfismi c'entrano davvero poco.
____________________________
(*) Tempo fa ho assaggiato le conseguenze di questo fatto durante una discussione con NightKnight. Se ti capita di leggerla, nota come tutte le mie idee -basate su una presunta analogia con gli spazi vettoriali euclidei- non hanno funzionato.
(**) Per una trattazione più estesa, che tenga conto anche di questa faccenda della caratteristica 2, puoi consultare Sharipov, IV §3. Ma non te lo consiglio se sei sotto esame, è una lettura molto impegnativa. Non ricordo come si affronti la questione sul libro di Lang, invece.
[edit] Ho consultato il Lang. Questo discorso non viene affrontato, si parla solo di diagonalizzazione nel caso reale o complesso.
Caro dissonance,
anzitutto grazie perchè sempre mi rispondi. Le cose cominciano ad essere più chiare, grazie ai tuoi interventi.
Ah, ecco, questo io non lo sapevo. A lezione non abbiamo visto questo genere di algoritmi (se non un rapido cenno all'artigianale metodo del completamento dei quadrati).
Potresti per cortesia spenderci sopra due parole in più? E' proprio qui il mio problema sai: a lezione non avevo visto questa cosa, e in giro non l'ho trovata da nessuna parte. Ecco dove sta il legame che tanto cercavo.
Come si dimostra l'asserto che citi? E in generale come è fatto $T$? E' per caso l'endomorfismo autoaggiunto associato alla stessa matrice di $B$ (rispetto a una base ortonormale)?
Diagonalizzando in base ortonormale, usi una matrice ortogonale $P$ (quindi tale che $^tP=P^(-1)$), per cui $^tPAP$ (matrice associata alla f.b.s. rispetto alla nuova base) coincide con $P^-1AP$ (matrice simile a quella di partenza, vista come matrice associata all'endomorfismo autoaggiunto): è a questo che ti riferisci?
Ti ringrazio molto per il tuo aiuto, sei davvero molto prezioso.
GRAZIE ancora.
anzitutto grazie perchè sempre mi rispondi. Le cose cominciano ad essere più chiare, grazie ai tuoi interventi.
"dissonance":
Ma infatti non è necessario che la base di autovettori sia ortonormale. Potresti tranquillamente diagonalizzare usando un algoritmo ad hoc per forme bilineari (ce ne sono vari) e trovare una base diagonalizzante per la forma bilineare che con l'endomorfismo non c'entra nulla. Questa anzi diventa l'unica maniera di procedere se non sei in un contesto di spazi vettoriali euclidei o hermitiani.
Ah, ecco, questo io non lo sapevo. A lezione non abbiamo visto questo genere di algoritmi (se non un rapido cenno all'artigianale metodo del completamento dei quadrati).
In simboli:
hai la forma bilineare $B$, ma hai anche un prodotto scalare [tex]\langle , \rangle[/tex];
si dimostra che esiste un unico endomorfismo autoaggiunto $T$ tale che [tex]B(v, w)= \langle Tv, w \rangle[/tex] per ogni $v, w$;
Potresti per cortesia spenderci sopra due parole in più? E' proprio qui il mio problema sai: a lezione non avevo visto questa cosa, e in giro non l'ho trovata da nessuna parte. Ecco dove sta il legame che tanto cercavo.
Come si dimostra l'asserto che citi? E in generale come è fatto $T$? E' per caso l'endomorfismo autoaggiunto associato alla stessa matrice di $B$ (rispetto a una base ortonormale)?
diagonalizzare $B$ e diagonalizzare $T$ sono in generale due imprese radicalmente diverse, a meno che tu non intenda diagonalizzare in base ortonormale, nel qual caso per una particolare congiuntura astrale le due nozioni coincidono.
Diagonalizzando in base ortonormale, usi una matrice ortogonale $P$ (quindi tale che $^tP=P^(-1)$), per cui $^tPAP$ (matrice associata alla f.b.s. rispetto alla nuova base) coincide con $P^-1AP$ (matrice simile a quella di partenza, vista come matrice associata all'endomorfismo autoaggiunto): è a questo che ti riferisci?
Ti ringrazio molto per il tuo aiuto, sei davvero molto prezioso.
GRAZIE ancora.

"Paolo90":Ma figurati. E' un piacere discutere con te.
Caro dissonance,
anzitutto grazie perchè sempre mi rispondi.
Potresti per cortesia spenderci sopra due parole in più? E' proprio qui il mio problema sai: a lezione non avevo visto questa cosa, e in giro non l'ho trovata da nessuna parte. Ecco dove sta il legame che tanto cercavo.Proprio lui. Intanto una osservazione, nel post ho supposto implicitamente che $B$ è simmetrica (o hermitiana, nel caso complesso); non è necessario in realtà. Prendiamo uno spazio vettoriale [tex]V[/tex] reale (risp. complesso) dotato di prodotto scalare (risp. hermitiano) definito positivo [tex]\langle, \rangle[/tex], e sia [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] una base ortonormale. Come sai, data una forma bilineare (risp. sesquilineare) [tex]b[/tex] esiste un'unica matrice [tex]B[/tex] tale che
Come si dimostra l'asserto che citi? E in generale come è fatto $T$? E' per caso l'endomorfismo autoaggiunto associato alla stessa matrice di $B$ (rispetto a una base ortonormale)?
[tex]b(x_1\bold{e}_1+...+x_n \bold{e}_n, y_1\bold{e}_1+...+y_n\bold{e}_n)= \begin{bmatrix}x_1 & ... & x_n \end{bmatrix}B \begin{bmatrix} y_1 \\ \vdots \\ y_n\end{bmatrix}[/tex] (nel caso complesso le [tex]y_j[/tex] a secondo membro sono da sostituire con [tex]\bar{y_j}[/tex])
per ogni [tex]\begin{bmatrix} x_1 & ... &x_n \end{bmatrix},\ \begin{bmatrix} y_1 & ... & y_n \end{bmatrix} \in \mathbb{R}^n[/tex] (risp. [tex]\mathbb{C}^n[/tex]).
D'altro canto, essendo la base [tex]\bold{e}_1 ... \bold{e}_n[/tex] ortonormale, noi sappiamo che il prodotto scalare si esprime come
[tex]\langle x_1\bold{e}_1+...+x_n\bold{e}_n, y_1\bold{e}_1+...+y_n\bold{e}_n\rangle= \begin{bmatrix}x_1 & ... & x_n \end{bmatrix}\begin{bmatrix} y_1 \\ \vdots \\ y_n\end{bmatrix}[/tex] (ancora, nel caso complesso le [tex]y_j[/tex] a secondo membro sono da sostituire con [tex]\bar{y_j}[/tex]);
e inoltre, la matrice [tex]B[/tex] individua un unico endomorfismo [tex]T_B[/tex] di [tex]V[/tex] mediante le
[tex]T_B(y_1\bold{e}_1+...+y_n\bold{e}_n)=z_1\bold{e}_1+...+z_n\bold{e}_n\quad \iff \quad \begin{bmatrix} z_1 \\ \vdots \\ z_n \end{bmatrix}=B \begin{bmatrix} y_1 \\ \vdots \\ y_n \end{bmatrix}[/tex].
Abbiamo quindi l'identità (scusa il TeX che fa piangere)
[tex]b(x_1\bold{e}_1+...+x_n \bold{e}_n, y_1\bold{e}_1+...+y_n\bold{e}_n)= \\ \\= \begin{bmatrix}x_1 & ... & x_n \end{bmatrix}B \begin{bmatrix} y_1 \\ \vdots \\ y_n\end{bmatrix}= \\ \\= \langle x_1\bold{e}_1+...+x_n \bold{e}_n, T_B(y_1\bold{e}_1+...+y_n\bold{e}_n) \rangle[/tex]
(nel caso complesso le [tex]y_j[/tex] a secondo membro sono da sostituire con [tex]\bar{y_j}[/tex] e l'endomorfismo [tex]T_B[/tex] a terzo membro è da sostituire con [tex]\bar{T_B}[/tex]).
Ecco rappresentata la forma bilineare [tex]b[/tex] mediante un operatore lineare:
[tex]b(v, w)=\langle v , T_Bw \rangle[/tex] oppure [tex]b(v, w)=\langle w, \bar{T_B}w \rangle[/tex] nel caso complesso.
Con un discorso speculare avremmo potuto prendere l'endomorfismo [tex]S_B[/tex] associato alla trasposta di [tex]B[/tex] (risp. alla trasposta coniugata di [tex]B[/tex]), ottenendo la rappresentazione
[tex]b(v, w)=\langle S_Bv, w \rangle[/tex]. Per definizione, [tex]T_B[/tex] ([tex]\bar{T_B}[/tex] nel caso complesso) e [tex]S_B[/tex] sono uno l'aggiunto dell'altro: in particolare, essi coincidono (e [tex]T_B[/tex] è autoaggiunto) se e solo se [tex]b[/tex] è simmetrica (risp. hermitiana). [size=75](*)[/size].
Diagonalizzando in base ortonormale, usi una matrice ortogonale $P$ (quindi tale che $^tP=P^(-1)$), per cui $^tPAP$ (matrice associata alla f.b.s. rispetto alla nuova base) coincide con $P^-1AP$ (matrice simile a quella di partenza, vista come matrice associata all'endomorfismo autoaggiunto): è a questo che ti riferisci?Esattamente. Quindi, per diagonalizzare [tex]b[/tex] che adesso è assunta simmetrica (hermitiana), puoi invece diagonalizzare [tex]T_B[/tex], cosa che sai fare per mezzo del teorema spettrale.
____________________________
(*) Questa dimostrazione non mi piace molto. Sarebbe preferibile (IMHO) dimostrare l'esistenza degli endomorfismi [tex]T, S[/tex] senza passare dalla matrice [tex]B[/tex]: questo approccio si trova sul libro di Lang al §41, teorema 2 (edizione italiana). Ma così bisogna passare dalla teoria degli spazi duali che non so se conosci; inoltre la dimostrazione che propongo io, più sporca, mostra direttamente il rapporto a livello matriciale tra l'endomorfismo e la forma bilineare (sesquilineare) - questo forse ti può servire.
"dissonance":
Ma figurati. E' un piacere discutere con te.
La cosa è ovviamente reciproca. Grazie di nuovo per la risposta: ora ho proprio le idee molto più chiare!

Proprio lui. Intanto una osservazione, nel post ho supposto implicitamente che $B$ è simmetrica (o hermitiana, nel caso complesso); non è necessario in realtà. Prendiamo uno spazio vettoriale [tex]V[/tex] reale (risp. complesso) dotato di prodotto scalare (risp. hermitiano) definito positivo [tex]\langle, \rangle[/tex], e sia [tex]\bold{e}_1 \ldots \bold{e}_n[/tex] una base ortonormale.
[quote]
Come si dimostra l'asserto che citi? E in generale come è fatto $T$? E' per caso l'endomorfismo autoaggiunto associato alla stessa matrice di $B$ (rispetto a una base ortonormale)?
[/quote]
Sisi, certo. Non ho affrontato nel dettaglio la parte complessa: abbiamo visto gli spazi hermitiani, ma non le forme sesquilineari. Perdonami per la mia curiosità, ma chi sarebbero

Esattamente. Quindi, per diagonalizzare [tex]b[/tex] che adesso è assunta simmetrica (hermitiana), puoi invece diagonalizzare [tex]T_B[/tex], cosa che sai fare per mezzo del teorema spettrale.
[quote]Diagonalizzando in base ortonormale, usi una matrice ortogonale $P$ (quindi tale che $^tP=P^(-1)$), per cui $^tPAP$ (matrice associata alla f.b.s. rispetto alla nuova base) coincide con $P^-1AP$ (matrice simile a quella di partenza, vista come matrice associata all'endomorfismo autoaggiunto): è a questo che ti riferisci?
[/quote]
Si chiaro anche questo.
____________________________
(*) Questa dimostrazione non mi piace molto. Sarebbe preferibile (IMHO) dimostrare l'esistenza degli endomorfismi [tex]T, S[/tex] senza passare dalla matrice [tex]B[/tex]: questo approccio si trova sul libro di Lang al §41, teorema 2 (edizione italiana). Ma così bisogna passare dalla teoria degli spazi duali che non so se conosci; inoltre la dimostrazione che propongo io, più sporca, mostra direttamente il rapporto a livello matriciale tra l'endomorfismo e la forma bilineare (sesquilineare) - questo forse ti può servire.
Di certo, la dimostrazione che proponi tu è esattamente quel pezzo che mancava a me per chiudere il cerchio: non capisco perchè, ma a lezione non abbiamo citato questo teorema, per cui non capivo dove stava il legame tra le forme bilineari e gli endomorfismi. Ora ho capito (grazie a te) e devo dire che comunque è sorprendente come cosa: è strano vedere una forma bilineare rappresentata da un operatore lineare.
Comunque non credo di avere il Lang a portata di mano (ho un suo libro in formato pdf ma non ricordo quale esattamente) per cui non credo di poter reperire la dimostrazione di cui parli, purtroppo. In any case, degli spazi duali so ben poco: ho leggiucchiato qualcosa, ma non li abbiamo visti.
Se ben ricordo, dato uno spazio $V$ di dimensione finita $n$, ha senso considerare l'insieme di tutti gli omomorfismi $f: V to RR$ (forme).
Ebbene, si può conferire una naturale struttura di spazio vettoriale a tale insieme che prende il nome di spazio duale (e l'ho visto indicato come $\mathcalL (V,RR)$ ); la sua dimensione (come spazio vettoriale) risulta essere uguale al prodotto delle dimensioni di $RR$ e $V$ (visti entrambi come spazi vettoriali reali): $1*n=n$. Quindi $"dim" V = "dim" \mathcalL (V,RR) = n$; ma due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione per cui concludo che ogni spazio vettoriale è isomorfo al suo duale.
Altro dire non so; se hai tempo (se e solo se hai tempo

Ti ringrazio molto

"Paolo90":Esatto. O meglio, quella che hai portato è la rappresentazione matriciale; più formalmente, dato uno spazio vettoriale complesso [tex]V[/tex] (nota bene: non necessariamente di dimensione finita!), una forma sesquilineare su [tex]V[/tex] è una applicazione [tex]b\colon V \times V \to \mathbb{C}[/tex] lineare nel primo argomento e antilineare nel secondo, i.e.
Sisi, certo. Non ho affrontato nel dettaglio la parte complessa: abbiamo visto gli spazi hermitiani, ma non le forme sesquilineari. Perdonami per la mia curiosità, ma chi sarebbero? Sono forme, quindi immagino che abbiano come codominio $RR$ e l'aggettivo sesquilineare dovrebbe indicare "uno e mezzo". Ma in pratica? Azzardo, per analogia al prodotto hermitiano standard che conosco, che siano funzioni del tipo $X mapsto ^tXAbarY$, dove $A$ è la matrice (hermitiana?) associata alla forma. Più o meno ci sono?
i) [tex]b(p\bold{v}+q\bold{w}, \bold{u})=pb(\bold{v}, \bold{u})+qb(\bold{w}, \bold{u})[/tex];
ii) [tex]b(\bold{u}, p\bold{v}+q\bold{w})=\bar{p}b(\bold{u}, \bold{v})+\bar{q}b(\bold{u}, \bold{w})[/tex];
per ogni [tex]\bold{v}, \bold{w}, \bold{u}\inV,\ p, q \in \mathbb{C}[/tex].
(A volte, specialmente nell'ambito numerico, si richiede la linearità nel secondo argomento e l'antilinearità nel primo).
Se la forma verifica questa proprietà di simmetria:
[tex]b(\bold{v},\bold{w})=\overline{b(\bold{w}, \bold{v})}[/tex]
si dirà che è hermitiana.
Se [tex]V[/tex] ha dimensione finita, alle forme sesquilineari è possibile associare delle matrici con lo stesso procedimento adottato per le forme bilineari. Alle forme hermitiane resteranno associate, guarda caso, le matrici hermitiane e per esse sarà valido il teorema spettrale di diagonalizzabilità in base ortonormale. Ma direi che possiamo chiudere qui questo discorso e concentrarci sul caso reale. Per ulteriori informazioni puoi consultare qualsiasi testo di algebra lineare, per esempio quello di Lang, oppure il Sernesi Geometria 1 che ha un paragrafo dedicato proprio a questo argomento.
Di certo, la dimostrazione che proponi tu è esattamente quel pezzo che mancava a me per chiudere il cerchio: non capisco perchè, ma a lezione non abbiamo citato questo teorema, per cui non capivo dove stava il legame tra le forme bilineari e gli endomorfismi. Ora ho capito (grazie a te) e devo dire che comunque è sorprendente come cosa: è strano vedere una forma bilineare rappresentata da un operatore lineare.Anche io non capisco perché questo argomento non venga mai affrontato direttamente. Io stesso ho combattuto a lungo contro gli stessi tuoi dubbi (residui di queste battaglie si trovano anche su questo forum, come ad esempio qui

Se ben ricordo, dato uno spazio $V$ di dimensione finita $n$, ha senso considerare l'insieme di tutti gli omomorfismi $f: V to RR$ (forme).Giusto, ma perché di dimensione finita e perché per forza [tex]f \colon V \to \mathbb{R}[/tex]? Lo spazio vettoriale duale lo puoi definire nel caso più generale possibile di uno spazio vettoriale, anche di dimensione infinita, su un campo qualsiasi.
Ebbene, si può conferire una naturale struttura di spazio vettoriale a tale insieme che prende il nome di spazio duale (e l'ho visto indicato come $\mathcalL (V,RR)$ ); la sua dimensione (come spazio vettoriale) risulta essere uguale al prodotto delle dimensioni di $RR$ e $V$ (visti entrambi come spazi vettoriali reali): $1*n=n$. Quindi $"dim" V = "dim" \mathcalL (V,RR) = n$; ma due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione per cui concludo che ogni spazio vettoriale è isomorfo al suo duale.Certo, in dimensione finita è proprio così. Senza la dimensione finita il discorso che hai fatto fallisce. Un esempio di spazio vettoriale non isomorfo al proprio spazio duale è lo spazio dei polinomi reali, il cui duale è (isomorfo a) lo spazio delle serie formali di potenze. Ne abbiamo parlato anche su questo forum qui, con continuazione qui (attenzione, l'argomento è un po' difficile - forse ti conviene rimandare a dopo questa lettura, visto anche che per il momento queste faccende di dimensione infinita non ti servono).
Spazi di questo tipo sono molto usati in matematica. Qui avevo scritto una piccola rassegna di applicazioni.
Altro dire non so; se hai tempo (se e solo se hai tempoL'idea dietro la dimostrazione di Lang sta nel fatto che, come ricordava killing_buddha nel post linkato, una forma bilineare non degenere su uno spazio vettoriale di dimensione finita induce due isomorfismi (uno per argomento) tra lo spazio vettoriale ed il duale. Per il momento chiudo qui perché purtroppo devo andare, ne riparliamo più tardi.) e hai voglia di darmi due dritte ti ascolto volentieri, così magari riesco anche a capire la dimostrazione del Lang. Ma non voglio essere pesante e disturbarti...
Ti ringrazio molto
"dissonance":Esatto. O meglio, quella che hai portato è la rappresentazione matriciale; più formalmente, dato uno spazio vettoriale complesso [tex]V[/tex] (nota bene: non necessariamente di dimensione finita!), una forma sesquilineare su [tex]V[/tex] è una applicazione [tex]b\colon V \times V \to \mathbb{C}[/tex] lineare nel primo argomento e antilineare nel secondo, i.e.
[quote="Paolo90"]Sisi, certo. Non ho affrontato nel dettaglio la parte complessa: abbiamo visto gli spazi hermitiani, ma non le forme sesquilineari. Perdonami per la mia curiosità, ma chi sarebbero? Sono forme, quindi immagino che abbiano come codominio $RR$ e l'aggettivo sesquilineare dovrebbe indicare "uno e mezzo". Ma in pratica? Azzardo, per analogia al prodotto hermitiano standard che conosco, che siano funzioni del tipo $X mapsto ^tXAbarY$, dove $A$ è la matrice (hermitiana?) associata alla forma. Più o meno ci sono?
i) [tex]b(p\bold{v}+q\bold{w}, \bold{u})=pb(\bold{v}, \bold{u})+qb(\bold{w}, \bold{u})[/tex];
ii) [tex]b(\bold{u}, p\bold{v}+q\bold{w})=\bar{p}b(\bold{u}, \bold{v})+\bar{q}b(\bold{u}, \bold{w})[/tex];
per ogni [tex]\bold{v}, \bold{w}, \bold{u}\inV,\ p, q \in \mathbb{C}[/tex].
(A volte, specialmente nell'ambito numerico, si richiede la linearità nel secondo argomento e l'antilinearità nel primo).
Se la forma verifica questa proprietà di simmetria:
[tex]b(\bold{v},\bold{w})=\overline{b(\bold{w}, \bold{v})}[/tex]
si dirà che è hermitiana.
[/quote]
Sì, ti seguo perfettamente fin qui, ho capito; grazie.
Se [tex]V[/tex] ha dimensione finita, alle forme sesquilineari è possibile associare delle matrici con lo stesso procedimento adottato per le forme bilineari. Alle forme hermitiane resteranno associate, guarda caso, le matrici hermitiane e per esse sarà valido il teorema spettrale di diagonalizzabilità in base ortonormale.
Prima di andare oltre, ti devo chiedere un piacere: avrei gentilmente bisogno di una precisazione proprio sul teorema spettrale tra caso complesso e reale. Prendi il teorema spettrale in questa forma:
Teorema Spettrale. Parte i. Sia $f: V to V$ un endomorfismo dello spazio $V$ (la cui matrice associata rispetto ad una base di $V$ è $A$). Se $f$ è autoaggiunto allora è semplice, cioè esiste una base di autovettori.
$EE P in "GL"(n,RR) " t.c. " D = P^-1AP$
con $D$ matrice diagonale.
parte ii. Ancora, se l'endomorfismo $f$ è autoaggiunto allora è anche diagonalizzabile in base ortonormale, cioè esiste una matrice $Q in "O"(n) " t.c. " D = ^tQAQ$.
Di questa seconda parte vale anche il viceversa? Se non ricordo male, posso dire che se $EE Q$ ortogonale tale che $^tQAQ$ è una matrice diagonale allora l'endomorfismo è autoaggiunto. O forse posso solo concludere che la matrice ad esso associata è simmetrica?
Sono quasi sicuro però che, nel caso complesso, questa implicazione inversa del punto ii non vale. Se $f$ è autoaggiunto allora esiste una base unitaria di autovettori ma se esiste una base unitaria di autovettori non è detto che $f$ sia autoaggiunto (o di nuovo: che la matrice ad esso associata sia hermitiana?)
Spero sia chiaro ciò che voglio dire, anche se certo è un po' incasinato

Anche io non capisco perché questo argomento non venga mai affrontato direttamente. Io stesso ho combattuto a lungo contro gli stessi tuoi dubbi (residui di queste battaglie si trovano anche su questo forum, come ad esempio qui) perché su nessun testo riuscivo a trovare risposte formulate in modo diretto.
Mi fa piacere non essere il solo a pormi certe questioni: ne ho parlato un po' con dei colleghi, a loro sembrava tutto ovvio, e non ho trovato le risposte che cercavo. Ne ho parlato con il docente, che mi ha rispiegato la teoria senza chiarire però proprio quel punto sul quale solo tu potevi illuminarmi. Grazie ancora.
Giusto, ma perché di dimensione finita e perché per forza [tex]f \colon V \to \mathbb{R}[/tex]? Lo spazio vettoriale duale lo puoi definire nel caso più generale possibile di uno spazio vettoriale, anche di dimensione infinita, su un campo qualsiasi.
[quote]Se ben ricordo, dato uno spazio $V$ di dimensione finita $n$, ha senso considerare l'insieme di tutti gli omomorfismi $f: V to RR$ (forme).
[/quote]
Scusa, questione di abitudine. Come puoi ben immaginare, al primo anno ti fanno fare spazi vettoriali solo di dimensione finita su $RR$ o su $CC$ per cui mi viene naturale parlare di essi. [size=75](comunque, un po' di tempo fa il grande Martino mi raccontò due cosette sugli spazi costruiti sui campi finiti e - se ben ricordo - mi disse che sostanzialmente non cambiava molto la teoria)[/size]
Senza la dimensione finita il discorso che hai fatto fallisce. Un esempio di spazio vettoriale non isomorfo al proprio spazio duale è lo spazio dei polinomi reali, il cui duale è (isomorfo a) lo spazio delle serie formali di potenze. Ne abbiamo parlato anche su questo forum qui, con continuazione qui (attenzione, l'argomento è un po' difficile - forse ti conviene rimandare a dopo questa lettura, visto anche che per il momento queste faccende di dimensione infinita non ti servono).
Ho dato un'occhiata ma come saggiamente suggerisci penso li lascerò per il post esame. Molto bella la raccolta di applicazioni che hai fatto tu nel link che segnali, l'ho letta velocemente oggi pomeriggio ma stasera voglio leggerla con calma.
E cercherò anche di guardarmi l'intervento di killing_buddha.
Ti ringrazio ancora molto per il tuo aiuto, veramente indispensabile.

Rispondo al volo sul fatto del teorema spettrale, poi ne riparleremo credo domani. Dire "teorema spettrale" è improprio, bisognerebbe dire "teoremi spettrali". Infatti ce ne sono parecchi e quello con gli endomorfismi reali simmetrici che citi è solo un caso particolare. Comunque la sua controparte complessa è: sia $f:V\toV$ un endomorfismo autoaggiunto (si dice anche hermitiano, facendo riferimento alla classe di matrici associate) di uno spazio vettoriale hermitiano (=complesso, di dimensione finita, e dotato di un prodotto hermitiano, ovvero di una forma sesquilineare $\langle, \rangle$ definita positiva). Allora $f$ è diagonalizzabile in base ortonormale e inoltre ha tutti gli autovalori reali.
La dimostrazione, se non ricordo male, segue fedelmente quella reale. Osserva che, a livello di matrici, avrai una identità del tipo
$D=\bar{U}^T A U$, dove $U$ è una matrice unitaria, analogo complesso delle matrici ortogonali. Nota come l'operazione di "aggiunzione" (si dirà così? buh!) prevede anche la coniugazione oltre alla trasposizione.
Il discorso sugli autovalori, invece, è proprio del caso complesso e si vede così:
per ipotesi, per ogni $v, w \inV$ si ha
$\langle fv, w\rangle=\langlev, fw\rangle$.
Siano allora $lambda$ un autovalore e $v\inV$ un $lambda$-autovettore (ricordo che allora $v\ne0$). Risulta:
$\lambda \langle v,v\rangle = \langle fv, v \rangle= \langle v, fv \rangle=\langle v, \lambdav \rangle= \bar{lambda}\langle v,v \rangle$;
semplificando $\langle v,v\rangle$, che è non nullo e anche reale strettamente positivo, perché $\langle, \rangle$ è definita positiva, si ottiene
$\lambda=\bar{\lambda}$
ovvero $\lambda$ è reale.
La dimostrazione, se non ricordo male, segue fedelmente quella reale. Osserva che, a livello di matrici, avrai una identità del tipo
$D=\bar{U}^T A U$, dove $U$ è una matrice unitaria, analogo complesso delle matrici ortogonali. Nota come l'operazione di "aggiunzione" (si dirà così? buh!) prevede anche la coniugazione oltre alla trasposizione.
Il discorso sugli autovalori, invece, è proprio del caso complesso e si vede così:
per ipotesi, per ogni $v, w \inV$ si ha
$\langle fv, w\rangle=\langlev, fw\rangle$.
Siano allora $lambda$ un autovalore e $v\inV$ un $lambda$-autovettore (ricordo che allora $v\ne0$). Risulta:
$\lambda \langle v,v\rangle = \langle fv, v \rangle= \langle v, fv \rangle=\langle v, \lambdav \rangle= \bar{lambda}\langle v,v \rangle$;
semplificando $\langle v,v\rangle$, che è non nullo e anche reale strettamente positivo, perché $\langle, \rangle$ è definita positiva, si ottiene
$\lambda=\bar{\lambda}$
ovvero $\lambda$ è reale.
Dissonance, ti ringrazio per la celere risposta.
Ah, capito. Non lo sapevo.
Vediamo un po' se riesco a fare un po' di ordine mentale, perchè sento di avere un po' di confusione ancora [size=75](da un lato meglio averla adesso che all'esame)[/size].
Lemma. Sia $(V, *)$ uno spazio vettoriale hermitiano e sia $f: V to V$ un endomorfismo autoaggiunto. Allora $f$ ha tutti gli autovalori reali.
Sulla dimostrazione non problem, quella che ho studiato anche io è esattamente quella che proponi tu, fin qui ok.
Però ho un dubbio: se $(V, *)$ è uno spazio vettoriale euclideo il fatto che abbia tutti gli autovalori reali non segue da questo lemma, vero? Infatti, anche nella dimostrazione io parto dal fatto che sicuramente esiste un autovalore (per il th. fondamentale dell'Algebra): quindi questo lemma vale solo ed esclusivamente in campo complesso?
Mi pare di capire questo dalle tue parole quando dici
Fin qui ci sono?
Adesso, vediamo una delle versioni del teorema spettrale; limitiamoci al caso reale, per ora.
"Sia $(V,*)$ uno spazio vettoriale euclideo. Sia $f:V to V$ un endomorfismo autoaggiunto. Allora $f$ è diagonalizzabile in base ortonormale, cioè esiste una base ortonormale di autovettori."
Ok fin qui? Adesso, caro dissonance, perdonami, ma non ho chiara una cosa: vale questo fatto?
"Sia $(V,*)$ uno spazio vettoriale euclideo. Sia $f:V to V$ un operatore lineare diagonalizzabile in base ortonormale, cioè tale che esista una base ortonormale di autovettori. Allora $f$ è autoaggiunto."
E' vero? Se quanto detto fin qui è vero, allora posso dire questo (che resta un caso particolare): una matrice $A$ è simmetrica se e solo se è diagonalizzabile mediante una matrice ortogonale.
In simboli, data $A$ matrice quadrata di ordine $n$, essa è simmetrica se e solo se esiste $P in "O"(n) " t.c. " D=^tPAP$.
Spero sia più chiaro ciò che intendevo dire.
Ancora GRAZIE per la pazienza.
"dissonance":
Rispondo al volo sul fatto del teorema spettrale, poi ne riparleremo credo domani. Dire "teorema spettrale" è improprio, bisognerebbe dire "teoremi spettrali". Infatti ce ne sono parecchi e quello con gli endomorfismi reali simmetrici che citi è solo un caso particolare.
Ah, capito. Non lo sapevo.
Vediamo un po' se riesco a fare un po' di ordine mentale, perchè sento di avere un po' di confusione ancora [size=75](da un lato meglio averla adesso che all'esame)[/size].
Lemma. Sia $(V, *)$ uno spazio vettoriale hermitiano e sia $f: V to V$ un endomorfismo autoaggiunto. Allora $f$ ha tutti gli autovalori reali.
Sulla dimostrazione non problem, quella che ho studiato anche io è esattamente quella che proponi tu, fin qui ok.
Però ho un dubbio: se $(V, *)$ è uno spazio vettoriale euclideo il fatto che abbia tutti gli autovalori reali non segue da questo lemma, vero? Infatti, anche nella dimostrazione io parto dal fatto che sicuramente esiste un autovalore (per il th. fondamentale dell'Algebra): quindi questo lemma vale solo ed esclusivamente in campo complesso?
Mi pare di capire questo dalle tue parole quando dici
Il discorso sugli autovalori, invece, è proprio del caso complesso
Fin qui ci sono?
Adesso, vediamo una delle versioni del teorema spettrale; limitiamoci al caso reale, per ora.
"Sia $(V,*)$ uno spazio vettoriale euclideo. Sia $f:V to V$ un endomorfismo autoaggiunto. Allora $f$ è diagonalizzabile in base ortonormale, cioè esiste una base ortonormale di autovettori."
Ok fin qui? Adesso, caro dissonance, perdonami, ma non ho chiara una cosa: vale questo fatto?
"Sia $(V,*)$ uno spazio vettoriale euclideo. Sia $f:V to V$ un operatore lineare diagonalizzabile in base ortonormale, cioè tale che esista una base ortonormale di autovettori. Allora $f$ è autoaggiunto."
E' vero? Se quanto detto fin qui è vero, allora posso dire questo (che resta un caso particolare): una matrice $A$ è simmetrica se e solo se è diagonalizzabile mediante una matrice ortogonale.
In simboli, data $A$ matrice quadrata di ordine $n$, essa è simmetrica se e solo se esiste $P in "O"(n) " t.c. " D=^tPAP$.
Spero sia più chiaro ciò che intendevo dire.
Ancora GRAZIE per la pazienza.

"Paolo90":
Ok fin qui? Adesso, caro dissonance, perdonami, ma non ho chiara una cosa: vale questo fatto?
"Sia $(V,*)$ uno spazio vettoriale euclideo. Sia $f:V to V$ un operatore lineare diagonalizzabile in base ortonormale, cioè tale che esista una base ortonormale di autovettori. Allora $f$ è autoaggiunto."(1)
E' vero? Se quanto detto fin qui è vero, allora posso dire questo (che resta un caso particolare): una matrice $A$ è simmetrica se e solo se è diagonalizzabile mediante una matrice ortogonale.
In simboli, data $A$ matrice quadrata di ordine $n$, essa è simmetrica se e solo se esiste $P in "O"(n) " t.c. " D=^tPAP$ (2).
Scusate l'intromissione. Non ho letto per intero il thread.
Volevo solo esortare il caro Paolo "a sporcarsi le mani".
E' bello (per noi) che tu sia così curioso, ma è molto più gratificante (per te) provare a dare una risposta alle tue domande.
E' questo il mestiere del Matematico.

Quello che vuoi provare, cioè (1), è equivalente a (2).
E allora prova a dimostrare (2)
Un'implicazione, quella difficile, già ce l'hai. E' il teorema spettrale (la versione per matrici).
Ti resta da fare quella facile, cioè devi provare che se esiste $P in "O"(n) " t.c. " D=^tPAP$, allora $A$ è simmetrica.
Ti assicuro che ci metti un attimo. Un rigo di dimostrazione.
Ciao!

"cirasa":
Scusate l'intromissione. Non ho letto per intero il thread.
Volevo solo esortare il caro Paolo "a sporcarsi le mani".
E' bello (per noi) che tu sia così curioso, ma è molto più gratificante (per te) provare a dare una risposta alle tue domande.
E' questo il mestiere del Matematico.![]()
Ti ringrazio per le belle parole. Effettivamente hai ragione; ti garantisco che ci avevo provato ma mi ero un attimo perso. Dopo la discussione con dissonance devo aver ritrovato un po' di ordine e forse ci sono:
Sia $A$ una matrice quadrata di ordine $n$. Supponiamo che esista $P in "O"(n) " t.c. " D=^tPAP$. Voglio provare che $A$ è simmetrica.
Dim. Se $P in "O"(n) iff ^tP=P^-1$. Per cui $D=^tPAP=> A=PDP^-1=PD^tP$.
Prendendo la trasposta di entrambi i membri, $^tA = ^t(PD^tP)=P ^tD ^tP$ per le note proprietà della trasposta. Ma $D$ è diagonale, per cui banalmente coincide con la sua trasposta. Quindi $^tA=A$, cioè $A$ è simmetrica.
E' giusto?
GRAZIE anche per l'incoraggiamento

Perfetto! 
Dunque avevi avuto una intuizione giusta.
Una matrice reale quadrata di ordine $n$ è simmetrica se e solo se è diagonalizzabile mediante una matrice ortogonale.
Alcuni chiamano questo tipo di matrici "ortogonalmente diagonalizzabili". Quest'ultima cosa non la sapevo fino a stamattina quando, rispondendo ad un altro utente, mi è capitata fra le mani questa dispensina (paragrafo 4 pag. 15).

Dunque avevi avuto una intuizione giusta.
Una matrice reale quadrata di ordine $n$ è simmetrica se e solo se è diagonalizzabile mediante una matrice ortogonale.
Alcuni chiamano questo tipo di matrici "ortogonalmente diagonalizzabili". Quest'ultima cosa non la sapevo fino a stamattina quando, rispondendo ad un altro utente, mi è capitata fra le mani questa dispensina (paragrafo 4 pag. 15).
Evvai
Grazie mille, Cirasa.
In definitiva, una versione reale del th. spettrale è la seguente: un endomorfismo è autoaggiunto sse è diagonalizzabile in base ortonormale. (o equivalentemente, una matrice è simmetrica sse è ortogonalmente diagonalizzabile).
Adesso, passiamo al caso complesso.
Sicuramente è vero che un endomorfismo autoaggiunto è diagonalizzabile in base unitaria. (una matrice hermitiana è "ortogonalmente" diagonalizzabile)
Ma vale il viceversa?
Il punto a cui penserò adesso è proprio questo: se un endomorfismo è diagonalizzabile mediante una matrice unitaria allora è autoaggiunto? (se una matrice è "ortogonalmente" diagonalizzabile allora è hermitiana?)
Grazie ancora.



Grazie mille, Cirasa.
In definitiva, una versione reale del th. spettrale è la seguente: un endomorfismo è autoaggiunto sse è diagonalizzabile in base ortonormale. (o equivalentemente, una matrice è simmetrica sse è ortogonalmente diagonalizzabile).
Adesso, passiamo al caso complesso.
Sicuramente è vero che un endomorfismo autoaggiunto è diagonalizzabile in base unitaria. (una matrice hermitiana è "ortogonalmente" diagonalizzabile)
Ma vale il viceversa?
Il punto a cui penserò adesso è proprio questo: se un endomorfismo è diagonalizzabile mediante una matrice unitaria allora è autoaggiunto? (se una matrice è "ortogonalmente" diagonalizzabile allora è hermitiana?)
Grazie ancora.

"Paolo90":Ti stai avvicinando alla "versione definitiva" del teorema spettrale, che si dà nel caso complesso. La risposta alla tua domanda è: no, non vale il viceversa. Su Wikipedia ho trovato questo esempio ([edit]: l'esempio l'ho rimaneggiato un po', su wiki era (IMHO) inutilmente complicato):
Ma vale il viceversa?
[tex]\begin{bmatrix} \imath & \imath \\ \imath & -\imath \end{bmatrix}[/tex]
Prova a diagonalizzare questa matrice in base ortonormale, dovresti riuscirci nonostante essa non sia hermitiana. Una semplice osservazione potrebbe risparmiarti un po' di lavoro. Oppure puoi anche fare tutti i calcoli, di certo non ti faranno male.

Prova poi a ripercorrere la dimostrazione che hai appena fatto insieme a cirasa e vedi dove fallisce quando sei alle prese con matrici complesse. Ricordati che l'operazione di "aggiunzione" (ripeto - non lo so se si dice così!) ora non è la semplice trasposizione ma la trasposizione con coniugazione.
"dissonance":Ti stai avvicinando alla "versione definitiva" del teorema spettrale, che si dà nel caso complesso. La risposta alla tua domanda è: no, non vale il viceversa. Su Wikipedia ho trovato questo esempio ([edit]: l'esempio l'ho rimaneggiato un po', su wiki era (IMHO) inutilmente complicato):
[quote="Paolo90"]Ma vale il viceversa?
[tex]\begin{bmatrix} \imath & \imath \\ \imath & -\imath \end{bmatrix}[/tex]
Prova a diagonalizzare questa matrice in base ortonormale, dovresti riuscirci nonostante essa non sia hermitiana. Una semplice osservazione potrebbe risparmiarti un po' di lavoro. Oppure puoi anche fare tutti i calcoli, di certo non ti faranno male.

[/quote]
Dunque: la matrice data dovrebbe essere simile a [tex]\begin{bmatrix} \imath\sqrt{2} & 0 \\ 0 & -\imath\sqrt{2} \end{bmatrix}[/tex]. La base ortonormale di autovettori dovrebbe essere
[tex]\left\{\left\{\frac{1+\sqrt{2}}{\sqrt{2 \left(2+\sqrt{2}\right)}},\frac{1}{\sqrt{2 \left(2+\sqrt{2}\right)}}\right\},\left\{-\frac{1}{\sqrt{2-\sqrt{2}} \left(2+\sqrt{2}\right)},\frac{1+\sqrt{2}}{\sqrt{2-\sqrt{2}} \left(2+\sqrt{2}\right)}\right\}\right\}}[/tex]
Nota che ho usato Gram-Schimdt rispetto al prodotto scalare reale standard (non quello hermitiano) perchè gli autovettori (come pure gli autovalori) erano reali.
Prova poi a ripercorrere la dimostrazione che hai appena fatto insieme a cirasa e vedi dove fallisce quando sei alle prese con matrici complesse. Ricordati che l'operazione di "aggiunzione" (ripeto - non lo so se si dice così!) ora non è la semplice trasposizione ma la trasposizione con coniugazione.
Ora ci penso, grazie.

Mamma mia come sono brutti quegli autovettori!
Scusa, non pensavo che avresti veramente fatto tutti i conti...
Lo svolglmento che avevo in mente è questo:
Sia [tex]A=\begin{bmatrix} \imath & \imath \\ \imath & -\imath \end{bmatrix}[/tex].
Tesi: [tex]A[/tex] è ortogonalmente diagonalizzabile, ovvero esistono una matrice diagonale [tex]\Delta[/tex] e una matrice unitaria [tex]U[/tex] tali che [tex]\Delta=\overline{U}^TAU[/tex].
Svolgimento: Osserviamo che [tex]A[/tex] è uguale a [tex]\imath B[/tex] dove [tex]B[/tex] è una matrice reale simmetrica 2x2. Per il teorema spettrale reale che dicevi prima, essa è ortogonalmente diagonalizzabile, ovvero esistono una matrice ortogonale [tex]O[/tex] ed una diagonale (reale) [tex]D[/tex] tali che
[tex]D=O^TBO[/tex] ovvero [tex]ODO^T=B[/tex].
Sostituendo nell'identità [tex]A=\imath B[/tex] otteniamo [tex]A=\imath ODO^T=O(\imath D)O^T[/tex] ovvero [tex]O^TAO=\imath D[/tex]. Essendo [tex]O[/tex] ortogonale, essa è in particolare unitaria e [tex]O^T=\overline{O}^T[/tex]; mentre è ovvio che [tex]\imath D[/tex] è diagonale. La tesi è verificata con [tex]\Delta= \imath D, U=O[/tex]. /////
Comunque sia gli autovalori che hai trovato sono corretti. Verificare la correttezza degli autovettori mi sembra veramente esagerato, invece!
Comunque, è sicuramente possibile che tu ne abbia trovati con entrate reali; anche nello svolgimento di sopra, le matrici unitarie diagonalizzanti sono reali. Se dovessi scommettere, scommetterei che i tuoi calcoli sono corretti.
________________________
Scusa ancora per averti fatto fare tutti quei conti. Tra l'altro, scrivendo scrivendo mi è venuto in mente un esempio molto più semplice di matrice complessa ortogonalmente diagonalizzabile ma non hermitiana:
[tex]\begin{bmatrix} \imath & 0 \\ 0 & 0\end{bmatrix}[/tex]


Lo svolglmento che avevo in mente è questo:
Sia [tex]A=\begin{bmatrix} \imath & \imath \\ \imath & -\imath \end{bmatrix}[/tex].
Tesi: [tex]A[/tex] è ortogonalmente diagonalizzabile, ovvero esistono una matrice diagonale [tex]\Delta[/tex] e una matrice unitaria [tex]U[/tex] tali che [tex]\Delta=\overline{U}^TAU[/tex].
Svolgimento: Osserviamo che [tex]A[/tex] è uguale a [tex]\imath B[/tex] dove [tex]B[/tex] è una matrice reale simmetrica 2x2. Per il teorema spettrale reale che dicevi prima, essa è ortogonalmente diagonalizzabile, ovvero esistono una matrice ortogonale [tex]O[/tex] ed una diagonale (reale) [tex]D[/tex] tali che
[tex]D=O^TBO[/tex] ovvero [tex]ODO^T=B[/tex].
Sostituendo nell'identità [tex]A=\imath B[/tex] otteniamo [tex]A=\imath ODO^T=O(\imath D)O^T[/tex] ovvero [tex]O^TAO=\imath D[/tex]. Essendo [tex]O[/tex] ortogonale, essa è in particolare unitaria e [tex]O^T=\overline{O}^T[/tex]; mentre è ovvio che [tex]\imath D[/tex] è diagonale. La tesi è verificata con [tex]\Delta= \imath D, U=O[/tex]. /////
Comunque sia gli autovalori che hai trovato sono corretti. Verificare la correttezza degli autovettori mi sembra veramente esagerato, invece!

Comunque, è sicuramente possibile che tu ne abbia trovati con entrate reali; anche nello svolgimento di sopra, le matrici unitarie diagonalizzanti sono reali. Se dovessi scommettere, scommetterei che i tuoi calcoli sono corretti.
________________________
Scusa ancora per averti fatto fare tutti quei conti. Tra l'altro, scrivendo scrivendo mi è venuto in mente un esempio molto più semplice di matrice complessa ortogonalmente diagonalizzabile ma non hermitiana:
[tex]\begin{bmatrix} \imath & 0 \\ 0 & 0\end{bmatrix}[/tex]
"dissonance":
Mamma mia come sono brutti quegli autovettori!Scusa, non pensavo che avresti veramente fatto tutti i conti...
![]()
Eheh



Mi sono divertito un po', tranquillo, nulla di grave: può sempre essere utile fare i conti, anche per tenere "sveglia" la mente.
Lo svolglmento che avevo in mente è questo:
Sia [tex]A=\begin{bmatrix} \imath & \imath \\ \imath & -\imath \end{bmatrix}[/tex].
Tesi: [tex]A[/tex] è ortogonalmente diagonalizzabile, ovvero esistono una matrice diagonale [tex]\Delta[/tex] e una matrice unitaria [tex]U[/tex] tali che [tex]\Delta=\overline{U}^TAU[/tex].
Svolgimento: Osserviamo che [tex]A[/tex] è uguale a [tex]\imath B[/tex] dove [tex]B[/tex] è una matrice reale simmetrica 2x2. Per il teorema spettrale reale che dicevi prima, essa è ortogonalmente diagonalizzabile, ovvero esistono una matrice ortogonale [tex]O[/tex] ed una diagonale (reale) [tex]D[/tex] tali che
[tex]D=O^TBO[/tex] ovvero [tex]ODO^T=B[/tex].
Sostituendo nell'identità [tex]A=\imath B[/tex] otteniamo [tex]A=\imath ODO^T=O(\imath D)O^T[/tex] ovvero [tex]O^TAO=\imath D[/tex]. Essendo [tex]O[/tex] ortogonale, essa è in particolare unitaria e [tex]O^T=\overline{O}^T[/tex]; mentre è ovvio che [tex]\imath D[/tex] è diagonale. La tesi è verificata con [tex]\Delta= \imath D, U=O[/tex].
Sì, certo, così è molto più elegante e meno aggressivo: nessun conto, ma tutto perfetto.
Pensando invece alla dimostrazione che ho fatto con cirasa, se non sbaglio, l'argomento fallisce per colpa di una coniugazione (com'era ovvio aspettarsi). Infatti, supposto che esista $P in "U"(n) " t.c. " D=P^(-1)AP$ ricavo che $A=PDP^(-1)$ mentre $bar(^tA)=PbarDP^(-1)$. Mi rincuora il fatto che se (e solo se) $D$ è reale tutto torna: spero sia giusto.
Dovremmo esserci allora e la versione "finale" del teorema spettrale a questo punto è:
Caso reale. Un endomorfismo è autoaggiunto sse è diagonalizzabile in base ortonormale (la cui versione matriciale è: una matrice è simmetrica sse è ortogonalmente diagonalizzabile).
Caso complesso. Un endomorfismo autoaggiunto è diagonalizzabile in base unitaria (la cui versione matriciale è: una matrice hermitiana è "unitariamente" diagonalizzabile).
E' a questa versione che ti riferivi qualche post fa (dicendo una versione definitiva)?
Grazie mille di tutto, specie del tempo dedicatomi

P.S. 1.
Comunque, è sicuramente possibile che tu ne abbia trovati con entrate reali; anche nello svolgimento di sopra, le matrici unitarie diagonalizzanti sono reali. Se dovessi scommettere, scommetterei che i tuoi calcoli sono corretti.
Troppo gentile

Comunque sono contento di vedere, come dici tu, che le matrici unitarie diagonalizzanti sono reali anche per te. E' una conferma.
Scusa ancora per averti fatto fare tutti quei conti. Tra l'altro, scrivendo scrivendo mi è venuto in mente un esempio molto più semplice di matrice complessa ortogonalmente diagonalizzabile ma non hermitiana:
[tex]\begin{bmatrix} \imath & 0 \\ 0 & 0\end{bmatrix}[/tex]
Figurati, no problem. Comunque quest'ultimo esempio è molto bello, è da tenere a mente perchè è appunto un controesempio semplicissimo (in sede di esame, alla domanda sul th spettrale complesso, per mostrare che non vale il viceversa): anche perchè, se non ho sbagliato i conti, qui gli autovettori sono i vettori della base canonica di $CC^2$ che è già unitaria... Quindi il gioco è subito fatto, ancora prima di cominciare: la matrice
[tex]\begin{bmatrix} \imath & 0 \\ 0 & 0\end{bmatrix}[/tex]
è diagona(lizzabil)e in base ortonormale di autovettori ${(1,0), (0,1)}$ ma non è hermitiana.
P.S. 2. Una curiosità (ammetto di non aver ancora cercato nulla al riguardo): perchè "spettrale"? Lo spettro se non sbaglio è l'insieme degli autovalori, ma perchè è chiamato così?

GRAZIE ancora di tutto

Le tue conclusioni sono esatte. In realtà esiste un risultato più forte, che segue, ma prima serve una definizione.
Def. Sia [tex]A[/tex] una matrice quadrata complessa. Diremo che [tex]A[/tex] è normale sse essa commuta con la propria aggiunta, i.e.
[tex]A\overline{A}^T=\overline{A}^TA[/tex].
Se una matrice è unitariamente diagonalizzabile, allora è normale. La cosa non banale è che vale il viceversa:
Teorema Spettrale Una matrice complessa è unitariamente diagonalizzabile se e solo se essa è normale.
A questo mi riferivo prima.
_____________________
Sulla parola "spettro" mi stavo interrogando proprio recentemente. E' un termine che ricorre spesso negli ambiti più disparati (spettro elettromagnetico, spettro solare ...). Guardandone l'etimologia, per esempio qui, vedo che discende dal latino specere, guardare. Penso allora si riferisca al fatto che l'insieme degli autovalori è una "immagine" visibile della matrice, come lo spettro solare è l'immagine di un raggio di sole nell'attraversare un prisma trasparente. Ma stiamo andando paurosamente OT e questa è una domanda che vedrei bene in un topic a parte!
Def. Sia [tex]A[/tex] una matrice quadrata complessa. Diremo che [tex]A[/tex] è normale sse essa commuta con la propria aggiunta, i.e.
[tex]A\overline{A}^T=\overline{A}^TA[/tex].
Se una matrice è unitariamente diagonalizzabile, allora è normale. La cosa non banale è che vale il viceversa:
Teorema Spettrale Una matrice complessa è unitariamente diagonalizzabile se e solo se essa è normale.
A questo mi riferivo prima.
_____________________
Sulla parola "spettro" mi stavo interrogando proprio recentemente. E' un termine che ricorre spesso negli ambiti più disparati (spettro elettromagnetico, spettro solare ...). Guardandone l'etimologia, per esempio qui, vedo che discende dal latino specere, guardare. Penso allora si riferisca al fatto che l'insieme degli autovalori è una "immagine" visibile della matrice, come lo spettro solare è l'immagine di un raggio di sole nell'attraversare un prisma trasparente. Ma stiamo andando paurosamente OT e questa è una domanda che vedrei bene in un topic a parte!
"dissonance":
Le tue conclusioni sono esatte. In realtà esiste un risultato più forte, che segue, ma prima serve una definizione.
Def. Sia [tex]A[/tex] una matrice quadrata complessa. Diremo che [tex]A[/tex] è normale sse essa commuta con la propria aggiunta, i.e.
[tex]A\overline{A}^T=\overline{A}^TA[/tex].
Ah capisco. Con aggiunta intendi la trasposta della coniugata, vero? Scusa la domanda idiota, solo che io ho sempre saputo che l'aggiunta di una matrice (quadrata) è quella formata dai cofattori degli elementi.
Teorema Spettrale Una matrice complessa è unitariamente diagonalizzabile se e solo se essa è normale.
A questo mi riferivo prima.
Capito. Grazie per la sintesi.
Ora possiamo chiudere l'OT sul teorema spettrale e possiamo tornare a parlare forme bilineari e sesquilineari.
Ho letto la dimostrazione sul Lang, l'ho trovata abbastanza difficile, perchè comunque non conosco bene la teoria degli spazi duali; preferisco comunque la tua che, per quanto più "artigianale", mette però bene in luce il legame con le matrici.
Sempre a proposito di forme bilineari, vorrei sapere che cosa ne pensate di questo esercizio (viene dal Lang): spero la mia risoluzione sia corretta.
Teorema. Sia $V$ un $mathbbK$-spazio vettoriale finitamente generato. Sia data una forma bilineare non degenere [tex]\langle, \rangle[/tex] su $V$. Sia inoltre $f: V to V$ è un endormorfismo di $V$ tale che
[tex]\langle f(v), f(w)\rangle = \langle v,w \rangle[/tex]
per ogni $v,w in V$. Dimostrare che il $detA=+-1$ essendo $A$ la matrice (quadrata) associata all'endomorfismo rispetto a una base in $V$.
Dimostrazione. Per correttezza spoilerizzo, nel caso qualcun altro volesse provare.
Che ne dite? E' corretta? Ci ho preso gusto a "sporcarmi le mani", come suggeriva Cirasa... devo ammettere che aveva proprio ragione.
Ancora grazie di tutto e scusate la rottura.

"Paolo90":E' sempre bello sentirsi dire che avevo ragione!
Ci ho preso gusto a "sporcarmi le mani", come suggeriva Cirasa... devo ammettere che aveva proprio ragione.


"Paolo90":La tua dimostrazione non fa una grinza.
Che ne dite? E' corretta?
Con una tecnica simile, se hai voglia, ecco un esercizio superclassico per te:
Sia $V$ uno spazio vettoriale reale di dimensione finita [tex]n[/tex]. Sia data una forma bilineare [tex]\omega[/tex] antisimmetrica* e non degenere.
Dimostrare che [tex]n[/tex] è pari.
_________________
* "Antisimmetrica" significa che [tex]\omega(v,w)=-\omega(w,v)[/tex] per ogni [tex]v,w\in V[/tex].