[Teoria] Operatore ortogonale

Magma1
È da un po' di giorni che mi tormenta la proposizione successiva alla seguente definizione:

Sia $(V, <,>)$ uno spazio euclideo di dimensione $n$. Sia $F$ un operatore lineare su V.

$F$ si dice ortogonale (rispetto a <,>) se, per ogni $x, y in V$, vale:

$ = $


Sia $(V, <,>)$ uno spazio euclideo di dimensione $n$. Un operatore $F$ è ortogonale se, e solo se, è un operatore invertibile e se, in ciascuna base ortonormale $f$ di $V$, la matrice rappresentativa $B:=M_f (F)F$ di $F$ è una matrice ortogonale.


Il mio problema è che non riesco a capire perché, pur essendo $f$ una base ortonormale, la matrice $M_(f) (F) ne I_n$.

Inoltre non capisco perché per fare il prodotto scalare si pone $ = (x_1, ..., x_n)B^t B ((y_1), (.), (.), (.), (y_n))$. :-k

Risposte
phaerrax
Scelta una base \(\mathcal B=\{e_1,\ldots,e_n\}\) per rappresentare i vettori, hai che \(x\) e \(y\) sono rappresentati da dei vettori colonna che indico con \([x]_\mathcal{B}=(x_1\ \cdots\ x_n)^T\) e \([y]_\mathcal{B}=(y_1\ \cdots\ y_n)^T\), l'operatore \(F\) da una matrice \(A_{ij}\); il prodotto interno si scrive poi come
\[
\langle x,y\rangle=[x]_\mathcal{B}^T\ G\ [y]_\mathcal{B}=
\begin{pmatrix}
x_1 & \cdots & x_n
\end{pmatrix}
G
\begin{pmatrix}
y_1\\
\vdots\\
y_n\end{pmatrix}
\]
dove \(G\) è tale che \(G_{ij}=\langle e_i,e_j\rangle\).
Applicando \(F\) ai due vettori e prendendo il loro prodotto interno allora risulta
\[
\langle F(x),F(y)\rangle=(A[x]_\mathcal{B})^T\ G\ A[y]_\mathcal{B}=[x]_\mathcal{B}^TA^T\ G\ A[y]_\mathcal{B}=
\begin{pmatrix}
x_1 & \cdots & x_n
\end{pmatrix}
A^TGA
\begin{pmatrix}
y_1\\
\vdots\\
y_n\end{pmatrix}.
\]
Se, infine, la base è ortonormale rispetto a tale prodotto interno, risulterà allora \(G_{ij}=\langle e_i,e_j\rangle=\delta_{ij}\), ossia \(G=I_n\): in tal caso, affinché \(F\) sia ortogonale, si deve avere
\[
\langle F(x),F(y)\rangle=\langle x,y\rangle\quad\rightarrow\quad [x]_\mathcal{B}^TA^TA[y]_\mathcal{B}=[x]_\mathcal{B}^T[y]_\mathcal{B}
\]
cioè \(A^TA=I_n\) vale a dire \(A\) è una matrice ortogonale.

Magma1
Cioè, in questo modo si ha una sintesi tra il prodotto scalare standard (forma bilineare simmetrica positiva con base canonica, il che equivale alla somma dei prodotti dei termini aventi lo stesso indice ) e $F:=L_A (v)$ definita ponendo $A*v$?

Inoltre, nel principio di diagonalizzazione simultanea si ha:

A matrice simmetrica, $ L_A: RR^n→RR^n$ e $b_A: RR^n×RR^n→RR$ f.b.s
Sia $O$ base ortonormale standard (al p.s.s.) di autovettori di $L_A$ .
Allora $O$ è una base ortogonale rispetto a $b_A$

DIM:

$M_O (b_A )=(M_(EO) (Id))^t M_E (b) M_(EO) (Id)=$


$ =(M_(EO) (Id))^(-1) M_E (L_A ) M_(EO) (Id)=M_O (L_A )=( ( lambda_1 , 0 , 0 , 0 , 0 ),( 0 , . , 0 , 0 , 0 ),( 0 , 0 , . , 0 , 0 ),( 0 , 0 , 0 , . ,0 ),( 0 , 0 , 0 , 0 , lambda_n ) ) $

Cioè $M_O (b_A )=( ( lambda_1 , 0 , 0 , 0 , 0 ),( 0 , . , 0 , 0 , 0 ),( 0 , 0 , . , 0 , 0 ),( 0 , 0 , 0 , . ,0 ),( 0 , 0 , 0 , 0 , lambda_n ) )$ , dove $lambda_i$ sono gli autovalori di $A$.


In questo caso $M_O (L_A)$ non dovrebbe rappresentare la matrice identità? Quindi anche $M_O (b_A)$ è la matrice identità, cioè la forma bilineare ha sempre come autovalore $1$??

Invece se $O$ fosse stata solo una base di autovettori, allora sarebbe stata una base ortogonale e quindi la matrice rappresentativa avrebbe potuto avere autovalori differenti (però sempre positivi per il teorema di Sylvester); giusto? :-k




Scusa se sto approfittando della tua disponibilità ma purtroppo per questa parte del corso di Geometria abbiamo una nuova professoressa che non segue il filo logico del precedente professore ](*,) ](*,) ](*,)

phaerrax
Non capisco a cosa corrispondono i vari simboli come \(M_O\), \(M_{EO}\) eccetera... inoltre se \(b_A\) è una forma bilineare simmetrica (ho interpretato giusto le abbreviazioni?) non dovrebbe essere \(\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R}\)?

Magma1
"phaerrax":
Non capisco a cosa corrispondono i vari simboli come \(M_O\), \(M_{EO}\) eccetera...


$M_O$ è la matrice rappresentativa io base $O$,

$M_(EO)$ è la matrice del cambiamento di base, le cui colonne sono le componenti dei vettori della base $O$ in base $E$.
$M_(OE)$ ha in colonna le componenti dei vettori della base $E$ in base $O$.


"phaerrax":

inoltre se \(b_A\) è una forma bilineare simmetrica (ho interpretato giusto le abbreviazioni?) non dovrebbe essere \(\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R}\)?

Sì, è stata una distrazione durante il copia-incolla :|

phaerrax
OK. Però continuo a non capire il testo citato: se \(L_A\) è un'applicazione lineare e \(b_A\) una forma bilineare, cosa vuol dire l'equazione
\[
M_O(b_A)
=M_{EO}(\operatorname{id})^T\ M_E(b_A)\ M_{EO}(\operatorname{id})
=M_{EO}(\operatorname{id})^{-1}\ M_E(L_A)\ M_{EO}(\operatorname{id})
=M_O(L_A)?
\]
Tra l'altro, se \(L_A\) indica che \(L\) agisce come la moltiplicazione per \(A\), allora perché c'è anche \(b_A\)? Vuoi intendere che \(b_A(x,y)=x^TAy\)?
Forse ho bisogno di un po' più di contesto per queste affermazioni.

Magma1
Allora, dagli appunti leggo che


$A$ $n xx n$ simmetrica induce:

$(1)$ $L_A : RR^n->RR^n$definito ponendo $A**v$ p-simmetrico rispetto al prod. scal. st.

$(2)$ $b_A: RR^n xx RR^n ->RR$ forma bil. simm.

Sembrerebbe che la stessa matrice abbia due nozioni di diagonalizzazione, in verità il Teorema spettrale afferma che $L_A$ e $b_A$ si diagonalizzano allo stesso modo.


$ M_O (b_A )=(M_(EO) (Id))^t M_E (b) M_(EO) (Id)= $

$ =(M_(EO) (Id))^(-1) M_E (L_A ) M_(EO) (Id)=M_O (L_A ) $




dove $(M_(EO) (Id))^t=(M_(EO) (Id))^(-1)$ è una matrice ortogonale in quanto matrice del cambiamento di base fra basi ortonormali.

mentre $M_O (b_A )=M_O (L_A )$ è la matrice diagonale avente sulla diagonale principale gli autovalori di $A$.


Questa è l'interpretazione del vecchio professore riguardo la diagonalizzazione simultanea di una matrice simmetrica.


"phaerrax":

Vuoi intendere che \(b_A(x,y)=x^TAy\)?

Sì, esattamente.

phaerrax
\(\newcommand{\M}{\mathcal{M}} \newcommand{\inner}[2]{\langle{#1},{#2}\rangle}\)Sia \(O=\{o_k\}\) la base ortonormale rispetto al prodotto interno standard \(\inner{}{}\).

Non c'è motivo per cui \(M_O(L_A)\) debba essere la matrice identità: questo accade se \(L_A(o_k)=o_k\) per ogni \(k\), ma allora \(L_A\) è proprio l'operatore identità. Lo stesso vale per \(b_A\).
Forse stai confondendo queste due matrici per quella che rappresenta il prodotto interno/scalare standard: essa è per definizione l'identità, ma non per questo gli autovalori dell'operatore \(L_A\) devono essere tutti 1: sono due funzioni differenti.

Le matrici che rappresentano \(L_A\) e \(b_A\) sono ovviamente le stesse per come sono definite le due funzioni, e lo rimangono in qualsiasi base ortogonale rispetto a \(\inner{}{}\); in ogni caso, per quanto riguarda l'ortogonalità rispetto a \(b_A\), risulta (detto \(\lambda_k\) l'autovalore di \(o_k\))
\[
b_A(o_i,o_j)=o_i^TAo_j=\lambda_jo_i^To_j=\lambda_j\inner{o_i}{o_j}=\lambda_j\delta_{ij}
\]
quindi la base \(O\) è ortogonale anche rispetto a \(b_A\).
Evidentemente è importante che \(\inner{o_i}{o_j}=\delta_{ij}\), ossia che la base \(O\) sia ortonormale rispetto a tal prodotto interno.

Infine, \(O\) non può essere solo una base di autovettori, dato che essendo \(A\) simmetrica la base di autovettori è sempre "ortonormalizzabile".
Se intendi invece semplicemente che \(O\) sia ortogonale ma non ortonormale, allora hai \(\inner{o_i}{o_j}=c_j\delta_{ij}\) (con \(c_j\ne 1\) per almeno un \(j\)) e chiaramente a quel punto le due matrici che rappresentano \(L_A\) e \(b_A\) non coincidono più, pur essendo sempre entrambe diagonali.
Se \(A\) non fosse simmetrica non avrebbe nemmeno senso definire \(b_A\) in quel modo.

Magma1
"phaerrax":

Forse stai confondendo queste due matrici per quella che rappresenta il prodotto interno/scalare standard: essa è per definizione l'identità, ma non per questo gli autovalori dell'operatore \(L_A\) devono essere tutti 1: sono due funzioni differenti.

:-k Hai ragione, questo era un dei punti che mi mandava in tilt

"phaerrax":

Le matrici che rappresentano \(L_A\) e \(b_A\) sono ovviamente le stesse per come sono definite le due funzioni, e lo rimangono in qualsiasi base ortogonale rispetto a \(\inner{}{}\); in ogni caso, per quanto riguarda l'ortogonalità rispetto a \(b_A\), risulta (detto \(\lambda_k\) l'autovalore di \(o_k\))
\[
b_A(o_i,o_j)=o_i^TAo_j=\lambda_jo_i^To_j=\lambda_j\inner{o_i}{o_j}=\lambda_j\delta_{ij}
\]
quindi la base \(O\) è ortogonale anche rispetto a \(b_A\).
Evidentemente è importante che \(\inner{o_i}{o_j}=\delta_{ij}\), ossia che la base \(O\) sia ortonormale rispetto a tal prodotto interno.


È questo il nervo centrale. Per dire che la matrice del cambiamento di base sia ortogonale abbiamo supposto che $O, E$ fossero due basi ortonormali, mentre il principio di diagonaliz. simultanea afferma che $O$ è ortogonale rispetto a $b_A$, come sostieni sia tu che il vecchio prof.; invece il libro consigliato dalla nuova professoressa, sostiene che

Un operatore ortogonale trasforma basi ortonormali in basi ortonormali


come conseguenza del fatto che

Sia $(V, <,>)$ uno spazio eucl. di dimensione n. Un operatore è ortogonale se, e solo se, è un operatore invertibile, e se, in ciascuna base ortonormale $f$ di $V$, la matrice rappresentativa $M_(f) (F)$ di $F$ è una matrice ortogonale.


Forse sto facendo un miscuglio di cose, ma mi sento disorientato :smt017

"phaerrax":

Infine, \(O\) non può essere solo una base di autovettori, dato che essendo \(A\) simmetrica la base di autovettori è sempre "ortonormalizzabile".

Non ho capito cosa vuoi intendere... :-k

phaerrax
\(\newcommand{\inner}[2]{\langle{#1},{#2}\rangle}\)
"Magma":

È questo il nervo centrale. Per dire che la matrice del cambiamento di base sia ortogonale abbiamo supposto che $O, E$ fossero due basi ortonormali, mentre il principio di diagonaliz. simultanea afferma che $O$ è ortogonale rispetto a $b_A$, come sostieni sia tu che il vecchio prof.; invece il libro consigliato dalla nuova professoressa, sostiene che

Un operatore ortogonale trasforma basi ortonormali in basi ortonormali

come conseguenza del fatto che

Sia $(V, <,>)$ uno spazio eucl. di dimensione n. Un operatore è ortogonale se, e solo se, è un operatore invertibile, e se, in ciascuna base ortonormale $f$ di $V$, la matrice rappresentativa $M_(f) (F)$ di $F$ è una matrice ortogonale.

Forse sto facendo un miscuglio di cose, ma mi sento disorientato :smt017


Allora, seguendo il filo logico della nuova professoressa:

    [*:hhrjar42]Scelto un prodotto interno \(\inner{}{}\) per \(V\), un automorfismo è ortogonale se la matrice che lo rappresenta è ortogonale in qualsiasi base ortonormale rispetto a \(\inner{}{}\).[/*:m:hhrjar42]
    [*:hhrjar42]Siano \(L\) tale automorfismo, \(\mathcal{E}=\lbrace e_1,\ldots,e_n\rbrace\) una base ortonormale rispetto a \(\inner{}{}\), \(\mathcal{F}=\lbrace f_1,\ldots,f_n\rbrace\) un'altra base tale che \(f_k=L(e_k)\), e \(A\) la matrice che rappresenta \(L\) nella base \(\mathcal{E}\).[/*:m:hhrjar42]
    [*:hhrjar42]L'ortogonalità di \(L\) implica che \(\inner{L(x)}{L(y)}=\inner{x}{y}\) per ogni \(x,y\in V\): essendo la base \(\mathcal{E}\) ortonormale, il prodotto interno è rappresentato dalla matrice identità e così
    \[
    \inner{L(x)}{L(y)}=\bigl(L(x)\bigr)^TL(y)=x^TA^TAy=x^Ty=\inner{x}{y}.
    \][/*:m:hhrjar42]
    [*:hhrjar42]Infine
    \[
    \inner{f_i}{f_j}=\inner{L(e_i)}{L(e_j)}=\inner{e_i}{e_j}=\delta_{ij}
    \]
    perciò anche \(\mathcal{F}\) è ortonormale: allora \(L\) (e perciò ogni automorfismo ortogonale) "porta basi ortonormali in basi ortonormali".[/*:m:hhrjar42][/list:u:hhrjar42]

    "phaerrax":

    Infine, \(O\) non può essere solo una base di autovettori, dato che essendo \(A\) simmetrica la base di autovettori è sempre "ortonormalizzabile".

    Qui intendevo che ogni base di autovettori di una matrice simmetrica è sempre ortogonale, ma chiaramente non è vero (vedi ad esempio l'identità) ;-)

Magma1
Perfetto! ti ringrazio per la disponibilità O:)

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.