Base ortogonale su spazio vettoriale
C'è un esercizio di cui non capisco le soluzioni, potreste aiutarmi per piacere?
Prevalentemente i dubbi sono sull'esercizio b) e soprattutto sull'esercizio c) utilizza un algoritmo che non riesco a "vedere".
In realtà nell'esercizio a) e b) sono solo due "piccolezze" che non capisco, ma nel esercizio c) mi sono un po' perso.
Sia \( K \) un campo avente caratteristica 2 e sia \( V \) uno spazio vettoriale su \( K \) di dimensione finite, munito di una forma bilineare simmetria e sia
\[C= \begin{pmatrix}
0 &1\\
1 &0
\end{pmatrix} \]
a) Sia \( \dim(V) = 2 \) dimostrare che \( V \) non possiede una base ortogonale se e solo se esiste una base \( B \) di \( V \) tale che \( A_{B}^{\left \langle \cdot, \cdot \right \rangle} =C\)
b) Sia \( \dim(V) = 3 \) e sia
\[ A_{B}^{\left \langle \cdot, \cdot \right \rangle} = \begin{pmatrix}
a&0 &0\\
0&0 &1\\
0&1 &0
\end{pmatrix} \]
Dimostra che \( V \) possiede una base ortogonale se e solo se \( a \neq 0 \)
c) Dimostra il teorema seguente. \( \dim V = n \)
\( V \) possiede una base ortogonale se e solo se esiste una base \( B \) di \( V \) tale che
\[ A_B^{\left \langle \cdot, \cdot \right \rangle} =
\begin{pmatrix}
d_1 \\
& d_2 \\
& & \ddots \\
& & & d_k \\
& & & & C \\
& & & & & \ddots \\
& & & & & & C \\
\end{pmatrix} \]
dove almeno uno dei coefficienti \( d_i \neq 0 \)
a)
\( \Leftarrow \)
Siano \( v_1 = (a,b)^T \) e \( v_2 = (c,d)^T \) due vettori non nulli tale che
\( v_1^T C v_2 = ad + bc = 0 \)
Se uno dei coefficienti è nullo, per esempio e senza perdità di generalità \( a =0 \Rightarrow b \neq 0 \Rightarrow c=0 \Rightarrow d \neq 0 \)
dunque i vettori sono linearmente dipendenti. D'altra parte se tutti i coefficienti sono non nulli allora sabbiamo che \( ad=bc \) poiché il corpo è di caratteristica 2, dunque
\( ad=bc \Rightarrow ab^{-1} = cd^{-1} \Rightarrow \begin{pmatrix}
a\\
b
\end{pmatrix}=b \begin{pmatrix}
ab^{-1}\\
1
\end{pmatrix}=b \begin{pmatrix}
cd^{-1}\\
1
\end{pmatrix}=bd^{-1} \begin{pmatrix}
c\\
d
\end{pmatrix} \)
Che dimostra che i due vettori sono linearmente dipendenti. Concludiamo che se \( v_1^T C v_2 = 0 \) allora i due vettori sono linearmente dipendenti.
Date due basi qualunque \( B, D \) abbiamo che \( A_{D}^{\left \langle \cdot, \cdot \right \rangle}=P_{DB}^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P_{DB} \) che vuol dire che \( A_{B}^{\left \langle \cdot, \cdot \right \rangle} \) e \( A_{D}^{\left \langle \cdot, \cdot \right \rangle} \) sono equivalenti.
Dunque se \( D=\{ d_1, d_2 \} \) è una base ortogonale e \( A_{B}^{\left \langle \cdot, \cdot \right \rangle}= C \) abbiamo che
\( 0 = [d_1]_D^T A_{D}^{\left \langle \cdot, \cdot \right \rangle} [d_2]_D = [d_1]_B^T C [d_2]_B \)
Abbiamo dunque una contraddizione.
\( \Rightarrow \)
Supponiamo che non esiste una base ortogonale. Allora per una base qualunque \( B = \{b_1,b_2 \} \) sappiamo
\[ 0 \neq \left \langle b_1, b_2 \right \rangle = ( A_{B}^{\left \langle \cdot, \cdot \right \rangle} )_{21} = ( A_{B}^{\left \langle \cdot, \cdot \right \rangle})_{12} \]
Se \( ( A_{B}^{\left \langle \cdot, \cdot \right \rangle} )_{11}\) oppure \( ( A_{B}^{\left \langle \cdot, \cdot \right \rangle})_{22} \) è non nullo, possiamo diagonalizzare la matrice e vuol dire che esiste una base ortogonale.
Concludiamo che \( ( A_{B}^{\left \langle \cdot, \cdot \right \rangle} )_{11}=( A_{B}^{\left \langle \cdot, \cdot \right \rangle})_{22} =0\).
(Perché potremmo diagonalizzare la matrice?)
b)
Se \( a \neq 0 \) allora moltiplichiamo la terza linea (risp. colonna) per \( a \). In seguito aggiungiamo la seconda e la terza linea (e risp. colonne) alla prima linea (risp. colonna) per ottenere
\( \begin{pmatrix}
a&a &a\\
a&0 &a\\
a&a &0
\end{pmatrix} \)
Poi applichiamo l'algoritmo per diagonalizzare la matrice e otteniamo \( \begin{pmatrix}
a&0 &0\\
0&a &0\\
0&0 &a
\end{pmatrix} \)
(Dubbio: non potevo direttamente scambiare la terza linea con la seconda e moltiplicarle per \( a \) ? Perché fa quei passaggi precedenti? )
Abbiamo dunque che esiste una base ortogonale.
Supponiamo dunque \( a =0 \)
\[ ( x,y,z) \begin{pmatrix}
0&0 &0\\
0&0 &1\\
0&1 &0
\end{pmatrix} \begin{pmatrix}
x\\
y\\
z
\end{pmatrix} = 2yz=0 \Rightarrow ( P^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P )_{jj} = 0 , \forall j=1,\ldots,n \]
Dunque la matrice diagonale \( P^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P \) è la matrice nulla, ma è una contraddizione poiché \( rang(0)=0 \neq 2 = rang(A_{B}^{\left \langle \cdot, \cdot \right \rangle} )=rang(P^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P ) \)
Pertanto \( A_{B}^{\left \langle \cdot, \cdot \right \rangle} \) non è diagonalizzabile e dunque \( V \) non possiede nessuna base ortogonale.
(Perché se non è diagonalizzabile \( V \) non possiede una base ortogonale? )
c) Supponiamo che \( d_j = 0 \forall j \in \{ 1, \ldots, k \} \) un calcolo simile alla parte b) dimostra che non c'è alcuna base ortogonale.
Supponiamo dunque che \( \exists d_j \neq 0 \), senza perdità di generalità prendiamo \( j = 1 \). Sia \( a = d_1 \neq 0 \)
Dimostriamo come possiamo diagonalizzare la prima sotto matrice \( C \).
Sia \( A=A_{B}^{\left \langle \cdot, \cdot \right \rangle} \), e sia \( C \) la sotto matrice di \( A \) definita per \( A_{ij} \) tale che \( i,j \in \{ k+1,k+2 \} \)
Procedere come segue:
- Moltiplicare la colonna \( k+1 \) e la linea \( k+1 \) per \(a \)
- Aggiungere una volta le colonne \( k+1 \) e \( k+2 \) alla colonna 1, siccome \( A_{1,k+1}=A_{1,k+2}=0 \), \(A_{11} \) non cambia.
- Aggiungere una volta le linee \( k+1 \) e \( k+2 \) alla linea 1, siccome \( A_{1,k+1}+A_{1,k+2}= 2a=0\), \(A_{11} \) non cambia.
- Aggiungere una volta la colonna 1 alle colonne \( k+1 \) e \(k+2 \). La sottomatrice \( C \) diviene la matrice diagonale
\( \begin{pmatrix}
a &0\\
0 &a
\end{pmatrix} \), e le entrate \( A_{1,k+1} \) e \( A_{1,k+2} \) diventano \( 0 \).
-Aggiungere una volta la linea 1 alle linee \( k+1 \) e \( k+2 \). Siccome \( A_{1,k+1}=A_{1,k+2}=0\) non modifichiamo \( C \) ma \( A_{k+1,1} \) e \( A_{k+2,1} \) diventano \( 0 \).
Continuando in questo modo le altre sottomatrici \( C \) lungo la diagonale diventino una matrice diagonale.
Ecco qui mi sono un po' perso, non riesco a vedere come mai questo algoritmo funzioni...
Prevalentemente i dubbi sono sull'esercizio b) e soprattutto sull'esercizio c) utilizza un algoritmo che non riesco a "vedere".
In realtà nell'esercizio a) e b) sono solo due "piccolezze" che non capisco, ma nel esercizio c) mi sono un po' perso.
Sia \( K \) un campo avente caratteristica 2 e sia \( V \) uno spazio vettoriale su \( K \) di dimensione finite, munito di una forma bilineare simmetria e sia
\[C= \begin{pmatrix}
0 &1\\
1 &0
\end{pmatrix} \]
a) Sia \( \dim(V) = 2 \) dimostrare che \( V \) non possiede una base ortogonale se e solo se esiste una base \( B \) di \( V \) tale che \( A_{B}^{\left \langle \cdot, \cdot \right \rangle} =C\)
b) Sia \( \dim(V) = 3 \) e sia
\[ A_{B}^{\left \langle \cdot, \cdot \right \rangle} = \begin{pmatrix}
a&0 &0\\
0&0 &1\\
0&1 &0
\end{pmatrix} \]
Dimostra che \( V \) possiede una base ortogonale se e solo se \( a \neq 0 \)
c) Dimostra il teorema seguente. \( \dim V = n \)
\( V \) possiede una base ortogonale se e solo se esiste una base \( B \) di \( V \) tale che
\[ A_B^{\left \langle \cdot, \cdot \right \rangle} =
\begin{pmatrix}
d_1 \\
& d_2 \\
& & \ddots \\
& & & d_k \\
& & & & C \\
& & & & & \ddots \\
& & & & & & C \\
\end{pmatrix} \]
dove almeno uno dei coefficienti \( d_i \neq 0 \)
a)
\( \Leftarrow \)
Siano \( v_1 = (a,b)^T \) e \( v_2 = (c,d)^T \) due vettori non nulli tale che
\( v_1^T C v_2 = ad + bc = 0 \)
Se uno dei coefficienti è nullo, per esempio e senza perdità di generalità \( a =0 \Rightarrow b \neq 0 \Rightarrow c=0 \Rightarrow d \neq 0 \)
dunque i vettori sono linearmente dipendenti. D'altra parte se tutti i coefficienti sono non nulli allora sabbiamo che \( ad=bc \) poiché il corpo è di caratteristica 2, dunque
\( ad=bc \Rightarrow ab^{-1} = cd^{-1} \Rightarrow \begin{pmatrix}
a\\
b
\end{pmatrix}=b \begin{pmatrix}
ab^{-1}\\
1
\end{pmatrix}=b \begin{pmatrix}
cd^{-1}\\
1
\end{pmatrix}=bd^{-1} \begin{pmatrix}
c\\
d
\end{pmatrix} \)
Che dimostra che i due vettori sono linearmente dipendenti. Concludiamo che se \( v_1^T C v_2 = 0 \) allora i due vettori sono linearmente dipendenti.
Date due basi qualunque \( B, D \) abbiamo che \( A_{D}^{\left \langle \cdot, \cdot \right \rangle}=P_{DB}^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P_{DB} \) che vuol dire che \( A_{B}^{\left \langle \cdot, \cdot \right \rangle} \) e \( A_{D}^{\left \langle \cdot, \cdot \right \rangle} \) sono equivalenti.
Dunque se \( D=\{ d_1, d_2 \} \) è una base ortogonale e \( A_{B}^{\left \langle \cdot, \cdot \right \rangle}= C \) abbiamo che
\( 0 = [d_1]_D^T A_{D}^{\left \langle \cdot, \cdot \right \rangle} [d_2]_D = [d_1]_B^T C [d_2]_B \)
Abbiamo dunque una contraddizione.
\( \Rightarrow \)
Supponiamo che non esiste una base ortogonale. Allora per una base qualunque \( B = \{b_1,b_2 \} \) sappiamo
\[ 0 \neq \left \langle b_1, b_2 \right \rangle = ( A_{B}^{\left \langle \cdot, \cdot \right \rangle} )_{21} = ( A_{B}^{\left \langle \cdot, \cdot \right \rangle})_{12} \]
Se \( ( A_{B}^{\left \langle \cdot, \cdot \right \rangle} )_{11}\) oppure \( ( A_{B}^{\left \langle \cdot, \cdot \right \rangle})_{22} \) è non nullo, possiamo diagonalizzare la matrice e vuol dire che esiste una base ortogonale.
Concludiamo che \( ( A_{B}^{\left \langle \cdot, \cdot \right \rangle} )_{11}=( A_{B}^{\left \langle \cdot, \cdot \right \rangle})_{22} =0\).
(Perché potremmo diagonalizzare la matrice?)
b)
Se \( a \neq 0 \) allora moltiplichiamo la terza linea (risp. colonna) per \( a \). In seguito aggiungiamo la seconda e la terza linea (e risp. colonne) alla prima linea (risp. colonna) per ottenere
\( \begin{pmatrix}
a&a &a\\
a&0 &a\\
a&a &0
\end{pmatrix} \)
Poi applichiamo l'algoritmo per diagonalizzare la matrice e otteniamo \( \begin{pmatrix}
a&0 &0\\
0&a &0\\
0&0 &a
\end{pmatrix} \)
(Dubbio: non potevo direttamente scambiare la terza linea con la seconda e moltiplicarle per \( a \) ? Perché fa quei passaggi precedenti? )
Abbiamo dunque che esiste una base ortogonale.
Supponiamo dunque \( a =0 \)
\[ ( x,y,z) \begin{pmatrix}
0&0 &0\\
0&0 &1\\
0&1 &0
\end{pmatrix} \begin{pmatrix}
x\\
y\\
z
\end{pmatrix} = 2yz=0 \Rightarrow ( P^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P )_{jj} = 0 , \forall j=1,\ldots,n \]
Dunque la matrice diagonale \( P^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P \) è la matrice nulla, ma è una contraddizione poiché \( rang(0)=0 \neq 2 = rang(A_{B}^{\left \langle \cdot, \cdot \right \rangle} )=rang(P^T A_{B}^{\left \langle \cdot, \cdot \right \rangle} P ) \)
Pertanto \( A_{B}^{\left \langle \cdot, \cdot \right \rangle} \) non è diagonalizzabile e dunque \( V \) non possiede nessuna base ortogonale.
(Perché se non è diagonalizzabile \( V \) non possiede una base ortogonale? )
c) Supponiamo che \( d_j = 0 \forall j \in \{ 1, \ldots, k \} \) un calcolo simile alla parte b) dimostra che non c'è alcuna base ortogonale.
Supponiamo dunque che \( \exists d_j \neq 0 \), senza perdità di generalità prendiamo \( j = 1 \). Sia \( a = d_1 \neq 0 \)
Dimostriamo come possiamo diagonalizzare la prima sotto matrice \( C \).
Sia \( A=A_{B}^{\left \langle \cdot, \cdot \right \rangle} \), e sia \( C \) la sotto matrice di \( A \) definita per \( A_{ij} \) tale che \( i,j \in \{ k+1,k+2 \} \)
Procedere come segue:
- Moltiplicare la colonna \( k+1 \) e la linea \( k+1 \) per \(a \)
- Aggiungere una volta le colonne \( k+1 \) e \( k+2 \) alla colonna 1, siccome \( A_{1,k+1}=A_{1,k+2}=0 \), \(A_{11} \) non cambia.
- Aggiungere una volta le linee \( k+1 \) e \( k+2 \) alla linea 1, siccome \( A_{1,k+1}+A_{1,k+2}= 2a=0\), \(A_{11} \) non cambia.
- Aggiungere una volta la colonna 1 alle colonne \( k+1 \) e \(k+2 \). La sottomatrice \( C \) diviene la matrice diagonale
\( \begin{pmatrix}
a &0\\
0 &a
\end{pmatrix} \), e le entrate \( A_{1,k+1} \) e \( A_{1,k+2} \) diventano \( 0 \).
-Aggiungere una volta la linea 1 alle linee \( k+1 \) e \( k+2 \). Siccome \( A_{1,k+1}=A_{1,k+2}=0\) non modifichiamo \( C \) ma \( A_{k+1,1} \) e \( A_{k+2,1} \) diventano \( 0 \).
Continuando in questo modo le altre sottomatrici \( C \) lungo la diagonale diventino una matrice diagonale.
Ecco qui mi sono un po' perso, non riesco a vedere come mai questo algoritmo funzioni...
Risposte
Tra l'altro ora noto che io seguendo l'indicazione sua di ricondursi alla matrice
\( \begin{pmatrix} a&a &a\\ a&0 &a\\ a&a &0 \end{pmatrix} \)
Applicando l'algoritmo per diagonalizzare
\( \begin{pmatrix} 1&0 &0\\ 0&1 &0\\ -1&0&1 \end{pmatrix}
\begin{pmatrix} 1&0 &0\\ -1&1&0\\ 0&0 &1 \end{pmatrix}
\begin{pmatrix} a&a &a\\ a&0 &a\\ a&a &0 \end{pmatrix}
\begin{pmatrix} 1&-1 &0\\ 0&1 &0\\ 0&0&1 \end{pmatrix}
\begin{pmatrix} 1&0 &-1\\ 0&1&0\\ 0&0 &1 \end{pmatrix}
\)
Ottengo
\(\begin{pmatrix} a&0 &0\\ 0&-a &0\\ 0&0 &-a \end{pmatrix} \)
e non
\(\begin{pmatrix} a&0 &0\\ 0&a &0\\ 0&0 &a \end{pmatrix} \)
\( \begin{pmatrix} a&a &a\\ a&0 &a\\ a&a &0 \end{pmatrix} \)
Applicando l'algoritmo per diagonalizzare
\( \begin{pmatrix} 1&0 &0\\ 0&1 &0\\ -1&0&1 \end{pmatrix}
\begin{pmatrix} 1&0 &0\\ -1&1&0\\ 0&0 &1 \end{pmatrix}
\begin{pmatrix} a&a &a\\ a&0 &a\\ a&a &0 \end{pmatrix}
\begin{pmatrix} 1&-1 &0\\ 0&1 &0\\ 0&0&1 \end{pmatrix}
\begin{pmatrix} 1&0 &-1\\ 0&1&0\\ 0&0 &1 \end{pmatrix}
\)
Ottengo
\(\begin{pmatrix} a&0 &0\\ 0&-a &0\\ 0&0 &-a \end{pmatrix} \)
e non
\(\begin{pmatrix} a&0 &0\\ 0&a &0\\ 0&0 &a \end{pmatrix} \)