Nilpotenza gruppo unitriangolari
Ciao, amici! I sottogruppi \(C^i (G)\leq G\) sono definiti come \[C^1 (G)=G,\quad C^{i+1}(G)=[G,C^i (G)]\]dove per \([G,C^i (G)]\) si intende il sottogruppo generato dagli elementi di forma \([a,b]:=aba^{-1}b^{-1}\) con \(a\in G,b\in C^i (G)\). Quindi \(C^2 (G)\) è per esempio il sottogruppo commutatore, o derivato che dir si voglia. Si dice nilpotente un gruppo per cui esiste un $n\in\mathbb{N}$ tale che \(C^n (G)=\{e\}\), $e$ elemento neutro del gruppo. Mi si perdoni l'introduzione, ma non so se tali sottogruppi abbiano un nome specifico perché il mio testo non ne specifica uno.
Ora, leggo che il gruppo \(T_1\subset M_n(K)\) delle matrici unitriangolari superiori è nilpotente: \(\exists n\in\mathbb{N}:C^n (T_1)=\{I\}\). Trovo anche scritto che questo fatto è facilmente verificato (easily checked), ma per la mia preparazione forse la facilità non è sufficiente.
Qualcuno potrebbe darmi una mano a vedere perché sia così?
Io ho cercato di considerare il fatto che ogni matrice \(A\in T_1\) è della forma \(A=I+X\) con \(X\in U_1\) dove chiamo $U_k,k\in\mathbb{N}\cup\{0\}$ l'insieme \(U_k=\{X=(x_{ij})\in M_n(K):j \(\infty\) grazie a tutti!!!
Ora, leggo che il gruppo \(T_1\subset M_n(K)\) delle matrici unitriangolari superiori è nilpotente: \(\exists n\in\mathbb{N}:C^n (T_1)=\{I\}\). Trovo anche scritto che questo fatto è facilmente verificato (easily checked), ma per la mia preparazione forse la facilità non è sufficiente.
Qualcuno potrebbe darmi una mano a vedere perché sia così?
Io ho cercato di considerare il fatto che ogni matrice \(A\in T_1\) è della forma \(A=I+X\) con \(X\in U_1\) dove chiamo $U_k,k\in\mathbb{N}\cup\{0\}$ l'insieme \(U_k=\{X=(x_{ij})\in M_n(K):j \(\infty\) grazie a tutti!!!
Risposte
Quando ho letto il titolo ho pensato DavideGenova. Auguri

Due postille:
[list=1]
[*:18clobmn] in tanti anni ho sempre trovato scritto \(\displaystyle C^0(G)=G\) e \(\displaystyle C^1(G)=G=G'\);[/*:m:18clobmn]
[*:18clobmn] ricordati la seguente facile eugualianza:
\[
diag(A\times B)=diag(A)\times diag(B).
\][/*:m:18clobmn][/list:o:18clobmn]
Non penso che debba specificare di cosa stia parlando, dato il topic in corso!
[list=1]
[*:18clobmn] in tanti anni ho sempre trovato scritto \(\displaystyle C^0(G)=G\) e \(\displaystyle C^1(G)=G=G'\);[/*:m:18clobmn]
[*:18clobmn] ricordati la seguente facile eugualianza:
\[
diag(A\times B)=diag(A)\times diag(B).
\][/*:m:18clobmn][/list:o:18clobmn]
Non penso che debba specificare di cosa stia parlando, dato il topic in corso!
"4mrkv":
Quando ho letto il titolo ho pensato DavideGenova.

"j18eos":Grazie!!! Buono a sapersi: così so quello che trovo in altri autori.
n tanti anni ho sempre trovato scritto
"j18eos":Ehm... sai che non so che cosa sia $diag$?
ricordati la seguente facile eugualianza:\[
diag(A\times B)=diag(A)\times diag(B).
\]Non penso che debba specificare di cosa stia parlando, dato il topic in corso!

\(\infty\) grazie ancora!!!
La diagonale di una matrice.

"j18eos":
La diagonale di una matrice.
Nel senso che il prodotto componente per componente delle diagonali principali di triangolari superiori (o inferiori) è uguale alla diagonale principale del prodotto delle matrici?
Se è questo, sì, sapevo che il prodotto e anche l'inversa di un'unitriangolare superiore è ancora un'unitriangolare superiore (e analogamente per le inferiori) e proprio per questo costituiscono infatti un gruppo, ma non sono riuscito ad ottenere nulla sulla nilpotenza di tale gruppo.
Che \(diag(A)\) fosse la diagonale di $A$ è stata la prima cosa che ho pensato, ma, intendendo il prodotto \(diag(A)\times diag(B)\) componente per componente, la diagonale di \(AB\) con \(A=(a_{ij})\) e \(B=(b_{ij})\) mi pare \(diag(AB)=(\sum_{k=1}^n a_{1k}b_{k1},...,\sum_{k=1}^n a_{nk}b_{kn})\), in generale diversa da \((a_{11}b_{11},...,a_{nn}b_{nn})\). A meno che il prodotto \(diag(A)\times diag(B)\) sia definito in un modo diverso...
\(\infty\) grazie ancora!
Ho un'idea di come fare ma coinvolge tanti conti e presumo che ce ne sia una più indolore.
Userò i seguenti fatti senza specificarlo ogni volta: se [tex]A,B[/tex] sono due matrici quadrate [tex]n \times n[/tex] allora
- [tex](AB)_{ij} = \sum_k A_{ik} B_{kj}[/tex] dove [tex]k[/tex] varia tra [tex]1[/tex] e [tex]n[/tex] (non scriverò ogni volta dove varia [tex]k[/tex]),
- se [tex]A,B[/tex] sono triangolari superiori allora nella somma [tex]\sum_k A_{ik} B_{kj}[/tex] l'addendo [tex]A_{ik} B_{kj}[/tex] è zero a meno che non sia [tex]i \leq k \leq j[/tex].
Viviamo su un campo [tex]K[/tex]. Sia [tex]G[/tex] l'insieme delle matrici unitriangolari superiori, cioè delle matrici [tex]U[/tex] quadrate [tex]n \times n[/tex] tali che [tex]U_{ii}=1[/tex] per ogni [tex]i[/tex] e [tex]U_{ij}=0[/tex] se [tex]i > j[/tex].
[tex]C^m(G) = [G,C^{m-1}(G)][/tex] e [tex]C^0(G) = G[/tex].
Per mostrare che [tex]C^m(G) = \{1\}[/tex] per qualche [tex]m[/tex] basta mostrare che se [tex]A \in C^{l-1}(G)[/tex] allora [tex]A_{ij}=0[/tex] se [tex]0 < j-i < l[/tex].
Mostriamolo per induzione su [tex]l[/tex], essendo ovvio per [tex]l=1[/tex]. Sia [tex]Z_l[/tex] l'insieme delle matrici [tex]A \in G[/tex] tali che [tex]A_{ij}=0[/tex] se [tex]0 < j-i < l[/tex]. Quello che dobbiamo mostrare è che [tex]C^l(G) \subseteq Z_{l+1}(G)[/tex]. Siccome per ipotesi induttiva [tex]C^{l-1}(G) \subseteq Z_l[/tex] per concludere basta mostrare che [tex][G,Z_l] \subseteq Z_{l+1}[/tex]. Infatti se questo è vero allora [tex]C^l(G) = [G,C^{l-1}(G)] \subseteq [G,Z_l] \subseteq Z_{l+1}[/tex].
Lemma. [tex]Z_l[/tex] è un sottogruppo normale di [tex]G[/tex] per ogni [tex]l[/tex].
Dimostrazione.
[Chiusura rispetto all'inverso]. Se [tex]V \in Z_l[/tex] allora anche [tex]V^{-1} \in Z_l[/tex] infatti se [tex]0 < j-i < l[/tex] allora [tex]0 = (VV^{-1})_{i,j} = \sum_k V_{ik} V^{-1}_{kj} = V^{-1}_{ij}[/tex] essendo nella somma gli unici addendi non nulli quelli con [tex]i \leq k \leq j[/tex], da cui l'unico contributo è dato da [tex]i=k[/tex] essendo [tex]V \in Z_l[/tex], e [tex]V_{ii}=1[/tex].
[Chiusura del prodotto]. Inoltre se [tex]V,W \in Z_l[/tex] allora se [tex]0 < j-i < l[/tex] allora [tex](VW)_{ij} = \sum_k V_{ik} W_{kj}[/tex] e se un addendo [tex]V_{ik}W_{kj}[/tex] è non zero allora [tex]i \leq k \leq j[/tex]. Siccome [tex]l > j-i = (j-k)+(k-i)[/tex] si ha [tex]0 \leq j-k < l[/tex] e [tex]0 \leq k-i < l[/tex] da cui siccome [tex]V,W \in Z_l[/tex] si ha [tex]i=k=j[/tex] assurdo essendo [tex]0 < j-i[/tex]. Quindi [tex](VW)_{ij}=0[/tex].
[Normalità]. Ora sia [tex]U \in G[/tex] e sia [tex]V \in Z_l[/tex]. Siano [tex]i,j[/tex] con [tex]0 < j-i < l[/tex]. Allora [tex](UVU^{-1})_{ij} = \sum_{k,h} U_{ik} V_{kh} U^{-1}_{hj}[/tex]. L'addendo [tex]U_{ik} V_{kh} U^{-1}_{hj}[/tex] è non zero solo quando [tex]i \leq k \leq h \leq j[/tex], ora [tex]l > j-i = (j-h) + (h-k) + (k-i)[/tex] per cui [tex]h-k < l[/tex] e quindi essendo [tex]V \in Z_l[/tex] si ha [tex]h=k[/tex] per cui [tex](UVU^{-1})_{ij} = \sum_k U_{ik} U^{-1}_{kj} = 1_{ij} = 0[/tex] essendo [tex]i < j[/tex].
Ora siano [tex]V \in Z_l[/tex] e [tex]U \in G[/tex]. Mostriamo che [tex]UVU^{-1}V^{-1} \in Z_{l+1}[/tex].
Per il lemma [tex]UVU^{-1}V^{-1} \in Z_l[/tex] per cui siamo ridotti a mostrare che la componente [tex](i,i+l)[/tex] è zero. Calcoliamola.
(*) [tex](UVU^{-1}V^{-1})_{i,i+l} = \sum_{k,h,t} U_{ih} V_{hk} U^{-1}_{kt} V^{-1}_{t,i+l}[/tex].
Se l'addendo esibito è nonzero allora [tex]i \leq h \leq k \leq t \leq i+l[/tex]. Inoltre ci sono due casi possibili (ci stiamo sempre e solo concentrando sugli addendi non nulli).
1) [tex]h=k[/tex] oppure [tex]k-h \geq l[/tex]. [Sto guardando il termine [tex]V_{hk}[/tex], ricordando che [tex]V \in Z_l[/tex].]
2) [tex]t=i+l[/tex] oppure [tex]i+l-t \geq l[/tex], cioè [tex]i \geq t[/tex]. [Sto guardando il termine [tex]V^{-1}_{t,j+l}[/tex], ricordando che [tex]V^{-1} \in Z_l[/tex] per il lemma.]
Distinguiamo allora i seguenti casi, che sono mutuamente esclusivi. [Sto sempre guardando il singolo addendo].
Caso A. [tex]h=k[/tex] e [tex]t=i+l[/tex]. In questo caso l'addendo è [tex]U_{ik} U^{-1}_{k,i+l}[/tex].
Caso B. [tex]h=k[/tex] e [tex]i \geq t[/tex]. Allora [tex]i=h=k=t \leq i+l[/tex] e otteniamo [tex]V^{-1}_{i,i+l}[/tex].
Caso C. [tex]k-h \geq l[/tex] e [tex]t=i+l[/tex], da cui [tex]i = h \leq k = t = i+l[/tex] per cui abbiamo [tex]V_{i,i+l}[/tex].
Caso D. [tex]k-h \geq l[/tex] e [tex]i \geq t[/tex]. Ma allora [tex]i=h=k=t[/tex] assurdo dato che [tex]l > 0[/tex].
Abbiamo allora che (*) vale [tex]\sum_k U_{ik}U^{-1}_{k,i+l} + V_{i,i+l}+V^{-1}_{i,i+l}[/tex]. Siccome [tex]\sum_k U_{ik}U^{-1}_{k,i+l} = 1_{i,i+l} = 0[/tex] essendo [tex]l > 0[/tex], siamo ridotti a mostrare che [tex]V_{i,i+l} + V^{-1}_{i,i+l} = 0[/tex]. Scriviamo [tex]0 = (VV^{-1})_{i,i+l} = \sum_k V_{ik} V^{-1}_{k,i+l}[/tex] e l'addendo esibito è non zero solo per i due valori [tex]k=i[/tex] e [tex]k=i+l[/tex], da cui abbiamo [tex]V_{i,i+l}+V^{-1}_{i,i+l}=0[/tex] effettivamente.
Userò i seguenti fatti senza specificarlo ogni volta: se [tex]A,B[/tex] sono due matrici quadrate [tex]n \times n[/tex] allora
- [tex](AB)_{ij} = \sum_k A_{ik} B_{kj}[/tex] dove [tex]k[/tex] varia tra [tex]1[/tex] e [tex]n[/tex] (non scriverò ogni volta dove varia [tex]k[/tex]),
- se [tex]A,B[/tex] sono triangolari superiori allora nella somma [tex]\sum_k A_{ik} B_{kj}[/tex] l'addendo [tex]A_{ik} B_{kj}[/tex] è zero a meno che non sia [tex]i \leq k \leq j[/tex].
Viviamo su un campo [tex]K[/tex]. Sia [tex]G[/tex] l'insieme delle matrici unitriangolari superiori, cioè delle matrici [tex]U[/tex] quadrate [tex]n \times n[/tex] tali che [tex]U_{ii}=1[/tex] per ogni [tex]i[/tex] e [tex]U_{ij}=0[/tex] se [tex]i > j[/tex].
[tex]C^m(G) = [G,C^{m-1}(G)][/tex] e [tex]C^0(G) = G[/tex].
Per mostrare che [tex]C^m(G) = \{1\}[/tex] per qualche [tex]m[/tex] basta mostrare che se [tex]A \in C^{l-1}(G)[/tex] allora [tex]A_{ij}=0[/tex] se [tex]0 < j-i < l[/tex].
Mostriamolo per induzione su [tex]l[/tex], essendo ovvio per [tex]l=1[/tex]. Sia [tex]Z_l[/tex] l'insieme delle matrici [tex]A \in G[/tex] tali che [tex]A_{ij}=0[/tex] se [tex]0 < j-i < l[/tex]. Quello che dobbiamo mostrare è che [tex]C^l(G) \subseteq Z_{l+1}(G)[/tex]. Siccome per ipotesi induttiva [tex]C^{l-1}(G) \subseteq Z_l[/tex] per concludere basta mostrare che [tex][G,Z_l] \subseteq Z_{l+1}[/tex]. Infatti se questo è vero allora [tex]C^l(G) = [G,C^{l-1}(G)] \subseteq [G,Z_l] \subseteq Z_{l+1}[/tex].
Lemma. [tex]Z_l[/tex] è un sottogruppo normale di [tex]G[/tex] per ogni [tex]l[/tex].
Dimostrazione.
[Chiusura rispetto all'inverso]. Se [tex]V \in Z_l[/tex] allora anche [tex]V^{-1} \in Z_l[/tex] infatti se [tex]0 < j-i < l[/tex] allora [tex]0 = (VV^{-1})_{i,j} = \sum_k V_{ik} V^{-1}_{kj} = V^{-1}_{ij}[/tex] essendo nella somma gli unici addendi non nulli quelli con [tex]i \leq k \leq j[/tex], da cui l'unico contributo è dato da [tex]i=k[/tex] essendo [tex]V \in Z_l[/tex], e [tex]V_{ii}=1[/tex].
[Chiusura del prodotto]. Inoltre se [tex]V,W \in Z_l[/tex] allora se [tex]0 < j-i < l[/tex] allora [tex](VW)_{ij} = \sum_k V_{ik} W_{kj}[/tex] e se un addendo [tex]V_{ik}W_{kj}[/tex] è non zero allora [tex]i \leq k \leq j[/tex]. Siccome [tex]l > j-i = (j-k)+(k-i)[/tex] si ha [tex]0 \leq j-k < l[/tex] e [tex]0 \leq k-i < l[/tex] da cui siccome [tex]V,W \in Z_l[/tex] si ha [tex]i=k=j[/tex] assurdo essendo [tex]0 < j-i[/tex]. Quindi [tex](VW)_{ij}=0[/tex].
[Normalità]. Ora sia [tex]U \in G[/tex] e sia [tex]V \in Z_l[/tex]. Siano [tex]i,j[/tex] con [tex]0 < j-i < l[/tex]. Allora [tex](UVU^{-1})_{ij} = \sum_{k,h} U_{ik} V_{kh} U^{-1}_{hj}[/tex]. L'addendo [tex]U_{ik} V_{kh} U^{-1}_{hj}[/tex] è non zero solo quando [tex]i \leq k \leq h \leq j[/tex], ora [tex]l > j-i = (j-h) + (h-k) + (k-i)[/tex] per cui [tex]h-k < l[/tex] e quindi essendo [tex]V \in Z_l[/tex] si ha [tex]h=k[/tex] per cui [tex](UVU^{-1})_{ij} = \sum_k U_{ik} U^{-1}_{kj} = 1_{ij} = 0[/tex] essendo [tex]i < j[/tex].
Ora siano [tex]V \in Z_l[/tex] e [tex]U \in G[/tex]. Mostriamo che [tex]UVU^{-1}V^{-1} \in Z_{l+1}[/tex].
Per il lemma [tex]UVU^{-1}V^{-1} \in Z_l[/tex] per cui siamo ridotti a mostrare che la componente [tex](i,i+l)[/tex] è zero. Calcoliamola.
(*) [tex](UVU^{-1}V^{-1})_{i,i+l} = \sum_{k,h,t} U_{ih} V_{hk} U^{-1}_{kt} V^{-1}_{t,i+l}[/tex].
Se l'addendo esibito è nonzero allora [tex]i \leq h \leq k \leq t \leq i+l[/tex]. Inoltre ci sono due casi possibili (ci stiamo sempre e solo concentrando sugli addendi non nulli).
1) [tex]h=k[/tex] oppure [tex]k-h \geq l[/tex]. [Sto guardando il termine [tex]V_{hk}[/tex], ricordando che [tex]V \in Z_l[/tex].]
2) [tex]t=i+l[/tex] oppure [tex]i+l-t \geq l[/tex], cioè [tex]i \geq t[/tex]. [Sto guardando il termine [tex]V^{-1}_{t,j+l}[/tex], ricordando che [tex]V^{-1} \in Z_l[/tex] per il lemma.]
Distinguiamo allora i seguenti casi, che sono mutuamente esclusivi. [Sto sempre guardando il singolo addendo].
Caso A. [tex]h=k[/tex] e [tex]t=i+l[/tex]. In questo caso l'addendo è [tex]U_{ik} U^{-1}_{k,i+l}[/tex].
Caso B. [tex]h=k[/tex] e [tex]i \geq t[/tex]. Allora [tex]i=h=k=t \leq i+l[/tex] e otteniamo [tex]V^{-1}_{i,i+l}[/tex].
Caso C. [tex]k-h \geq l[/tex] e [tex]t=i+l[/tex], da cui [tex]i = h \leq k = t = i+l[/tex] per cui abbiamo [tex]V_{i,i+l}[/tex].
Caso D. [tex]k-h \geq l[/tex] e [tex]i \geq t[/tex]. Ma allora [tex]i=h=k=t[/tex] assurdo dato che [tex]l > 0[/tex].
Abbiamo allora che (*) vale [tex]\sum_k U_{ik}U^{-1}_{k,i+l} + V_{i,i+l}+V^{-1}_{i,i+l}[/tex]. Siccome [tex]\sum_k U_{ik}U^{-1}_{k,i+l} = 1_{i,i+l} = 0[/tex] essendo [tex]l > 0[/tex], siamo ridotti a mostrare che [tex]V_{i,i+l} + V^{-1}_{i,i+l} = 0[/tex]. Scriviamo [tex]0 = (VV^{-1})_{i,i+l} = \sum_k V_{ik} V^{-1}_{k,i+l}[/tex] e l'addendo esibito è non zero solo per i due valori [tex]k=i[/tex] e [tex]k=i+l[/tex], da cui abbiamo [tex]V_{i,i+l}+V^{-1}_{i,i+l}=0[/tex] effettivamente.
Credo che la mia idea sia essenzialmente la stessa di Martino, ma ho provato a scrivere tutto senza usare indici, probabilmente perdendoci in formalità e precisione.
Prendiamo $A,B$ unitriangolari, e scriviamo $A = I + X_1$, $B=I+Y_1$ e le inverse $A^{-1} = I + X_2$, $B = I + Y_2$. Mostriamo che se $A,B$ hanno $t$ sopra-diagonali nulle (quindi $X_1,Y_1,X_2,Y_2$ sono in $U_{t}$, secondo la notazione del primo post) allora il commutatore $[A,B]$ ne ha almeno $t+1$. In particolare, mostreremo che la $t$-esima diagonale di $[A,B]$ è nulla. Abbiamo
$I = (I + X_1)(I + X_2)= I + X_1 + X_2 + X_1X_2$.
Siccome $X_1X_2$ ha zeri sulla $t$-esima diagonale, bisogna che su quella diagonale $X_1 + X_2$ faccia zero. In modo simile, sulla $t$-esima diagonale $Y_1+Y_2$ è nulla.
Prendiamo ora il commutatore:
$ABA^{-1}B^{-1}= (I + X_1)(I + Y_1)(I + X_2)(I + Y_2)= (I + X_1 + Y_1 + X_1Y_1)(I + X_2 + Y_2 + X_2Y_2) =$
$= I + X_1 + X_2 + Y_1 + Y_2 + T$
dove in $T$ ci sono termini in cui le matrici compaiono almeno in grado due, e quindi certamente sono zero sulla $t$-esima diagonale (e su tutte quelle sotto). Usando l'identità vista sopra, abbiamo che il commutatore è zero sulla $t$-esima diagonale.
Mi sono permesso di usare gratis che gli $Z_k$ di Martino sono sottogruppi (in realtà non serve tutto, serve solo che se $A$ è zero, ad esempio, sulla $1$-diagonale, allora lo è anche $A^{-1}$).
Prendiamo $A,B$ unitriangolari, e scriviamo $A = I + X_1$, $B=I+Y_1$ e le inverse $A^{-1} = I + X_2$, $B = I + Y_2$. Mostriamo che se $A,B$ hanno $t$ sopra-diagonali nulle (quindi $X_1,Y_1,X_2,Y_2$ sono in $U_{t}$, secondo la notazione del primo post) allora il commutatore $[A,B]$ ne ha almeno $t+1$. In particolare, mostreremo che la $t$-esima diagonale di $[A,B]$ è nulla. Abbiamo
$I = (I + X_1)(I + X_2)= I + X_1 + X_2 + X_1X_2$.
Siccome $X_1X_2$ ha zeri sulla $t$-esima diagonale, bisogna che su quella diagonale $X_1 + X_2$ faccia zero. In modo simile, sulla $t$-esima diagonale $Y_1+Y_2$ è nulla.
Prendiamo ora il commutatore:
$ABA^{-1}B^{-1}= (I + X_1)(I + Y_1)(I + X_2)(I + Y_2)= (I + X_1 + Y_1 + X_1Y_1)(I + X_2 + Y_2 + X_2Y_2) =$
$= I + X_1 + X_2 + Y_1 + Y_2 + T$
dove in $T$ ci sono termini in cui le matrici compaiono almeno in grado due, e quindi certamente sono zero sulla $t$-esima diagonale (e su tutte quelle sotto). Usando l'identità vista sopra, abbiamo che il commutatore è zero sulla $t$-esima diagonale.
Mi sono permesso di usare gratis che gli $Z_k$ di Martino sono sottogruppi (in realtà non serve tutto, serve solo che se $A$ è zero, ad esempio, sulla $1$-diagonale, allora lo è anche $A^{-1}$).

\(\aleph_1\) grazie!!!!!
E cosa possiamo dire della lunghezza derivata?