Traccia e commutatori
Salve!
Avrei bisogno di una mano con un esercizio di algebra lineare; la traccia è la seguente:
“Sia $ mathbb(K) $ un campo di caratteristica zero. Dimostrare che una matrice quadrata a coefficienti in $ mathbb(K) $ ha traccia nulla se e solo se la si può scrivere come combinazione lineare di matrici del tipo AB-BA.”
Ora, un’implicazione è triviale e mi è riuscita, tuttavia non riesco a dimostrare l’altra (ovvero se una matrice ha traccia nulla allora la si può scrivere come combinazione lineare di matrici del tipo AB-BA).
Non so veramente da che parte iniziare. Qualcuno avrebbe delle idee o dei suggerimenti?
Grazie mille.
Avrei bisogno di una mano con un esercizio di algebra lineare; la traccia è la seguente:
“Sia $ mathbb(K) $ un campo di caratteristica zero. Dimostrare che una matrice quadrata a coefficienti in $ mathbb(K) $ ha traccia nulla se e solo se la si può scrivere come combinazione lineare di matrici del tipo AB-BA.”
Ora, un’implicazione è triviale e mi è riuscita, tuttavia non riesco a dimostrare l’altra (ovvero se una matrice ha traccia nulla allora la si può scrivere come combinazione lineare di matrici del tipo AB-BA).
Non so veramente da che parte iniziare. Qualcuno avrebbe delle idee o dei suggerimenti?
Grazie mille.
Risposte
Ciao, io comincerei mostrando che le matrici $E_(ij)$ con $i ne j$ (che ha $1$ nella posizione $(i,j)$ e zero altrove) si possono scrivere come $AB-BA$ per opportune matrici $A$, $B$.
Per esempio osserva che
$((0,1),(0,0))((0,0),(0,1))-((0,0),(0,1))((0,1),(0,0))=((0,1),(0,0))$.
In questo modo sei ridotto a studiare le matrici diagonali di traccia nulla.
Per esempio osserva che
$((0,1),(0,0))((0,0),(0,1))-((0,0),(0,1))((0,1),(0,0))=((0,1),(0,0))$.
In questo modo sei ridotto a studiare le matrici diagonali di traccia nulla.
"Martino":
Ciao, io comincerei mostrando che le matrici $E_(ij)$ con $i ne j$ (che ha $1$ nella posizione $(i,j)$ e zero altrove) si possono scrivere come $AB-BA$ per opportune matrici $A$, $B$.
Per esempio osserva che
$((0,1),(0,0))((0,0),(0,1))-((0,0),(0,1))((0,1),(0,0))=((0,1),(0,0))$.
In questo modo sei ridotto a studiare le matrici diagonali di traccia nulla.
Ok, se questo è vero, il resto si dimostra banalmente. Ma quello che dici come si dimostra? Vale per tutte le matrici $E_(ij)$ con $i ne j$ (di qualsiasi ordine)?
Io proverei a calcolare
$E_(ij)E_(jj)-E_(jj)E_(ij)$
con $i ne j$.
Dovrebbe fare $E_(ij)$.
Per fare il conto ricordati che vale la formula generale
$(AB)_(ij)=sum_kA_(ik)B_(kj)$
Poi ci sono da studiare le matrici diagonali a traccia nulla.
$E_(ij)E_(jj)-E_(jj)E_(ij)$
con $i ne j$.
Dovrebbe fare $E_(ij)$.
Per fare il conto ricordati che vale la formula generale
$(AB)_(ij)=sum_kA_(ik)B_(kj)$
Poi ci sono da studiare le matrici diagonali a traccia nulla.
Un verso è ovvio; l'altro verso non sembra avere una dimostrazione veramente elementare: è un esercizio d'esame? Ci sono ipotesi aggiuntive?
È un esercizio del libro, il testo dell’esercizio è esattamente quello che ho riportato non ci sono altre ipotesi
La dimostrazione più slick che mi viene in mente usa il fatto che \(\mathfrak{sl}(2)\) è semisemplice; per questo ti ho chiesto da dove viene l'esercizio.
Una dimostrazione elementare, ma che non mi sembra possa venire in mente allo studente medio, è qui https://people.eecs.berkeley.edu/~wkaha ... trace0.pdf
Una dimostrazione elementare, ma che non mi sembra possa venire in mente allo studente medio, è qui https://people.eecs.berkeley.edu/~wkaha ... trace0.pdf
Scusa solaàl non credo che sia come dici: rileggi l'esercizio proposto da frankardius. Dice "una matrice ha traccia nulla se e solo se è una combinazione lineare di commutatori". Il che è ben più facile che dire "una matrice ha traccia nulla se e solo se è un commutatore", concordi?
L'esercizio si risolve in modo elementare come ho indicato nel precedente intervento.
L'esercizio si risolve in modo elementare come ho indicato nel precedente intervento.
"solaàl":
La dimostrazione più slick che mi viene in mente usa il fatto che \(\mathfrak{sl}(2)\) è semisemplice;
Sono curioso, puoi entrare nei dettagli? Mi aiuterebbe anche ricordare la definizione di algebra semisemplice.
Sì; Martino, hai ragione, pensavo dovesse dimostrare la versione più forte. Non ho letto la tua risposta, se riesco a farlo da me e arrivo alla stessa soluzione te lo dico.
Dissonance, se \(\mathcal{A}\) è una categoria con un oggetto zero, un oggetto \(A\in\mathcal A\) si dice semplice se 1. non è lui stesso zero e 2. Non ha quozienti non banali. Esempi: un gruppo semplice, una rappresentazione lineare irriducibile di un gruppo, uno spazio vettoriale di dimensione 1, un insieme con due elementi, negli insiemi puntati finiti...
In effetti, spesso (quasi sempre), la definizione di semplice è equivalente al non avere sotto-oggetti non banali.
Quando \(\mathcal A\) ha somme dirette, un oggetto è semisemplice se è coprodotto di semplici; ciò significa che per ogni \(X\in \mathcal A\) esiste una famiglia di oggetti semplici \(A_i, i\in I\) tale che \(X\cong \sum_{i\in I}A_i\).
Per un'algebra di Lie \(\mathfrak g\) va chiesto (credo per motivi tecnici) che \(\mathfrak g\) non sia abeliana, oltre a che non abbia ideali (un ideale in un'algebra è precisamente una sottostruttura) non banali.
Ora: \(\mathfrak{sl}(2)\) è semisemplice, e coincide con lo spazio delle matrici \(2\times 2\) a traccia nulla. La prima cosa implica che \([\mathfrak{sl}(2),\mathfrak{sl}(2)] = \mathfrak{sl}(2)\), e quindi ogni matrice a traccia nulla è il commutatore di qualcuno (di matrici che si possono scegliere a traccia nulla).
Dissonance, se \(\mathcal{A}\) è una categoria con un oggetto zero, un oggetto \(A\in\mathcal A\) si dice semplice se 1. non è lui stesso zero e 2. Non ha quozienti non banali. Esempi: un gruppo semplice, una rappresentazione lineare irriducibile di un gruppo, uno spazio vettoriale di dimensione 1, un insieme con due elementi, negli insiemi puntati finiti...
In effetti, spesso (quasi sempre), la definizione di semplice è equivalente al non avere sotto-oggetti non banali.
Quando \(\mathcal A\) ha somme dirette, un oggetto è semisemplice se è coprodotto di semplici; ciò significa che per ogni \(X\in \mathcal A\) esiste una famiglia di oggetti semplici \(A_i, i\in I\) tale che \(X\cong \sum_{i\in I}A_i\).
Per un'algebra di Lie \(\mathfrak g\) va chiesto (credo per motivi tecnici) che \(\mathfrak g\) non sia abeliana, oltre a che non abbia ideali (un ideale in un'algebra è precisamente una sottostruttura) non banali.
Ora: \(\mathfrak{sl}(2)\) è semisemplice, e coincide con lo spazio delle matrici \(2\times 2\) a traccia nulla. La prima cosa implica che \([\mathfrak{sl}(2),\mathfrak{sl}(2)] = \mathfrak{sl}(2)\), e quindi ogni matrice a traccia nulla è il commutatore di qualcuno (di matrici che si possono scegliere a traccia nulla).
"solaàl":Puoi ricordarmi cosa indica \([\mathfrak{sl}(2),\mathfrak{sl}(2)]\) ? Credo sia l'ideale generato dai commutatori, e non l'insieme dei commutatori. Se è così il fatto che sl(2) è semisemplice non implica che ogni suo elemento è un commutatore, o sbaglio?
La prima cosa implica che \([\mathfrak{sl}(2),\mathfrak{sl}(2)] = \mathfrak{sl}(2)\), e quindi ogni matrice a traccia nulla è il commutatore di qualcuno (di matrici che si possono scegliere a traccia nulla).
Sì, è l'ideale generato dai commutatori; questo dimostra che ogni matrice a traccia nulla è combinazione lineare di commutatori.
Bisognerebbe però vedere come si dimostra che \(\mathfrak{sl}(2)\) è semisemplice. Immagino che sia grosso modo la stessa cosa che risolvere questo esercizio.
"dissonance":No perché $sl2$ contiene matrici $2 xx 2$, mentre l'esercizio proposto dall'OP riguarda matrici $n xx n$ con $n$ qualsiasi.
Bisognerebbe però vedere come si dimostra che \(\mathfrak{sl}(2)\) è semisemplice. Immagino che sia grosso modo la stessa cosa che risolvere questo esercizio.
Siccome vedo che la questione originale è caduta nel vuoto (perché se uno sa già che $sl(n)$ è semisemplice allora l'argomento diventa un po' del tipo "è vero perché è vero"), vorrei almeno rispondere alla domanda con qualche dettaglio
Sia $A$ una matrice $n xx n$ di traccia nulla. Indicando con $E(i,j)$ la matrice $n xx n$ che ha $1$ nella posizione $(i,j)$ e $0$ altrove abbiamo ovviamente che (gli indici nelle sommatorie vanno sempre da $1$ a $n$)
$A=sum_{i,j} a_{ij}E(i,j)$
dove $a_{ij}$ è l'elemento del campo $K$ che appare nella posizione $(i,j)$ della matrice $A$, e il fatto che $A$ ha traccia nulla si traduce nel fatto che
$sum_i a_{ii} = 0$
Ora, è chiaro che possiamo scrivere
$A = B+C$
dove
$B=sum_{i ne j} a_{ij}E(i,j)$
$C=sum_i a_{ii}E(i,i)$
Siamo quindi ridotti a dimostrare che $B$ e $C$ sono combinazioni lineari di matrici del tipo $XY-YX$ (dove $X,Y$ sono matrici $n xx n$).
Cominciamo con $B$.
Siccome $B=sum_{i ne j} a_{ij}E(i,j)$ basta mostrare che le matrici $E(i,j)$, dove $i ne j$, sono del tipo $XY-YX$, ma questo segue dall'identità (facile da dimostrare)
$E(i,j)=E(i,j)E(j,j)-E(j,j)E(i,j)$
(che - ATTENZIONE - è falsa se $i=j$).
Se qualcuno avesse dubbi su come si mostra questa identità ricordo che:
Ora passiamo a $C$.
Qui abbiamo $C=sum_i a_{ii}E(i,i)$ ma stavolta abbiamo una condizione sui coefficienti, $sum_i a_{ii}=0$, cioè [tex]a_{nn}=-\sum_{i=1}^{n-1} a_{ii}[/tex]. Segue che
$C=sum_{i=1}^{n-1} a_{ii} (E(i,i)-E(n,n))$.
Siamo quindi ridotti a mostrare che le matrici $E(i,i)-E(j,j)$ sono del tipo $XY-YX$.
Questo segue immediatamente dal fatto che
$E(i,j)E(j,i)=E(i,i)$
(che si dimostra usando il procedimento indicato nello spoiler sopra)
da cui segue che
$E(i,i)-E(j,j) = E(i,j)E(j,i)-E(j,i)E(i,j)$
Non ho usato da nessuna parte che $K$ ha caratteristica zero, quindi l'ipotesi "$K$ ha caratteristica zero" è superflua.

"frankardius":
“Sia $ mathbb(K) $ un campo di caratteristica zero. Dimostrare che una matrice quadrata a coefficienti in $ mathbb(K) $ ha traccia nulla se e solo se la si può scrivere come combinazione lineare di matrici del tipo AB-BA.”
Sia $A$ una matrice $n xx n$ di traccia nulla. Indicando con $E(i,j)$ la matrice $n xx n$ che ha $1$ nella posizione $(i,j)$ e $0$ altrove abbiamo ovviamente che (gli indici nelle sommatorie vanno sempre da $1$ a $n$)
$A=sum_{i,j} a_{ij}E(i,j)$
dove $a_{ij}$ è l'elemento del campo $K$ che appare nella posizione $(i,j)$ della matrice $A$, e il fatto che $A$ ha traccia nulla si traduce nel fatto che
$sum_i a_{ii} = 0$
Ora, è chiaro che possiamo scrivere
$A = B+C$
dove
$B=sum_{i ne j} a_{ij}E(i,j)$
$C=sum_i a_{ii}E(i,i)$
Siamo quindi ridotti a dimostrare che $B$ e $C$ sono combinazioni lineari di matrici del tipo $XY-YX$ (dove $X,Y$ sono matrici $n xx n$).
Cominciamo con $B$.
Siccome $B=sum_{i ne j} a_{ij}E(i,j)$ basta mostrare che le matrici $E(i,j)$, dove $i ne j$, sono del tipo $XY-YX$, ma questo segue dall'identità (facile da dimostrare)
$E(i,j)=E(i,j)E(j,j)-E(j,j)E(i,j)$
(che - ATTENZIONE - è falsa se $i=j$).
Se qualcuno avesse dubbi su come si mostra questa identità ricordo che:
Ora passiamo a $C$.
Qui abbiamo $C=sum_i a_{ii}E(i,i)$ ma stavolta abbiamo una condizione sui coefficienti, $sum_i a_{ii}=0$, cioè [tex]a_{nn}=-\sum_{i=1}^{n-1} a_{ii}[/tex]. Segue che
$C=sum_{i=1}^{n-1} a_{ii} (E(i,i)-E(n,n))$.
Siamo quindi ridotti a mostrare che le matrici $E(i,i)-E(j,j)$ sono del tipo $XY-YX$.
Questo segue immediatamente dal fatto che
$E(i,j)E(j,i)=E(i,i)$
(che si dimostra usando il procedimento indicato nello spoiler sopra)
da cui segue che
$E(i,i)-E(j,j) = E(i,j)E(j,i)-E(j,i)E(i,j)$
Non ho usato da nessuna parte che $K$ ha caratteristica zero, quindi l'ipotesi "$K$ ha caratteristica zero" è superflua.



se uno sa già che \(\mathfrak{sl}(n)\) è semisemplice allora l'argomento diventa un po' del tipo "è vero perché è vero"
[ot]Infatti, mi interessavo alla questione proprio per questo motivo. Come dicevo di recente in un altro post, da studente ero un grande fan degli argomenti soft, eleganti e senza calcoli. Oggi penso che questo genere di argomenti è eccellente durante un seminario o una lezione, perché cattura l'attenzione del pubblico, ma che nella pratica è spesso più efficiente fare conti.[/ot]