Anello di matrici

miuemia
sia $K$ un campo e sia

$R=\{((a_0,a_{n-1},a_{n-2},...,a_1),(a_1,a_0,a_{n-1},...,a_2),(a_2,a_1,a_0,...,a_3),(...,...,...,...,...),(a_{n-1},a_{n-2},a_{n-3},...,a_0))\; a_i \in K\}$

verificare che le matrici di R sono simultaneamente diagonalizzabili, verificare che è un anello commutativo con unità e mostrare che è isomorfo a $(K[x])/((x^n -1))$.

bene per vedere se sono simultaneamente diagonalizzabili vedo se sono diagonalizzabili e se commutano, ma nn riesco a far vedere queste due cose. ho osservato che poichè la somma delle righe di una matrice in $R$ è costante allora tale somma è autovalore per tale matrice di autovettore $(1,1,1,...,1)$ ma non riesco ad andare oltre.

qualche suggerimento???

Risposte
dissonance
Quelle matrici si chiamano circolanti... sono andato a vedere qui e a pagina 105 dice qualcosa che penso ti possa servire per dimostrare la diagonalizzabilità. E' un po' lungo da scrivere in MathML, comunque il concetto è di moltiplicare a destra per la matrice di Vandermonde $VdM(1, omega, omega^2, ldots, omega^(n-1))$ dove $omega$ è una radice primitiva $n$-esima dell'unità. Fai sapere come si evolve la cosa perché mi sono incuriosito!

Dorian1
Il fatto che $sum_(i=0)^(n-1)a_i$ sia autovalore per la matrice d'ordine $n$ mi fa pensare che si possa dimostrare la proposizione per induzione... Non trovate?

miuemia
non mi fa accedere al link che mi hai suggerito!

Thomas16
ciao.

Per quanto riguarda K=C, so che gli autovettori di quella roba sono della forma:

$(x^m)_k=(\alpha_m)^k$

con $\alpha_m$ un numero complesso t.c. $(\alpha_m)^n=1$[1]

dove m indicizza l'autovettore (ne esistono n)e $k$ la coordinata. Notare che a sinistra nella prima equazione m è un indice mentre k a destra un esponente.

Questo si fa per verifica diretta scrivendo le equazioni e vedendo che sono tutte equivalenti usando la [1].

Essendo gli autospazi non degeneri indipendenti dalla matrice si deduce la diagonazzibalità e commutatività. La matrice di vandermonde citata può essere usata è un cambio di coordinate che porta la base euclidea 'quasi' nella base sopra scritta.

Per altri campi non saprei... ma mi pare strano che funzioni anche se il campo non è algebricamente chiuso, tipo K=R.
Gli autovalori di una eventuale matrice reale dovrebbero essere gli stessi di quelli sopra, tra i quali si vede che ve ne possono essere di complessi anche se la matrice è reale. A questo punto gli autovalori reali sono di meno di $n$ e la dimensione dell'autospazio non credo cambi di modo che la diagonalizzazione non si ottiene.... ma ora nn ne sono troppo sicuro...

Ciao!

Ho pensato a questo interessante problema, e ne ho cavato quanto segue.

Intanto darei un'interpretazione un po' più formale degli elementi di $R$. Se $A in R$ allora $A_{i,j}=a_{k(i,j)}$ con $(i,j) to k(i,j)$ funzione da determinare. Osservando la matrice è facile dedurre che

$k(i,j) = i-j\ mod(n)$.

Penserò sempre agli indici modulo $n$.

Ora per mostrare che $R$ è un anello procedo così: date $A=(a_{k(i,j}})_{i,j}$, $B=(b_{k(i,j)})_{i,j}$ in $R$, chiaramente la somma $A+B$ sta in $R$ essendo $A+B = (a_{k(i,j}}+b_{k(i,j}})_{i,j}$. Resta da mostrare che $AB in R$. Dati $l,t in {1,...,n}$ si ha:

$(AB)_{l,t} = sum_i A_{l,i}B_{i,t} = sum_i a_{l-i}b_{i-t}$

Bisogna allora vedere se esiste un $c_{l-t}$ tale che $c_{l-t} = sum_i a_{l-i}b_{i-t}$.
Ponendo $t=n$ si dovrà avere $c_l = sum_i a_{l-i}b_i$ e quindi la condizione è $c_{l-t} = sum_i a_{l-t-i}b_i = sum_i a_{l-i}b_{i-t}$, ovvero

(*) $sum_i (a_{l-t-i}b_i-a_{l-i}b_{i-t}) = 0$.

Per mostrare che la (*) vale possiamo supporre che $t ne n$ perché se $t=n$ la (*) è banalmente verificata.
Ora: è sufficiente mostrare che per ogni indice $i_0$ non compare il termine $b_{i_0}$, infatti ogni addendo ammette un fattore del tipo $b_{i_0}$. Ora fissato $i_0$ ci sono solo due termini della sommatoria che coinvolgono $b_{i_0}$: quello con $i=i_0$ e quello con $i-t=i_0$ (e sono proprio due - non coincidono - perché $t ne n$). La loro somma vale:

$a_{l-t-i}b_i-a_{l-i_0}b_{i_0-t}+a_{l-t-(t+i_0)}b_{i_0+t}-a_{l-(i_0+t)}b_{i_0+t-t} =$
$= -a_{l-i_0}b_{i_0-t}+a_{l-i_0}b_{i_0+t}$.

Come si vede il termine $b_{i_0}$ è sparito.

Per ogni $i in ZZ//nZZ$ definisco $A(i)$ come quell'elemento di $R$ che ha $a_i=1$ e $a_j=0$ per ogni $j ne i$. Cosicché per esempio $A(0)$ è la matrice identica, l'elemento neutro di $R$.

Per mostrare che $R$ è commutativo si potrebbe usare lo stesso trucco che ho usato per mostrare che è un anello, ma per evitare questa fatica possiamo direttamente mostrare che le matrici di $R$ sono a due a due simultaneamente diagonalizzabili, cioè che ammettono tutte una stessa base di autovettori linearmente indipendenti (infatti la simultanea diagonalizzabilità è equivalente alla diagonalizzabilità più la commutazione).
Qui però serve l'ipotesi tecnica che il polinomio $x^n-1$ sia separabile e si fattorizzi completamente in $K[X]$, in modo tale che le radici $n$-esime di 1 siano $n$, tutte in $K$ e a due a due distinte.

A questo punto possiamo applicare l'idea di Thomas e dissonance: la matrice di Vandermonde ci convince che data una radice $n$-esima dell'unità $eta$ il vettore $v(eta)=((1),(eta),(eta^2),(...),(eta^{n-1}))$ è un autovettore di $A in R$, con autovalore $a_0+a_{n-1}eta+a_{n-2}eta^2+...+a_1 eta^{n-1}$. Siccome le radici dell'unità sono n e a due a due distinte, la matrice di Vandermonde è invertibile. In altre parole i vettori $v(eta)$ formano una base di autovettori per $A$.

Per mostrare che $R cong K[X]//(X^n-1)$ possiamo definire il seguente omomorfismo:

(1) $K[X] to R$, $X to A(1)$.

Per arrivare al nostro isomorfismo è sufficiente mostrare che $A(1)^m=A(m)$ per ogni $m in NN$, infatti le matrici $A(0),...,A(n-1)$ formano una $k$-base di $R$ e $A(1)^n=A(n)=A(0)=1$, quindi la (1) diventa suriettiva con nucleo $(X^n-1)$ e possiamo applicare il teorema di isomorfismo.
Ora procediamo per induzione: il caso $m=1$ è banale. Resta da mostrare che se $A(1)^{m-1}=A(m-1)$ allora $A(1)^m=A(m)$. Ma $A(1)^m=A(1)A(1)^{m-1}=A(1)A(m-1)$, quindi bisogna mostrare che $A(1)A(m-1)=A(m)$. Ora:

$A(1)A(m-1)_{l,t} = sum_i A(m-1)_{l,i}A(1)_{i,t}$.

L'unico addendo che sopravvive di questa somma è quello con $i-t=1$, per definizione di $A(1)$, e quindi

$A(1)A(m-1)_{l,t} = A(m-1)_{l,t+1}A(1)_{t+1,t} = A(m-1)_{l,t+1}$.

Questo termine è non nullo se e solo se $l-(t+1)=m-1$ per definizione di $A(m-1)$, e quindi $A(1)A(m-1)_{l,t}$ è non nullo se e solo se $l-t=m$, nel qual caso vale $1$. Questo significa proprio che $A(1)A(m-1)=A(m)$.

Potrei aver fatto degli errori, se li trovate fatemi sapere

dissonance
Quindi l'utilità della matrice di Vandermonde sta nel dimostrare che i vettori di tipo $((1),(eta),(vdots),(eta^(n-1)))$ con $eta$ radice $n$-esima di 1 sono l.i. E se il campo non dovesse contenere tutte le radici $n$-esime dell'unità che si fa? Possiamo concludere almeno che le matrici commutano tra loro?

Inoltre (domanda scema ma non ci arrivo): come può succedere che $x^n-1$ non sia separabile? "Separabile" non significa "privo di radici multiple in un campo di spezzamento"? E quindi dire che $x^n-1$ non è separabile significa dire che l'unità ha meno di $n$ radici distinte. Quando succede questo? Perché mi suona così strano? Aiuto! :-D

"dissonance":
Quindi l'utilità della matrice di Vandermonde sta nel dimostrare che i vettori di tipo $((1),(eta),(vdots),(eta^(n-1)))$ con $eta$ radice $n$-esima di 1 sono l.i. E se il campo non dovesse contenere tutte le radici $n$-esime dell'unità che si fa? Possiamo concludere almeno che le matrici commutano tra loro?


Secondo me se manca qualche radice $n$-esima di 1 $R$ è comunque un anello commutativo ma non possiamo trarre conclusioni sulla diagonalizzabilità e sull'isomorfismo proposto.

Inoltre (domanda scema ma non ci arrivo): come può succedere che $x^n-1$ non sia separabile? "Separabile" non significa "privo di radici multiple in un campo di spezzamento"? E quindi dire che $x^n-1$ non è separabile significa dire che l'unità ha meno di $n$ radici distinte. Quando succede questo? Perché mi suona così strano? Aiuto! :-D


Prendi per esempio $K=F_5$ e $n=10$. Allora $x^{10}-1 = (x^2-1)^5$ non è separabile, e dice che le sole radici decime di 1 in $K$ sono $1$ e $-1$ (quindi sono due, non dieci).
Se $K$ ha caratteristica zero allora ogni polinomio del tipo $x^n-1$ è separabile. Perché $x^n-1$ non sia separabile bisogna che la caratteristica di $K$ divida $n$ (questo si vede partendo dall'osservazione che un polinomio $P$ ha una radice multipla se e solo se ha radici in comune col polinomio derivato $P'$).

Thomas16
"Martino":
[quote="dissonance"]
Secondo me se manca qualche radice $n$-esima di 1 $R$ è comunque un anello commutativo ma non possiamo trarre conclusioni sulla diagonalizzabilità e sull'isomorfismo proposto.
[/quote]

Però a me sembra di ricordare che due matrici A e B commutano sse sono diagonalizzabili simultaneamente, indipendentemente dal campo dei coefficienti.

Se questo è vero (chi conferma o smentisce?) allora l'anello non dovrebbe nemmeno essere commutativo per campi in cui non esistono le n radici dell'unità. O no?

Thomas16
no era una cazzata.... ci vuole che le matrici siano diagonalizzabili per il teorema che ho riportato: ho controllato...

del resto mi sa che martino hai ragione... se non ci sono le radici andiamo in un completamento edl campo e poi torniamo indietro... Quindi la commutatività rimane.... ciò non toglie la non diagonazzibalità....

dissonance
Ecco: è proprio questo il punto che non mi tornava, e che mi faceva incartare sulla separabilità di $x^n-1$.

Se infatti $x^n-1$ è separabile, allora le radici $n$-esime di 1 sono $n$. Tuttalpiù non appartengono al campo di riferimento. Quindi le matrici sono diagonalizzabili simultaneamente, non nel campo di riferimento ma in una estensione. E percò commutano il che mi pare ovvio (ma forse sbaglio?): se commutano come matrici in $K'$ ma hanno entrate solo su $K$, perché non dovrebbero commutare su $K$?

Però come notava Martino non è detto che $x^n-1$ sia separabile. Quindi può essere che sul nostro campo le radici $n$-esime di 1 non sono $n$, e non saranno $n$ su nessuna estensione. E allora che succede alla matrice di Vandermonde? Più in particolare: il gruppo delle radici n-esime è ciclico anche in questo caso? Se sì, allora possiamo prendere una radice primitiva $eta$ e costruire la matrice $"VdM"(eta^0, eta^1, ldots, eta^(n-1))=((1, 1, ldots, 1),(1, eta, ldots, eta^(n-1)), (vdots, vdots, vdots, vdots), (1, eta^(n-1), ldots, (eta^(n-1))^(n-1)))$ per intenderci. Che succede a questa matrice? Non è più invertibile?

Sì le matrici commutano qualunque sia $K$, perché possiamo sempre fare un'estensione di scalari e poi "tornare indietro", come diceva Thomas e come hai appena detto tu.

"dissonance":
Però come notava Martino non è detto che $x^n-1$ sia separabile. Quindi può essere che sul nostro campo le radici $n$-esime di 1 non sono $n$, e non saranno $n$ su nessuna estensione. E allora che succede alla matrice di Vandermonde? Più in particolare: il gruppo delle radici n-esime è ciclico anche in questo caso? Se sì, allora possiamo prendere una radice primitiva $eta$ e costruire la matrice $"VdM"(eta^0, eta^1, ldots, eta^(n-1))=((1, 1, ldots, 1),(1, eta, ldots, eta^(n-1)), (vdots, vdots, vdots, vdots), (1, eta^(n-1), ldots, (eta^(n-1))^(n-1)))$ per intenderci. Che succede a questa matrice? Non è più invertibile?


Il gruppo delle radici $n$-esime è ciclico in quanto sottogruppo moltiplicativo finito di un campo. Il problema è che la matrice da te scritta è degenere perché $eta$ ha ordine inferiore a $n$, quindi (per dire) la seconda colonna prima o poi si ripeterà tale e quale.
Quindi se $x^n-1$ non è separabile ce la scordiamo la base bella di autovettori che abbiamo ottenuto con Vandermonde nel caso separabile :)

dissonance
"Martino":

Per mostrare che $R cong K[X]//(X^n-1)$ possiamo definire il seguente omomorfismo:

(1) $K[X] to R$, $X to A(1)$.

Per arrivare al nostro isomorfismo è sufficiente mostrare che $A(1)^m=A(m)$ per ogni $m in NN$, infatti le matrici $A(0),...,A(n-1)$ formano una $k$-base di $R$ e $A(1)^n=A(n)=A(0)=1$, quindi la (1) diventa suriettiva con nucleo $(X^n-1)$ e possiamo applicare il teorema di isomorfismo.

Martino, non vorrei sembrarti deficiente ma qui purtroppo ho bisogno di chiarimenti. Sul fatto che quell'applicazione sia omomorfismo ci arrivo. Sul fatto che dobbiamo dimostrarne la suriettività, e che il nucleo sia $(X^n-1)$ pure.

Ora se ho capito bene le $A(i)$ sono matrici di $R$ con solo l'$i$-esima $a$ pari a 1 e tutte le altre pari a zero. Per un'idea intuitiva si tratta della matrice identica dopo uno slittamento in avanti delle colonne (o delle righe) di $i$ passi. Sempre se ho capito bene quindi, le $A(i)$ sono particolari matrici di permutazione: moltiplicate a destra di una matrice di $R$ ne fanno slittare le colonne in avanti di $i$ posti. (questa cosa è da formalizzare a modino, però prima voglio sapere se è corretta).
Poi: che $A(0), ldots, A(n-1)$ formino una $K$-base di $R$ mi convince. Quindi ogni matrice di $R$ è una cosa tipo $a_0A(0)+ldots+a_{n-1}A(n-1)$. Allora tu vuoi dimostrare che il polinomio $a_0+ldots+a_{n-1}X^(n-1)$ viene mandato proprio in quella matrice. Ovvero che $X^m\mapstoA(m)\ iff\ A(1)^m=A(m)$.
Ci sono?

Perché se le cose stanno così, pensavo di vedere le matrici $A(i)$ come associate a permutazioni di $"Sym"(n)$, precisamente $A(i)\mapstosigma_i$, dove $sigma_i(x)=(x+i)\ "mod"\ n$ (lo "shift" delle colonne). Infatti le matrici di permutazione, se non ricordo male, sono una copia di $"Sym"(n)$ nelle matrici $ntimesn$. Quindi avremmo che $A(i)A(j)\mapstosigma_isigma_j$ che è chiaramente $sigma_{i+j}$ e perciò tornando nelle matrici $A(i)A(j)=A(i+j)$.
Se questo discorso fosse corretto, potremmo semplificare la parte finale della dimostrazione (quella per induzione), mediante questa analogia matrici - permutazioni. Ma non sono sicuro.

"dissonance":
[...]
Ci sono?


Certo.

Perché se le cose stanno così, pensavo di vedere le matrici $A(i)$ come associate a permutazioni di $"Sym"(n)$, precisamente $A(i)\mapstosigma_i$, dove $sigma_i(x)=(x+i)\ "mod"\ n$ (lo "shift" delle colonne). Infatti le matrici di permutazione, se non ricordo male, sono una copia di $"Sym"(n)$ nelle matrici $ntimesn$. Quindi avremmo che $A(i)A(j)\mapstosigma_isigma_j$ che è chiaramente $sigma_{i+j}$ e perciò tornando nelle matrici $A(i)A(j)=A(i+j)$.
Se questo discorso fosse corretto, potremmo semplificare la parte finale della dimostrazione (quella per induzione), mediante questa analogia matrici - permutazioni. Ma non sono sicuro.


Sì, sono convinto che la tua idea funzioni! In pratica tu vorresti dimostrare che la funzione $(ZZ//nZZ,+) to (R,*)$, $i to A(i)$ è un omomorfismo di monoidi, giusto?
Questo si potrebbe vedere usando che $A(1)^i=A(i)$ perché $A(i+j)=A(1)^{i+j}=A(1)^i A(1)^j = A(i)A(j)$.
Però la tua interpretazione con le permutazioni è interessante, ci penserò!

Un'altra cosa: pensando a tutto il problema mi sono già scontrato con le permutazioni: mi interessava calcolare il determinante di una $A in R$, e per fare questo mi sono chiesto cosa rappresenta, data una $sigma in S_n$, la quantità $i-sigma(i)$ mod $n$, o meglio cosa possiamo dire della funzione

${1,...,n} to {1,...,n}$
$i to i-sigma(i)$ $mod(n)$, ovvero $i to k(i,sigma(i))$

Inizialmente pensavo che fosse o costante o una permutazione (cosicché il determinante sarebbe stato del tipo $a_0^n+...+a_{n-1}^n-na_0...a_{n-1}$, cosa vera probabilmente solo nel caso $n=3$), ma poi mi sono dovuto scontrare con la dura realtà...

Secondo voi come si può calcolare il determinante di $A in R$ ?

dissonance
"Martino":

Secondo voi come si può calcolare il determinante di $A in R$ ?

Mah, se il campo contiene tutte le radici $n$-esime di 1 basta fare il prodotto degli autovalori, no? Del resto quando ho citato le dispense di Cailotto era perché lui (pag.105) parla di un metodo che chiama "di Brioschi" per il determinante di queste matrici nel caso complesso. Riassumo:

Se $A=a_0A(0)+ldots+a_{n-1}A(n-1)$ allora presa la matrice di Vandermonde $V="VdM"(eta^0, eta^1, ldots, eta^(n-1))$ ($eta$ radice primitiva $n$-esima di 1) risulta che $AV=V^Hdiag(theta_0, ldots, theta_{n-1})$ dove $theta_i=sum_{j=0}^(n-1)a_{i, j}eta^(ij)$. E quindi $det\ A=prod_{k=0}^ntheta_k$. A parole povere: $A$ è diagonalizzabile, ne conosciamo gli autovalori e il determinante lo calcoliamo come prodotto degli stessi. La cosa mi pare funzioni anche se non siamo nel campo complesso, a condizione che $x^n-1$ sia separabile. In quel caso il determinante ce lo andremo a calcolare in una opportuna estensione.

Ma mi pare tutto troppo semplice. Dov'è l'inghippo? :D
_____________________________________________

Per la storia delle permutazioni, non capisco perché parli di monoidi e non di gruppi...
Formalizzo un po' quello che volevo fare, più che altro per "capire" meglio le matrici di $R$:
definiamo le mat. di permutazione come: $\forall\sigma\in "Sym"(n), Pi(sigma):=[I_{sigma(1)}, ldots, I_{sigma(n)}]$, dove $I_{j}$ è la $j$-esima colonna della matrice identica. Queste matrici sono sempre invertibili: questo ci porta a un sottogruppo del $"GL"_n(K)$ (diciamo $"Perm"(n, K)$) isomorfo a $"Sym"(n)$. Infatti $Pi(sigma)Pi(tau)=Pi(sigma\circtau)$.
La dimostrazione formale di questo risultato credo sia della stessa natura della tua dimostrazione di $A(1)^m=A(m)$.

Io pensavo però a qualcosa di più sportivo: se $A\inM_n(K)$, allora $APi(sigma)=A[I_{sigma(1)}, ldots, I_{sigma(n)}]=[A_{sigma(1)}, ldots, A_{sigma(n)}]$. Moltiplicando a destra $Pi(sigma)$ permuta le colonne di $A$. Perciò $Pi(sigma)Pi(tau)=Pi(sigma)[I_{tau(1)}, ldots, I_{tau(n)}]=[Pi(sigma)_{tau(1)}, ldots, Pi(sigma)_{tau(n)}]$. Se la $i$-esima colonna di $Pi(sigma)$ è $I_{sigma(i)}$, la $tau(i)$-esima colonna si $Pi(sigma)$ è $I_{sigma(tau(i))}$. Perciò $Pi(sigma)Pi(tau)=Pi(sigma\circtau)$.(*)

Allora la trovata era: costruire una copia di $(ZZ_n, +)$ in $"Sym"(n)$ mediante $[k]\mapstosigma_k$ e $sigma_k(x)=(x+k\ "mod"\ n)$ ("shift" avanti di k posti). Mi pare che questo sia un isomorfismo di gruppi, o mi sbaglio? Se non sbaglio, allora abbiamo costruito un sottogruppo del $"Sym"(n)$ che corrisponde esattamente ad una base (la famosa $(A(0), ldots, A(n-1))=(Pi(id), Pi(sigma_1), ldots, Pi(sigma_{n-1}))$) della $K$-algebra $R$.

Che vantaggi ci sarebbero facendo così? Pensavo di rendere più trasparenti le varie dimostrazioni delle proprietà di $R$. Infatti potremmo costruire una $K$-algebra (non commutativa) di dimensione finita facendola generare (come spazio vettoriale) dalle matrici di permutazione. Con il risultato (*) non è difficile far vedere la chiusura rispetto al prodotto e quindi la well-posedness di questa costruzione. A questo punto il nostro misterioso oggetto $R$ diventa una più semplice sotto-algebra, una cui base è isomorfa (come gruppo moltiplicativo) ad un gruppo abeliano. E perciò, se commutano gli elementi di una base, commutano tutti gli elementi di $R$ (a prescindere dalla diagonalizzabilità). E così anche per l'isomorfismo $(K[x])//(x^n-1)~=R$, visto che a questo punto il grosso della dimostrazione è già stato fatto con il punto (*). (Tra l'altro questo sarebbe un isomorfismo di algebre oltre che di anelli...ma allora $(K[x])//(x^n-1)$ ha una base isomorfa a $ZZ_n$? Non ci capisco molto di queste cose!)
E' tutto un po' lungo ma ho cercato di essere più chiaro possibile.

"dissonance":
[...]
Ma mi pare tutto troppo semplice. Dov'è l'inghippo? :D

Ma niente, avevo osservato anch'io che il determinante aveva quella forma, ma volevo scriverlo in modo più umano :D

Per la storia delle permutazioni, non capisco perché parli di monoidi e non di gruppi...

Beh io avevo definito $phi: (ZZ//nZZ,+) to (R,*)$, $i to A(i)$, e questa è una funzione che rispetta le operazioni, ma se lo chiamassi omomorfismo di gruppi starei facendo finta che $(R,*)$ è un gruppo. D'altra parte l'immagine di $phi$, cioè l'insieme ${A(1),...,A(n)}$, è effettivamente un gruppo con la $*$, quindi possiamo dire che la $phi$ induce un isomorfismo di gruppi $(ZZ//nZZ,+) cong {A(1),...,A(n)}$.
Tra parentesi, questo risponde immediatamente alla tua domanda

ma allora $K[X]//(X^n-1)$ ha una base isomorfa a $ZZ_n$?

Certo, in virtù di $(ZZ//nZZ,+) cong ({1,X,...,X^{n-1}},*)$, dove $1,X,...,X^{n-1}$ sono pensati dentro $K[X]//(X^n-1)$. Naturalmente questo isomorfismo si limita ad essere di gruppi.

-----

Allora tu hai costruito un'immersione di $ZZ//nZZ$ in $S_n=Sym(n)$ tramite la regola $k to sigma_k$, ove $sigma_k(x)=x+k$. E allora $A(i)$ usando le tue notazioni diventa $Pi(sigma_i)$. Capisco.

Pensavo di rendere più trasparenti le varie dimostrazioni delle proprietà di $R$. Infatti potremmo costruire una $K$-algebra (non commutativa) di dimensione finita facendola generare (come spazio vettoriale) dalle matrici di permutazione. Con il risultato (*) non è difficile far vedere la chiusura rispetto al prodotto e quindi la well-posedness di questa costruzione. A questo punto il nostro misterioso oggetto $R$ diventa una più semplice sotto-algebra, una cui base è isomorfa (come gruppo moltiplicativo) ad un gruppo abeliano. E perciò, se commutano gli elementi di una base, commutano tutti gli elementi di $R$ (a prescindere dalla diagonalizzabilità). E così anche per l'isomorfismo $K[x]//(x^n-1)~=R$, visto che a questo punto il grosso della dimostrazione è già stato fatto con il punto (*).


Sono d'accordo.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.