Algebra Commutativa & Geometria Algebrica: una panoramica
[size=150]Attenzione:[/size] sembra che il pacchetto xymatrix abbia dei problemi. In attesa di una soluzione ufficiale scriverò i diagrammi commutativi usando TexTheWorld...
Come da accordi presi con Martino, provo ad imbarcarmi in questa piccola impresa. L'idea è che questo thread si espanda fino a contenere un compendio dei risultati e delle tecniche più comuni in algebra commutativa e geometria algebrica, con dovizia di esempi ed esercizi risolti. La mia natura mi impone naturalmente di approfondire anche l'aspetto teorico di tali tecniche. Cercherò di sforzarmi per fare in modo che quanto scritto sia comprensibile alla maggior parte dei lettori, tuttavia c'è un'ostruzione naturale in questo: il linguaggio naturale con cui queste cose vanno dette è piuttosto raffinato e complesso e non mi sembra giusto proporre ora una versione semplificata, perché non sarebbe una descrizione fedele di tali tecniche. Inviterei quindi i lettori a prendere coscienza del fatto che l'Algebra Commutativa e la Geometria Algebrica sono argomenti difficili e che bisogna sudare per potersi impadronire delle meraviglie che si celano al loro interno.
L'idea iniziale era di partire con una visione moderna del concetto di spazio affine, ma mi rendo conto guardandomi in giro che molti hanno difficoltà con gli strumenti tecnici più base dell'algebra commutativa, quali sono i prodotti tensoriali, le localizzazioni ecc. Pertanto, visto che senza familiarità con questi oggetti è impensabile anche solo iniziare a fare algebra commutativa seriamente, disporrò una prima sezione di richiami su queste costruzioni.
Infine, ancora due parole sull'organizzazione delle singole sezioni. Vorrei attenermi al seguente schema: ogni sezione sarà dedicata ad un argomento specifico e ne conterrà una breve trattazione teorica completa delle dimostrazioni più difficili o più significative. Di alcuni teoremi sarà omessa la dimostrazione; essi potranno essere trovati (predisporrò dei link) nella sezione Pensare un Po' di Più in un thread con lo stesso nome della sezione, insieme con altri esercizi teorici e pratici sull'argomento. La seconda parte di ogni sezione, invece, conterrà esempi pratici delle tecniche descritte, ossia un po' di esercizi "tipici" con soluzione dettagliata più qualche esempio che ritengo significativo.
Naturalmente ogni suggerimento, consiglio e segnalazione di errori sarà più che gradita!
Ma ora basta parlare, combattiamo!
Indice
0. I fondamenti del linguaggio: basilari di categorie
Come da accordi presi con Martino, provo ad imbarcarmi in questa piccola impresa. L'idea è che questo thread si espanda fino a contenere un compendio dei risultati e delle tecniche più comuni in algebra commutativa e geometria algebrica, con dovizia di esempi ed esercizi risolti. La mia natura mi impone naturalmente di approfondire anche l'aspetto teorico di tali tecniche. Cercherò di sforzarmi per fare in modo che quanto scritto sia comprensibile alla maggior parte dei lettori, tuttavia c'è un'ostruzione naturale in questo: il linguaggio naturale con cui queste cose vanno dette è piuttosto raffinato e complesso e non mi sembra giusto proporre ora una versione semplificata, perché non sarebbe una descrizione fedele di tali tecniche. Inviterei quindi i lettori a prendere coscienza del fatto che l'Algebra Commutativa e la Geometria Algebrica sono argomenti difficili e che bisogna sudare per potersi impadronire delle meraviglie che si celano al loro interno.
L'idea iniziale era di partire con una visione moderna del concetto di spazio affine, ma mi rendo conto guardandomi in giro che molti hanno difficoltà con gli strumenti tecnici più base dell'algebra commutativa, quali sono i prodotti tensoriali, le localizzazioni ecc. Pertanto, visto che senza familiarità con questi oggetti è impensabile anche solo iniziare a fare algebra commutativa seriamente, disporrò una prima sezione di richiami su queste costruzioni.
Infine, ancora due parole sull'organizzazione delle singole sezioni. Vorrei attenermi al seguente schema: ogni sezione sarà dedicata ad un argomento specifico e ne conterrà una breve trattazione teorica completa delle dimostrazioni più difficili o più significative. Di alcuni teoremi sarà omessa la dimostrazione; essi potranno essere trovati (predisporrò dei link) nella sezione Pensare un Po' di Più in un thread con lo stesso nome della sezione, insieme con altri esercizi teorici e pratici sull'argomento. La seconda parte di ogni sezione, invece, conterrà esempi pratici delle tecniche descritte, ossia un po' di esercizi "tipici" con soluzione dettagliata più qualche esempio che ritengo significativo.
Naturalmente ogni suggerimento, consiglio e segnalazione di errori sarà più che gradita!
Ma ora basta parlare, combattiamo!
Indice
0. I fondamenti del linguaggio: basilari di categorie
0.1 Le categorie
0.2 Funtori
0.3 Comma categorie
0.4 Trasformazioni naturali
0.5 Universali e Yoneda
0.6 Aggiunzioni
[/list:u:26gm0lfz]
1. Strumenti di base: tensori e localizzazioni
1.1 Diagram Chasing in [tex]\mathbf{Mod}_A[/tex]
1.2 Il prodotto tensoriale
1.3 L'algebra tensoriale e l'algebra esterna
1.4 Moduli piatti
1.5 La localizzazione
[/list:u:26gm0lfz]
2. Si inizia: Lo spazio affine!
2.1 Algebre e morfismi di algebre
2.2 L'essenza dello spazio affine
2.3 Insiemi algebrici: non li conoscevamo già?
2.4 La categoria degli insiemi algebrici: chi sono le mappe? Chiedilo a Yoneda!
2.5 Il Nullstellensatz
[/list:u:26gm0lfz]
3. Lo spettro di un anello
3.1 La topologia di Zariski
3.2 "Funzioni generalizzate" e revisione del Nullstellensatz
3.3 Proprietà topologiche di [tex]\text{Spec}(A)[/tex]
[/list:u:26gm0lfz]
4. La decomposizione primaria
4.1 Ideali primari e moduli primari
4.2 Ideali associati
4.3 La decomposizione: proprietà di unicità
4.4 Le potenze simboliche e un'applicazione notevole: il PIT (Principal Ideal Theorem)
4.5 La decomposizione primaria in anelli noetheriani
4.6 Una caratterizzazione dei domini fattoriali
[/list:u:26gm0lfz]
5. La dimensione di un anello
5.1 La dimensione di Krull
5.2 La dimensione di Chevalley
5.3 Anelli di dimensione 0
5.4 Anelli di dimensione 1
[/list:u:26gm0lfz]
6. Estensioni integrali
6.1 Incomparability e Going Up
6.2 Going Down
[/list:u:26gm0lfz]
7. Anelli normali
7.1 Anelli normali ed il processo di normalizzazione
7.2 Lemma di Normalizzazione di Noether (versione di Nagata)
7.3 Finitezza della chiusura integrale
7.4 Anelli universalmente catenari
[/list:u:26gm0lfz]
8. Il concetto di regolarità
8.1 Anelli regolari locali
8.2 I differenziali di Kahler
8.3 Il criterio Jacobiano
[/list:u:26gm0lfz]
[size=85]L'indice è provvisorio; per ora si tratta più che altro di una wish-list[/size]
Risposte
"Thomas":
Andando avanti introduci la parola "classe"... ma avevi già detto prima che intendi per "classe"? E' un concetto noto? (leggere cose on-line può essere problematico)
Prova a dare un un'occhiata qui e qui.
Io non ho altro che una vaga idea del concetto di classe ma penso possa anche bastare per capire quanto dice maurer.
Uno dei modi più semplici per risolvere queste problematiche è proprio sistemarsi in NBG. Tuttavia, vorrei evitare quanto più possibile problematiche fondazionali, come ho scritto da qualche parte all'inizio. Un altro modo semplice è postulare l'esistenza di un universo di Grothendieck e lavorare lì dentro.
[La parte sulle aggiunzioni deve ancora essere completata e in seguito aggiungerò anche qualcosa sui limiti e colimiti. Per adesso inizio a pubblicare qualcosa che si possa definire propriamente algebra commutativa.]
Esaurita la prima parte linguistica, iniziamo ad introdurre i primi strumenti tecnici dell'algebra commutativa. Lo scopo principale di questo capitolo è di definire il prodotto tensoriale e la localizzazione e di caratterizzarne le principali proprietà. Sarà dedicato un gran spazio a risultati pratici che consentono di fare esplicitamente i conti e saranno forniti esempi concreti di applicazione di tali tecniche. Nella prima sezione svilupperò alcuni lemmi di diagram chasing che tornano sempre utili nella vita.
[size=150]1.1 Diagram chasing in [tex]\mathbf{Mod}_A[/tex][/size]
Tutto il diagram-chasing può essere fatto nell'ambito di una categoria abeliana. Tuttavia, noi ci limiteremo in tutto questo progetto alla categoria [tex]\mathbf{Mod}_A[/tex] degli [tex]A[/tex]-moduli, con [tex]A[/tex] anello commutativo unitario.
Definizione. Una successione di [tex]A[/tex]-moduli e morfismi di [tex]A[/tex]-moduli è un funtore [tex]F \colon (\mathbb Z, \le) \to \mathbf{Mod}_A[/tex]. Rappresenteremo una successione di [tex]A[/tex]-moduli come
[tex]\xymatrix{ \ldots \ar[r] & A_{n-1} \ar[r]^{f_{n-1}} & A_n \ar[r]^{f_n} & A_{n+1} \ar[r]^{f_{n+1}} & \ldots }[/tex]
Per brevità ci riferiremo ad una siffatta successione come a [tex]\{(A_i,f_i)\}_{i \in \mathbb Z}[/tex].
Definizione. Sia [tex]\{(A_i,f_i)\}_{i \in \mathbb Z}[/tex] una successione di [tex]A[/tex]-moduli. Diremo che questa successione è esatta in posizione [tex]i[/tex] se [tex]\ker f_i = \text{Im}(f_{i-1})[/tex].
Definizione. Una successione esatta corta è una successione esatta [tex]0 \to M \to N \to P \to 0[/tex].
Lemma. La successione [tex]0 \to M \stackrel{f}{\to} N[/tex] è esatta se e solo se [tex]f[/tex] è iniettiva. La successione [tex]M \stackrel{f}{\to} N \to 0[/tex] è esatta se e solo se [tex]f[/tex] è suriettiva.
Dimostrazione. Esercizio. []
Snake lemma. Si consideri il diagramma commutativo di [tex]A[/tex]-moduli e morfismi di [tex]A[/tex]-moduli:
[tex]\xymatrix{ 0 \ar@{.>}[r] & A^\prime \ar[d]^f \ar[r]^{\alpha_1} & A \ar[d]^g \ar[r]^{\alpha_2} & A^{\prime \prime} \ar[d]^h \ar[r] & 0 \\ 0 \ar[r] & B^\prime \ar[r]^{\beta_1} & B \ar[r]^{\beta_2} & B^{\prime \prime} \ar@{.>}[r] & 0}[/tex]
Se le righe sono esatte allora esiste una successione esatta lunga
[tex]\xymatrix{ 0 \ar@{.>}[r] & \ker f \ar[r]^{\alpha_1^\prime} & \ker g \ar[r]^{\alpha_2^\prime} & \ker h \ar[r]^-{\delta} & \text{coker }f \ar[r]^{\overline{\beta_1}} & \text{coker } g \ar[r]^{\overline{\beta_2}} & \text{coker } h \ar@{.>}[r] & 0 }[/tex]
Dimostrazione. Controllare che esistano le successioni esatte [tex]\xymatrix{ 0 \ar@{.>}[r] & \ker f \ar[r] & \ker g \ar[r] & \ker h}[/tex] e [tex]\xymatrix{ \text{coker }f \ar[r] & \text{coker } g \ar[r] & \text{coker } h \ar@{.>}[r] & 0 }[/tex] è un facile esercizio e pertanto viene omesso. Mostreremo la costruzione della mappa di bordo [tex]\delta[/tex] e verificheremo l'esattezza in [tex]\ker h[/tex] [tex]\text{coker } f[/tex].
Sia [tex]x \in \ker h[/tex]. Si scelga [tex]y \in A[/tex] tale che [tex]\alpha_2(y) = x[/tex]; allora [tex]\beta_2(g(y)) = h(\alpha_2(y)) = h(x) = 0[/tex], ossia [tex]g(y) \in \ker \beta_2 = \text{Im }\beta_1[/tex]. Siccome [tex]\beta_1[/tex] è iniettiva, esiste un solo [tex]z \in B'[/tex] tale che [tex]\beta_1(z) = g(y)[/tex]. Si ponga [tex]\delta(x) := [z] \in \text{coker }f[/tex] (la "caccia nel diagramma è rappresentata dal seguente schema riassuntivo).
[tex]\xymatrix{ & y \ar@{|->}[r] \ar@{|->}[d] & x \ar@{|->}[d] \\ z \ar@{|->}[r] & g(y) \ar@{|->}[r] & 0 }[/tex]
Occorre verificare che [tex]\delta[/tex] sia ben definita. Supponiamo quindi che [tex]y'[/tex] sia un altro sollevamento di [tex]x[/tex]; sia poi [tex]z' \in B'[/tex] tale che [tex]\beta_1(z') = g(y')[/tex]. Allora [tex]y - y' \in \ker \alpha_2 = \text{Im } \alpha_1[/tex]; sia [tex]w \in A'[/tex] tale che [tex]\alpha_1(w) = y - y'[/tex]. Si ha [tex]\beta_1 (f(w)) = g(\alpha_1(w)) = g(y - y') = g(y) - g(y') = \beta_1(z) - \beta_1(z') = \beta_1(z - z')[/tex]. Siccome [tex]\beta_1[/tex] è iniettiva, otteniamo [tex]z - z' = f(w)[/tex], ossia [tex][z] = [z'][/tex] in [tex]\text{coker }f[/tex].
Controlliamo l'esattezza in [tex]\ker h[/tex]. Innanzi tutto, se [tex]y \in \ker g[/tex], allora [tex]\delta(\alpha_2(y)) = 0[/tex]. Infatti [tex]y[/tex] è un sollevamento di [tex]\alpha_2(y)[/tex] e [tex]g(y) = 0[/tex], quindi [tex]\delta(\alpha_2(y)) = [0][/tex] e di conseguenza [tex]\text{Im } \alpha_2' \subset \ker \delta[/tex]. Se invece [tex]x \in \ker \delta[/tex], allora [tex]\delta(x) = [0][/tex]; siano [tex]y \in \ker g[/tex] un sollevamento di [tex]x[/tex] e sia [tex]z \in B'[/tex] tale che [tex]\beta_1(z) = g(y)[/tex]. Allora [tex]z = f(w)[/tex] per qualche [tex]w \in A'[/tex], da cui [tex]\beta_1(z) = g(\alpha_1(w))[/tex]; pertanto [tex]y - \alpha_1(w) \in \ker g[/tex] e, per di più, [tex]\alpha_2(y - \alpha_1(w)) = \alpha_2(y) = x[/tex], sicché [tex]x \in \text{Im }\alpha_2'[/tex], da cui [tex]\ker \delta = \text{Im } \alpha_2'[/tex].
Controlliamo l'esattezza in [tex]\text{coker } f[/tex]; siano [tex]x,y,z[/tex] come in precedenza. Allora [tex]\overline{\beta_1}(\delta(x)) = \overline{\beta_1}([z]) = [\beta_1(z)] = [g(y)] = [0][/tex], sicché [tex]\text{Im } \delta \subset \ker \overline{\beta_1}[/tex]. Viceversa, supponiamo che [tex][z] \in \ker \overline{\beta_1}[/tex]. Allora [tex]\beta_1(z) \in \text{Im } g[/tex], ossia [tex]\beta_1(z) = g(y)[/tex] per qualche [tex]y \in A[/tex]. Sia [tex]x := \alpha_2(y)[/tex]. Si ha [tex]h(x) = \beta_2(g(y)) = \beta_2(\beta_1(z)) = 0[/tex], quindi [tex]x \in \ker h[/tex] ed inoltre, per costruzione, [tex]\delta(x) = [z][/tex], sicché [tex]\ker \overline{\beta_1} = \text{Im } \delta[/tex]. []
Lemma dei 5. Si consideri il diagramma commutativo di [tex]A[/tex]-moduli e mappe di [tex]A[/tex]-moduli a righe esatte:
[tex]\xymatrix { A_1 \ar[d]^{f_1} \ar[r]^{\alpha} & A_2 \ar[d]^{f_2} \ar[r]^{\beta} & A_3 \ar[d]^{f_3} \ar[r]^{\gamma} & A_4 \ar[d]^{f_4} \ar[r]^{\delta} & A_5 \ar[d]^{f_5} \\ B_1 \ar[r]^{\alpha^\prime} & B_2 \ar[r]^{\beta^\prime} & B_3 \ar[r]^{\gamma^\prime} & B_4 \ar[r]^{\delta^\prime} & B_5 }[/tex]
Se [tex]f_1[/tex] è suriettiva e [tex]f_2[/tex] e [tex]f_4[/tex] sono iniettive, allora [tex]f_3[/tex] è iniettiva. Se invece [tex]f_2[/tex] e [tex]f_4[/tex] sono suriettive e [tex]f_5[/tex] è iniettiva, allora [tex]f_3[/tex] è suriettiva. In particolare, se [tex]f_1,f_2,f_4,f_5[/tex] sono isomorfismi, anche [tex]f_3[/tex] è un isomorfismo.
Dimostrazione. Supponiamo che [tex]f_1[/tex] sia suriettiva e che [tex]f_2,f_4[/tex] siano iniettive. Sia [tex]x \in \ker f_3[/tex]. Abbiamo [tex]0 = \gamma'(f_3(x)) = f_4(\gamma(x))[/tex], quindi siccome [tex]f_4[/tex] è iniettiva, otteniamo [tex]\gamma(x) = 0[/tex]; quindi [tex]x \in \ker \gamma = \text{Im }\beta[/tex]; sia [tex]x = \beta(y)[/tex]; [tex]\beta'(f_2(y)) = f_3(\beta(y)) = 0[/tex], sicché [tex]f_2(y) \in \ker \beta' = \text{Im } \alpha'[/tex], quindi [tex]f_2(y) = \alpha'(z)[/tex]. Siccome [tex]f_1[/tex] è suriettiva, [tex]z = f_1(u)[/tex] e adesso [tex]f_2(y) = \alpha'(f_1(u)) = f_2(\alpha(u))[/tex], da cui [tex]y = \alpha(u) \in \ker \beta[/tex], essendo [tex]f_2[/tex] iniettiva. Pertanto [tex]x = \beta(y) = \beta(\alpha(u)) = 0[/tex] e [tex]f_3[/tex] risulta iniettiva.
Sia ora [tex]x \in B_3[/tex]. Sia [tex]y \in A_4[/tex] tale che [tex]f_4(y) = \gamma'(x)[/tex]. Allora [tex]f_5(\delta(y)) = \delta'(f_4(y)) = \delta'(\gamma'(x)) = 0[/tex], quindi, essendo [tex]f_5[/tex] iniettiva, [tex]y \in \ker \delta = \text{Im } \gamma[/tex]. Sia [tex]z \in A_3[/tex] tale che [tex]\gamma(z) = y[/tex]; avremo [tex]\gamma'(f_3(z)) = f_4(y) = \gamma'(x)[/tex] e pertanto [tex]x - f_3(z) \in \ker \gamma' = \text{Im }\beta'[/tex]. Sia [tex]u \in B_2[/tex] tale che [tex]\beta'(u) = x - f_3(z)[/tex]; sia [tex]w \in A_2[/tex] con [tex]f_2(w) = u[/tex]. Allora [tex]f_3(\beta(w) - z) = \beta'(f_2(w)) - f_3(z) = x - f_3(z) + f_3(z) = x[/tex]. []
Esercizi.
Esaurita la prima parte linguistica, iniziamo ad introdurre i primi strumenti tecnici dell'algebra commutativa. Lo scopo principale di questo capitolo è di definire il prodotto tensoriale e la localizzazione e di caratterizzarne le principali proprietà. Sarà dedicato un gran spazio a risultati pratici che consentono di fare esplicitamente i conti e saranno forniti esempi concreti di applicazione di tali tecniche. Nella prima sezione svilupperò alcuni lemmi di diagram chasing che tornano sempre utili nella vita.
[size=150]1.1 Diagram chasing in [tex]\mathbf{Mod}_A[/tex][/size]
Tutto il diagram-chasing può essere fatto nell'ambito di una categoria abeliana. Tuttavia, noi ci limiteremo in tutto questo progetto alla categoria [tex]\mathbf{Mod}_A[/tex] degli [tex]A[/tex]-moduli, con [tex]A[/tex] anello commutativo unitario.
Definizione. Una successione di [tex]A[/tex]-moduli e morfismi di [tex]A[/tex]-moduli è un funtore [tex]F \colon (\mathbb Z, \le) \to \mathbf{Mod}_A[/tex]. Rappresenteremo una successione di [tex]A[/tex]-moduli come
[tex]\xymatrix{ \ldots \ar[r] & A_{n-1} \ar[r]^{f_{n-1}} & A_n \ar[r]^{f_n} & A_{n+1} \ar[r]^{f_{n+1}} & \ldots }[/tex]
Per brevità ci riferiremo ad una siffatta successione come a [tex]\{(A_i,f_i)\}_{i \in \mathbb Z}[/tex].
Definizione. Sia [tex]\{(A_i,f_i)\}_{i \in \mathbb Z}[/tex] una successione di [tex]A[/tex]-moduli. Diremo che questa successione è esatta in posizione [tex]i[/tex] se [tex]\ker f_i = \text{Im}(f_{i-1})[/tex].
Definizione. Una successione esatta corta è una successione esatta [tex]0 \to M \to N \to P \to 0[/tex].
Lemma. La successione [tex]0 \to M \stackrel{f}{\to} N[/tex] è esatta se e solo se [tex]f[/tex] è iniettiva. La successione [tex]M \stackrel{f}{\to} N \to 0[/tex] è esatta se e solo se [tex]f[/tex] è suriettiva.
Dimostrazione. Esercizio. []
Snake lemma. Si consideri il diagramma commutativo di [tex]A[/tex]-moduli e morfismi di [tex]A[/tex]-moduli:
[tex]\xymatrix{ 0 \ar@{.>}[r] & A^\prime \ar[d]^f \ar[r]^{\alpha_1} & A \ar[d]^g \ar[r]^{\alpha_2} & A^{\prime \prime} \ar[d]^h \ar[r] & 0 \\ 0 \ar[r] & B^\prime \ar[r]^{\beta_1} & B \ar[r]^{\beta_2} & B^{\prime \prime} \ar@{.>}[r] & 0}[/tex]
Se le righe sono esatte allora esiste una successione esatta lunga
[tex]\xymatrix{ 0 \ar@{.>}[r] & \ker f \ar[r]^{\alpha_1^\prime} & \ker g \ar[r]^{\alpha_2^\prime} & \ker h \ar[r]^-{\delta} & \text{coker }f \ar[r]^{\overline{\beta_1}} & \text{coker } g \ar[r]^{\overline{\beta_2}} & \text{coker } h \ar@{.>}[r] & 0 }[/tex]
Dimostrazione. Controllare che esistano le successioni esatte [tex]\xymatrix{ 0 \ar@{.>}[r] & \ker f \ar[r] & \ker g \ar[r] & \ker h}[/tex] e [tex]\xymatrix{ \text{coker }f \ar[r] & \text{coker } g \ar[r] & \text{coker } h \ar@{.>}[r] & 0 }[/tex] è un facile esercizio e pertanto viene omesso. Mostreremo la costruzione della mappa di bordo [tex]\delta[/tex] e verificheremo l'esattezza in [tex]\ker h[/tex] [tex]\text{coker } f[/tex].
Sia [tex]x \in \ker h[/tex]. Si scelga [tex]y \in A[/tex] tale che [tex]\alpha_2(y) = x[/tex]; allora [tex]\beta_2(g(y)) = h(\alpha_2(y)) = h(x) = 0[/tex], ossia [tex]g(y) \in \ker \beta_2 = \text{Im }\beta_1[/tex]. Siccome [tex]\beta_1[/tex] è iniettiva, esiste un solo [tex]z \in B'[/tex] tale che [tex]\beta_1(z) = g(y)[/tex]. Si ponga [tex]\delta(x) := [z] \in \text{coker }f[/tex] (la "caccia nel diagramma è rappresentata dal seguente schema riassuntivo).
[tex]\xymatrix{ & y \ar@{|->}[r] \ar@{|->}[d] & x \ar@{|->}[d] \\ z \ar@{|->}[r] & g(y) \ar@{|->}[r] & 0 }[/tex]
Occorre verificare che [tex]\delta[/tex] sia ben definita. Supponiamo quindi che [tex]y'[/tex] sia un altro sollevamento di [tex]x[/tex]; sia poi [tex]z' \in B'[/tex] tale che [tex]\beta_1(z') = g(y')[/tex]. Allora [tex]y - y' \in \ker \alpha_2 = \text{Im } \alpha_1[/tex]; sia [tex]w \in A'[/tex] tale che [tex]\alpha_1(w) = y - y'[/tex]. Si ha [tex]\beta_1 (f(w)) = g(\alpha_1(w)) = g(y - y') = g(y) - g(y') = \beta_1(z) - \beta_1(z') = \beta_1(z - z')[/tex]. Siccome [tex]\beta_1[/tex] è iniettiva, otteniamo [tex]z - z' = f(w)[/tex], ossia [tex][z] = [z'][/tex] in [tex]\text{coker }f[/tex].
Controlliamo l'esattezza in [tex]\ker h[/tex]. Innanzi tutto, se [tex]y \in \ker g[/tex], allora [tex]\delta(\alpha_2(y)) = 0[/tex]. Infatti [tex]y[/tex] è un sollevamento di [tex]\alpha_2(y)[/tex] e [tex]g(y) = 0[/tex], quindi [tex]\delta(\alpha_2(y)) = [0][/tex] e di conseguenza [tex]\text{Im } \alpha_2' \subset \ker \delta[/tex]. Se invece [tex]x \in \ker \delta[/tex], allora [tex]\delta(x) = [0][/tex]; siano [tex]y \in \ker g[/tex] un sollevamento di [tex]x[/tex] e sia [tex]z \in B'[/tex] tale che [tex]\beta_1(z) = g(y)[/tex]. Allora [tex]z = f(w)[/tex] per qualche [tex]w \in A'[/tex], da cui [tex]\beta_1(z) = g(\alpha_1(w))[/tex]; pertanto [tex]y - \alpha_1(w) \in \ker g[/tex] e, per di più, [tex]\alpha_2(y - \alpha_1(w)) = \alpha_2(y) = x[/tex], sicché [tex]x \in \text{Im }\alpha_2'[/tex], da cui [tex]\ker \delta = \text{Im } \alpha_2'[/tex].
Controlliamo l'esattezza in [tex]\text{coker } f[/tex]; siano [tex]x,y,z[/tex] come in precedenza. Allora [tex]\overline{\beta_1}(\delta(x)) = \overline{\beta_1}([z]) = [\beta_1(z)] = [g(y)] = [0][/tex], sicché [tex]\text{Im } \delta \subset \ker \overline{\beta_1}[/tex]. Viceversa, supponiamo che [tex][z] \in \ker \overline{\beta_1}[/tex]. Allora [tex]\beta_1(z) \in \text{Im } g[/tex], ossia [tex]\beta_1(z) = g(y)[/tex] per qualche [tex]y \in A[/tex]. Sia [tex]x := \alpha_2(y)[/tex]. Si ha [tex]h(x) = \beta_2(g(y)) = \beta_2(\beta_1(z)) = 0[/tex], quindi [tex]x \in \ker h[/tex] ed inoltre, per costruzione, [tex]\delta(x) = [z][/tex], sicché [tex]\ker \overline{\beta_1} = \text{Im } \delta[/tex]. []
Lemma dei 5. Si consideri il diagramma commutativo di [tex]A[/tex]-moduli e mappe di [tex]A[/tex]-moduli a righe esatte:
[tex]\xymatrix { A_1 \ar[d]^{f_1} \ar[r]^{\alpha} & A_2 \ar[d]^{f_2} \ar[r]^{\beta} & A_3 \ar[d]^{f_3} \ar[r]^{\gamma} & A_4 \ar[d]^{f_4} \ar[r]^{\delta} & A_5 \ar[d]^{f_5} \\ B_1 \ar[r]^{\alpha^\prime} & B_2 \ar[r]^{\beta^\prime} & B_3 \ar[r]^{\gamma^\prime} & B_4 \ar[r]^{\delta^\prime} & B_5 }[/tex]
Se [tex]f_1[/tex] è suriettiva e [tex]f_2[/tex] e [tex]f_4[/tex] sono iniettive, allora [tex]f_3[/tex] è iniettiva. Se invece [tex]f_2[/tex] e [tex]f_4[/tex] sono suriettive e [tex]f_5[/tex] è iniettiva, allora [tex]f_3[/tex] è suriettiva. In particolare, se [tex]f_1,f_2,f_4,f_5[/tex] sono isomorfismi, anche [tex]f_3[/tex] è un isomorfismo.
Dimostrazione. Supponiamo che [tex]f_1[/tex] sia suriettiva e che [tex]f_2,f_4[/tex] siano iniettive. Sia [tex]x \in \ker f_3[/tex]. Abbiamo [tex]0 = \gamma'(f_3(x)) = f_4(\gamma(x))[/tex], quindi siccome [tex]f_4[/tex] è iniettiva, otteniamo [tex]\gamma(x) = 0[/tex]; quindi [tex]x \in \ker \gamma = \text{Im }\beta[/tex]; sia [tex]x = \beta(y)[/tex]; [tex]\beta'(f_2(y)) = f_3(\beta(y)) = 0[/tex], sicché [tex]f_2(y) \in \ker \beta' = \text{Im } \alpha'[/tex], quindi [tex]f_2(y) = \alpha'(z)[/tex]. Siccome [tex]f_1[/tex] è suriettiva, [tex]z = f_1(u)[/tex] e adesso [tex]f_2(y) = \alpha'(f_1(u)) = f_2(\alpha(u))[/tex], da cui [tex]y = \alpha(u) \in \ker \beta[/tex], essendo [tex]f_2[/tex] iniettiva. Pertanto [tex]x = \beta(y) = \beta(\alpha(u)) = 0[/tex] e [tex]f_3[/tex] risulta iniettiva.
Sia ora [tex]x \in B_3[/tex]. Sia [tex]y \in A_4[/tex] tale che [tex]f_4(y) = \gamma'(x)[/tex]. Allora [tex]f_5(\delta(y)) = \delta'(f_4(y)) = \delta'(\gamma'(x)) = 0[/tex], quindi, essendo [tex]f_5[/tex] iniettiva, [tex]y \in \ker \delta = \text{Im } \gamma[/tex]. Sia [tex]z \in A_3[/tex] tale che [tex]\gamma(z) = y[/tex]; avremo [tex]\gamma'(f_3(z)) = f_4(y) = \gamma'(x)[/tex] e pertanto [tex]x - f_3(z) \in \ker \gamma' = \text{Im }\beta'[/tex]. Sia [tex]u \in B_2[/tex] tale che [tex]\beta'(u) = x - f_3(z)[/tex]; sia [tex]w \in A_2[/tex] con [tex]f_2(w) = u[/tex]. Allora [tex]f_3(\beta(w) - z) = \beta'(f_2(w)) - f_3(z) = x - f_3(z) + f_3(z) = x[/tex]. []
Esercizi.
1. "Strong Snake Lemma" o "versione naturale dello Snake Lemma". Supponete di avere il seguente diagramma, commutativo in ogni sua parte:
[tex]\xymatrix{ & & & C_1 \ar[rr]^{\gamma_1} \ar[dd]_(.6){f^\prime} & & C_2 \ar[dd]_(.6){g^\prime} \ar[rr]^{\gamma_2} & & C_3 \ar[rr] \ar[dd]_(.6){h^\prime} & & 0 \\ & & A_1 \ar[dd]^(.4)f \ar[ur]^{k_1} \ar[rr]^(.6){\alpha_1} & & A_2 \ar[ur]^{k_2} \ar[dd]^(.4)g \ar[rr]^(.6){\alpha_2} & & A_3 \ar[ur]^{k_3} \ar[dd]^(.4)h \ar[rr] & & 0 \\ & 0 \ar[rr] & & D_1 \ar[rr]^(.4){\delta_1} & & D_2 \ar[rr]^(.4){\delta_2} & & D_3 \\ 0 \ar[rr] & & B_1 \ar[rr]^{\beta_1} \ar[ur]^{j_1} & & B_2 \ar[ur]^{j_2} \ar[rr]^{\beta_2} & & B_3 \ar[ur]^{j_3} }[/tex]
Mostrate allora che esiste il seguente diagramma commutativo:
[tex]\xymatrix{ \ker f \ar[r] \ar[d] & \ker g \ar[d] \ar[r] & \ker h \ar[r]^\partial \ar[d] & \text{coker } f \ar[d] \ar[r] & \text{coker } g \ar[r] \ar[d] & \text{coker } h \ar[d] \\ \ker f^\prime \ar[r] & \ker g^\prime \ar[r] & \ker h^\prime \ar[r]^\partial & \text{coker } f^\prime \ar[r] & \text{coker } g^\prime \ar[r] & \text{coker } h^\prime }[/tex]
(questo è un risultato assai utile in algebra omologica di base. Lo propongo perché dovrebbe aiutarvi a prendere confidenza con la costruzione esplicita della mappa di bordo dello Snake lemma che talvolta è un po' ostica da digerire)
[/list:u:2x57dnbx]
[size=150]1.2 Il prodotto tensoriale[/size]
Le esigenze a cui risponde il prodotto tensoriale sono molteplici. Spesso viene detto che serve per aggiungere i prodotti formali di elementi di due spazi (eventualmente coincidenti). Questo non ha molto senso o, almeno, non ne ha fintanto che non si introduce l'algebra tensoriale. Non seguirò quest'approccio; lo presenterò come soluzione spontanea di un problema universale legato alla linearizzazione delle mappe.
Per prima cosa, vi invito a convincervi che la solita definizione a cui la maggior parte di voi è abituata di mappa bilineare può essere efficacemente tradotta in questi termini: se [tex]A[/tex] è un anello commutativo, [tex]M,N,P[/tex] sono [tex]A[/tex]-moduli allora una mappa bilineare da [tex]M \times N[/tex] a [tex]P[/tex] è semplicemente un elemento di [tex]\hom_A(M, \hom_A(N,P))[/tex]. Pertanto, poniamo [tex]\text{Bil}(M,N,P) := \hom_A(M,\hom_A(N,P))[/tex]. Ora, per [tex]M,N[/tex] fissati otteniamo un funtore covariante, [tex]\text{Bil}(M,N,-)[/tex] (in quanto composizione di funtori covarianti!). La domanda spontanea è la seguente: questo funtore è forse rappresentabile? Supponiamo che ce l'abbia, ovvero che si abbia un isomorfismo naturale [tex]\varphi_P \colon \hom_A(T,P) \cong \text{Bil}(M,N,P)[/tex] per un certo oggetto [tex]T[/tex]. Qual è la proprietà universale di [tex]T[/tex]? Il lemma di Yoneda ci dice che questo isomorfismo è univocamente determinato da [tex]\eta_{M,N} = \varphi_T(1_T) \in \hom_A(M, \hom_A(N,T))[/tex], ossia una mappa bilineare [tex]\eta_{M,N} \colon M \times N \to T[/tex]. Inoltre, vediamo subito che la proprietà universale è la seguente: se [tex]f \colon M \times N \to P[/tex] è una mappa bilineare di [tex]A[/tex]-moduli allora deve esistere un'unica mappa [tex]\widetilde{f} \colon T \to P[/tex] tale che il diagramma
[tex]\xymatrix{ M \times N \ar[dr]_{f} \ar[r]^-{\eta_{M,N}} & T \ar@{.>}[d]^-{\exists ! \widetilde{f}} \\ & P}[/tex]
sia commutativo. Mostriamo che il funtore è effettivamente rappresentabile.
Teorema. Per ogni anello commutativo [tex]A[/tex], ogni coppia di [tex]A[/tex]-moduli [tex]M,N[/tex] il funtore [tex]\text{Bil}(M,N,-) \colon \mathbf{Mod}_A \to \mathbf{Mod}_A[/tex] è rappresentabile.
Dimostrazione. Si consideri l'[tex]A[/tex]-modulo libero generato da [tex]M \times N[/tex] (pensato come insieme), [tex]A^{(M \times N)}[/tex]. Per sottolineare il fatto che [tex]M \times N[/tex] è pensato come insieme, denoterò i suoi elementi con [tex]m \odot n[/tex]. Allora si consideri il sottomodulo [tex]K[/tex] generato dai seguenti elementi:
[tex]\begin{cases}
(m_1 + m_2) \odot n - m_1 \odot n - m_2 \odot n & m_1, m_2 \in M, \: n \in N \\
m \odot (n_1 + n_2) - m \odot n_1 - m \odot n_2 & m \in M, \: n_1,n_2 \in N \\
(am) \odot n - a(m \odot n) & a \in A, \: m \in M, \: n \in N \\
m \odot (an) - a(m \odot n) & a \in A, \: m \in M, \: n \in N
\end{cases}[/tex]
Si definisca [tex]T := A^{(M \times N)}/K[/tex]. Se [tex]j \colon M \times N \to A^{(M\times N)}[/tex] è l'inserzione dei generatori e [tex]\pi \colon A^{(M \times N)}/K \to T[/tex] è la proiezione canonica, allora è facile verificare che la composizione [tex]\eta_{M,N} := \pi \circ j[/tex] è una mappa di [tex]A[/tex]-moduli. Viene lasciato al lettore il facile (ed utile) esercizio di verificare la proprietà universale. []
Definizione. Se [tex]A \in \mathbf{CRing}[/tex], [tex]M,N \in \mathbf{Mod}_A[/tex] definiamo il prodotto tensoriale di [tex]M[/tex] ed [tex]N[/tex] sopra [tex]A[/tex] come l'unico rappresentante del funtore [tex]\hom_A(M,\hom_A(N,-)) \colon \mathbf{Mod}_A \to \mathbf{Mod}_A[/tex]. Il prodotto tensoriale viene denotato [tex]M \otimes_A N[/tex].
Corollario. Sia [tex]A \in \mathbf{CRing}[/tex] e si fissi [tex]M \in \mathbf{Mod}_A[/tex]. Allora [tex]-\otimes_A M \dashv \hom_A(M,-)[/tex].
Dimostrazione. In sostanza, è la definizione che abbiamo dato. []
Corollario. Per ogni [tex]A \in \mathbf{CRing}[/tex], per ogni [tex]M \in \mathbf{Mod}_A[/tex], il funtore [tex]- \otimes_A M[/tex] è esatto a destra.
Dimostrazione. Infatti, è un aggiunto sinistro. []
Definizione. Sia [tex]A \in \mathbf{CRing}[/tex] e si fissi [tex]M \in \mathbf{Mod}_A[/tex]. Diciamo che [tex]M[/tex] è un [tex]A[/tex]-modulo piatto se [tex]- \otimes_A M[/tex] è un funtore esatto.
Nota. Ci sono più belle caratterizzazioni della piattezza, ma richiedono strumenti di algebra omologica che, per quanto di base, non mi metterò a sviluppare in questa sede. Per chi sa di cosa sto parlando, un modulo è piatto se e solo se è aciclico per il prodotto tensoriale, ossia [tex]\text{Tor}_i^A(M,N) = 0[/tex] per ogni [tex]N \in \mathbf{Mod}_A[/tex] e ogni [tex]i \ge 1[/tex].
Il prossimo teorema è incommensurabilmente importante, anche se la prima volta che lo si legge non se ne afferra immediatamente la portata. Pertanto metto un caveat: il suo significato è quello di dire che [tex](\mathbf{Mod}_A, \otimes_A, A)[/tex] è una categoria monoidale, simmetrica e chiusa. E' utile perché vi risparmia un sacco di conti in molte situazioni (perlopiù di natura strettamente teorica). Posizionato qui è utilissimo perché vi lascerò la maggior parte delle dimostrazioni da fare per esercizio, in modo da costringervi a prendere familiarità con la proprietà universale del prodotto tensoriale (e, badate bene, non avrete bisogno di nient'altro che della proprietà universale).
Teorema. Sia [tex]A \in \mathbf{CRing}[/tex] e siano [tex]M,N,P \in \mathbf{Mod}_A[/tex]. Allora sussistono i seguenti isomorfismi canonici:
1) [tex]A \otimes_A - \cong \text{Id}_{\mathbf{Mod}_A}[/tex], ossia esiste un isomorfismo [tex]A \otimes_A M \cong M[/tex] naturale in [tex]M[/tex];
2) [tex]M \otimes_A N \cong N \otimes_A M[/tex] (naturale in [tex]M,N[/tex]);
3) [tex](M \otimes_A N) \otimes_A P \cong M \otimes_A (N \otimes_A P)[/tex];
[/list:u:2x57dnbx]
Dimostrazione. Facciamo ad esempio la 2). Si consideri [tex]\sigma \colon M \times N \to N \times M[/tex] (adesso questi prodotti sono da pensarsi come [tex]A[/tex]-moduli!) definita da [tex]\sigma(m,n) = (n,m)[/tex]. Allora [tex]\sigma(am_1 + bm_2,n) = (n,am_1 + bm_2) = a (n,m_1) + b(n,m_2) = a \sigma(m_1, n) + b \sigma(m_2,n)[/tex] per ogni [tex]a \in A[/tex], [tex]m_1, m_2 \in M[/tex], [tex]n \in N[/tex]. La linearità nell'altra variabile è identica.Siccome la composizione di mappe bilineari è bilineare, [tex]\eta_{N,M} \circ \sigma[/tex] è bilineare e pertanto questa è una mappa bilineare e di conseguenza fattorizza attraverso il prodotto tensoriale:
[tex]\xymatrix{ M \times N \ar[d]_\sigma \ar[r]^{\eta_{M,N}} & M \otimes_A N \ar@{.>}[d]_{\exists ! s} \\ N \times M \ar[r]^{\eta_{N,M}} & N \otimes_A M }[/tex]
Osserviamo che la proprietà universale ci dice che [tex]s[/tex] è esattamente l'unica mappa a soddisfare [tex]s \circ \eta_{M,N} = \eta_{N,M} \circ \sigma[/tex].
Ora, si consideri invece [tex]\tau \colon N \times M \to M \times N[/tex] definita da [tex]\tau(n,m) = (m,n)[/tex]. Lo stesso ragionamento di prima mostra che [tex]\tau[/tex] fattorizza attraverso il prodotto tensoriale e quindi otteniamo una mappa [tex]t \colon N \otimes_A M \to M \otimes_A N[/tex] caratterizzata [tex]t \circ \eta_{N,M} = \eta_{M,N} \circ \tau[/tex]. Dobbiamo controllare che [tex]s,t[/tex] sono l'una l'inversa dell'altra. Mostriamo ad esempio che [tex]t \circ s = 1_{M \otimes_A N}[/tex]. Consideriamo il seguente diagramma:
[tex]\xymatrix{ M \times N \ar[d]_\sigma \ar[r]^{\eta_{M,N}} & M \otimes_A N \ar[d]^s \\ N \times M \ar[r]^{\eta_{N,M}} \ar[d]^{\tau} & N \otimes_A M \ar[d]^t \\ M \times N \ar[r]^{\eta_{M,N}} & M \otimes_A N }[/tex]
Bene, ma [tex]t \circ s \circ \eta_{M,N} = t \circ \eta_{N,M} \circ \sigma = \eta_{M,N} \circ \tau \circ \sigma = \eta_{M,N} \circ 1_{M \times N} = \eta_{M,N}[/tex] e, d'altronde, [tex]1_{M \otimes_A N} \circ \eta_{M,N} = \eta_{M,N}[/tex]. La proprietà universale mostra allora che [tex]t \circ s = 1_{M \otimes_A N}[/tex]. L'altra composizione è analoga.
Le altre proprietà sono lasciate per esercizio al lettore. []
Vogliamo ora dimostrare alcune proprietà utili che semplificano la notevolmente la vita quando si arriva al fatidico momento: "mi calcoli questo prodotto tensoriale".
Lemma. Sia [tex]A \in \mathbf{CRing}[/tex]. Per ogni ideale [tex]\mathfrak a \in A[/tex] ed ogni [tex]M \in \mathbf{Mod}_A[/tex] si ha un isomorfismo canonico [tex](A / \mathfrak a) \otimes_A M = M / \mathfrak a M[/tex].
Dimostrazione. Si consideri la successione corta esatta
[tex]0 \to \mathfrak a \stackrel{i}{\to} A \to A / \mathfrak a \to 0[/tex]
dove [tex]i \colon \mathfrak a \to A[/tex] è l'inclusione canonica. Tensorizzando con [tex]M[/tex] conserviamo l'esattezza a destra, sicché
[tex]\xymatrix{ \mathfrak a \otimes_A M \ar[r]^{i \otimes 1} & A \otimes_A M \ar[r] & (A / \mathfrak a) \otimes_A M \ar[r] & 0}[/tex]
Identificando [tex]A \otimes_A M[/tex] con [tex]M[/tex] secondo l'isomorfismo canonico [tex]\mu_M \colon A \otimes_A M \to M[/tex] definito sui generatori da [tex]A \otimes_A M \ni a \otimes m \mapsto am \in M[/tex], otteniamo che l'immagine di [tex]\mathfrak a \otimes_A M[/tex] in [tex]M[/tex] secondo la mappa [tex]i \otimes 1[/tex] è precisamente [tex]\mathfrak a M[/tex]. Il cokernel di questa mappa sarà allora [tex]M / \mathfrak a M[/tex]. D'altra parte, l'esattezza della successione mostra che il cokernel è [tex](A / \mathfrak a) \otimes_A M[/tex] e quindi otteniamo l'isomorfismo desiderato (per la proprietà universale del cokernel e il Lemma dei 5). []
Esempi.
[list=1]
[*:2x57dnbx] Si calcoli [tex](\mathbb Z / n \mathbb Z) \otimes_\mathbb{Z} (\mathbb Z / m \mathbb Z)[/tex]. Per il lemma precedente, questo è semplicemente [tex](\mathbb Z / m \mathbb Z) / (n (\mathbb Z / m \mathbb Z))[/tex]. Vediamo allora che se [tex]\text{gcd}(n,m) = d[/tex] allora [tex]n (\mathbb Z / m \mathbb Z) = (d \mathbb Z / m \mathbb Z)[/tex], sicché il terzo teorema di isomorfismo produce [tex](\mathbb Z / n \mathbb Z) \otimes_\mathbb{Z} (\mathbb Z / m \mathbb Z) = \mathbb Z / d \mathbb Z[/tex]. In particolare, se [tex]d = 1[/tex] vediamo che [tex](\mathbb Z / n \mathbb Z) \otimes_\mathbb{Z} (\mathbb Z / m \mathbb Z) = 0[/tex]. Quest'ultima proprietà si poteva tranquillamente controllare a mano: supponiamo [tex]d = 1[/tex]. Allora un generico elemento di [tex](\mathbb Z / n \mathbb Z) \otimes_\mathbb{Z} (\mathbb Z / m \mathbb Z)[/tex] si scrive come [tex][x]_n \otimes_\mathbb{Z} [y]_m = [m m^{-1} x]_n \otimes_\mathbb{Z} [y]_m = [m^{-1} x]_n \otimes_\mathbb{Z} [my]_m = 0[/tex][/*:m:2x57dnbx][/list:o:2x57dnbx]
Esercizi.
[list=1]
[*:2x57dnbx] Sia [tex]A[/tex] un anello e siano [tex]I,J[/tex] due suoi ideali. Dimostrare che [tex]I \cap J = IJ[/tex] se e solo se la mappa [tex]A/I \otimes_A J \to J/I[/tex] data da [tex]\overline{a} \otimes x \mapsto \overline{ax}[/tex] è iniettiva.[/*:m:2x57dnbx]
[*:2x57dnbx] Siano [tex]A,B \in \mathbf{CRing}[/tex] sia [tex]\varphi \colon A \to B[/tex] un morfismo tra di essi. Siano [tex]M,N \in \mathbf{Mod}_A[/tex], [tex]M^\prime, N^\prime \in \mathbf{Mod}_B[/tex], siano [tex]f \colon M \to M^\prime[/tex], [tex]g \colon N \to N^\prime[/tex] due mappe di [tex]A[/tex]-moduli, nel senso che i seguenti diagrammi commutano:
[tex]\xymatrix{ A \times M \ar[r]^-{\mu_{A,M}} \ar[d]^{\varphi \times f} & M \ar[d]^f \\ B \times M^\prime \ar[r]^-{\mu_{B,M^\prime}} & M^\prime } \qquad \xymatrix{ A \times N \ar[r]^-{\mu_{A,N}} \ar[d]^-{\varphi \times g} & N \ar[d]^g \\ B \times N^\prime \ar[r]^-{\mu_{B,N^\prime}} & N^\prime }[/tex]
Mostrare che esiste allora un'unica mappa [tex]f \otimes_{\varphi} g \colon M \otimes_A N \to M^\prime \otimes_B N^\prime[/tex] tale che il diagramma
[tex]\xymatrix{ M \times N \ar[d]^{f \times g} \ar[r]^-{\eta_{M,N}} & M \otimes_A N \ar[d]^{f \otimes_\varphi g} \\ M^\prime \times N^\prime \ar[r]^-{\eta_{M^\prime, N^\prime}} & M^\prime \otimes_B N^\prime }[/tex]
commuti.[/*:m:2x57dnbx]
[*:2x57dnbx] Siano [tex]A,B,C \in \mathbf{CRing}[/tex], [tex]M_1,N_1 \in \mathbf{Mod}_A[/tex], [tex]M_2,N_2 \in \mathbf{Mod}_B[/tex], [tex]M_3,N_3 \in \mathbf{Mod}_C[/tex]. Siano poi [tex]\varphi \colon A \to B[/tex], [tex]\psi \colon B \to C[/tex] mappe di anelli, [tex]f_i \colon M_i \to M_{i+1}[/tex], [tex]g_i \colon N_i \to N_{i+1}[/tex] ([tex]i = 1,2[/tex]). Mostrate che, nelle notazioni dell'esercizio precedente si ha [tex](f_2 \otimes_\psi g_2) \circ (f_1 \otimes_\varphi g_1) = (f_2 \circ f_1) \otimes_{\psi \circ \varphi} (g_2 \circ g_1)[/tex].[/*:m:2x57dnbx][/list:o:2x57dnbx]
avviso che la parte degli esercizi del capitolo 'diagram chasing' ha problemi di visualizzazione...
"maurer":
Definizione. Sia [tex]\{(A_i,f_i)\}_{i \in \mathbb Z}[/tex] una successione di [tex]A[/tex]-moduli. Diremo che questa successione è esatta in posizione [tex]i[/tex] se [tex]\ker f_i = \text{Im}(f_i)[/tex].
c'e' un typo qui? come possono essere uguali $ker$ ed $Im$ di una stessa funzione visto che il primo appartiene al dominio ed il secondo al codominio?
Certamente! Grazie della segnalazione!
"maurer":
Snake lemma. Si consideri il diagramma commutativo di [tex]A[/tex]-moduli e morfismi di [tex]A[/tex]-moduli:
[tex]\xymatrix{ 0 \ar@{.>}[r] & A^\prime \ar[d]^f \ar[r]^{\alpha_1} & A \ar[d]^g \ar[r]^{\alpha_2} & A^{\prime \prime} \ar[d]^h \ar[r] & 0 \\ 0 \ar[r] & B^\prime \ar[r]^{\beta_1} & B \ar[r]^{\beta_2} & B^{\prime \prime} \ar@{.>}[r] & 0}[/tex]
Se le righe sono esatte allora esiste una successione esatta lunga
[tex]\xymatrix{ 0 \ar@{.>}[r] & \ker f \ar[r]^{\alpha_1^\prime} & \ker g \ar[r]^{\alpha_2^\prime} & \ker h \ar[r]^-{\delta} & \text{coker }f \ar[r]^{\overline{\beta_1}} & \text{coker } g \ar[r]^{\overline{\beta_2}} & \text{coker } h \ar@{.>}[r] & 0 }[/tex]
Dimostrazione. Controllare che esistano le successioni esatte [tex]\xymatrix{ 0 \ar@{.>}[r] & \ker f \ar[r] & \ker g \ar[r] & \ker h}[/tex] e [tex]\xymatrix{ \text{coker }f \ar[r] & \text{coker } g \ar[r] & \text{coker } h \ar@{.>}[r] & 0 }[/tex] è un facile esercizio e pertanto viene omesso. Mostreremo la costruzione della mappa di bordo [tex]\delta[/tex] e verificheremo l'esattezza in [tex]\ker h[/tex] [tex]\text{coker } f[/tex].
Faccio il facile esercizio per la riga superiore.
Innanzitutto ci serve verificare che le restrizioni siano ben definite.
Sia [tex]\gamma[/tex] la funzione che va a finire in [tex]A^\prime[/tex] . Abbiamo che [tex]Im \gamma[/tex] e incluso in [tex]Ker f[/tex] . Infatti sia [tex]x\in Im\gamma[/tex] ovvero per esattezza [tex]x\in Ker \alpha _1[/tex]. Allora [tex]\beta_1(f(x))=g(\alpha_1)(x)=0[/tex]. Ma [tex]\beta_1[/tex] e iniettiva e quindi [tex]f(x)=0[/tex] concludendo.
Analogamente se [tex]x\in Ker f[/tex] a medesima equazione [tex]\beta_1(f(x))=g(\alpha_1)(x)=0[/tex] ci dice che [tex]\alpha_1(x) \in Ker g[/tex].
Rimane da verificare che se [tex]x\in Ker g[/tex] allora [tex]\alpha_2(x) \in Ker h[/tex] ma questo segue da [tex]\beta_2(g(x))=h(\alpha_2)(x)=0[/tex].
Rimane da verificare l'esattezza in [tex]Ker f[/tex] ed [tex]Ker g[/tex] delle restrizioni.
Esattezza in [tex]Ker g[/tex]. [tex]Im \alpha_1^\prime[/tex] e incluso in [tex]Ker \alpha_2^\prime[/tex] perche' sono restrizioni dei precedenti morfismi che erano esatti (e dopo due passi si annullavano). Rimane da verificare l'inclusione opposta. Sia [tex]x\in Ker \alpha_2^\prime[/tex], ovvero [tex]x\in Ker \alpha_2[/tex] e [tex]x\in Ker g[/tex]. In particolare quindi [tex]x=\alpha_1(y)[/tex] per qualche y. E' vero che [tex]y\in Ker f[/tex]? ci serve questo per concludere. Ora abbiamo applicando $g$ ad entrambi i membri che [tex]g(x)=g(\alpha_1(y))=\beta_1(f(y))=0[/tex] e per iniettivita' [tex]f(y)=0[/tex] che e' quel che ci serviva.
Esattezza in [tex]Ker f[/tex]. Sappiamo che [tex]Im \gamma[/tex] e incluso in [tex]Ker f[/tex] (dimostrato prima). Ora quindi
[tex]Ker \alpha_1^\prime=Ker \alpha_1\cap Ker f=Im \gamma \cap Ker f=Im \gamma[/tex]
Dovro' rincontrollare bene sembra facilissimo sbagliarsi... ed ho fatto solo una riga!
E' corretto, ma non hai ancora dimestichezza con il ragionamento formale che velocizza molto queste dimostrazioni.
Più semplicemente si può riassumere dicendo: "sono ben definite per la proprietà universale del ker".
Ok, è giusto.
Chi è [tex]\gamma[/tex] nelle tue notazioni? Quello che devi dimostrare qui è che se [tex]\alpha_1[/tex] è iniettiva allora anche [tex]\alpha_1'[/tex] è iniettiva... ma a me sembra che possiamo limitarci a dire "ovvio"!
"Thomas":
Innanzitutto ci serve verificare che le restrizioni siano ben definite.
Sia [tex]\gamma[/tex] la funzione che va a finire in [tex]A^\prime[/tex] . Abbiamo che [tex]Im \gamma[/tex] e incluso in [tex]Ker f[/tex] . Infatti sia [tex]x\in Im\gamma[/tex] ovvero per esattezza [tex]x\in Ker \alpha _1[/tex]. Allora [tex]\beta_1(f(x))=g(\alpha_1)(x)=0[/tex]. Ma [tex]\beta_1[/tex] e iniettiva e quindi [tex]f(x)=0[/tex] concludendo.
Analogamente se [tex]x\in Ker f[/tex] a medesima equazione [tex]\beta_1(f(x))=g(\alpha_1)(x)=0[/tex] ci dice che [tex]\alpha_1(x) \in Ker g[/tex].
Rimane da verificare che se [tex]x\in Ker g[/tex] allora [tex]\alpha_2(x) \in Ker h[/tex] ma questo segue da [tex]\beta_2(g(x))=h(\alpha_2)(x)=0[/tex].
Più semplicemente si può riassumere dicendo: "sono ben definite per la proprietà universale del ker".
"Thomas":
Esattezza in [tex]Ker g[/tex]. [tex]Im \alpha_1^\prime[/tex] e incluso in [tex]Ker \alpha_2^\prime[/tex] perche' sono restrizioni dei precedenti morfismi che erano esatti (e dopo due passi si annullavano). Rimane da verificare l'inclusione opposta. Sia [tex]x\in Ker \alpha_2^\prime[/tex], ovvero [tex]x\in Ker \alpha_2[/tex] e [tex]x\in Ker g[/tex]. In particolare quindi [tex]x=\alpha_1(y)[/tex] per qualche y. E' vero che [tex]y\in Ker f[/tex]? ci serve questo per concludere. Ora abbiamo applicando $g$ ad entrambi i membri che [tex]g(x)=g(\alpha_1(y))=\beta_1(f(y))=0[/tex] e per iniettivita' [tex]f(y)=0[/tex] che e' quel che ci serviva.
Ok, è giusto.
"Thomas":
Esattezza in [tex]Ker f[/tex]. Sappiamo che [tex]Im \gamma[/tex] e incluso in [tex]Ker f[/tex] (dimostrato prima). Ora quindi
[tex]Ker \alpha_1^\prime=Ker \alpha_1\cap Ker f=Im \gamma \cap Ker f=Im \gamma[/tex]
Chi è [tex]\gamma[/tex] nelle tue notazioni? Quello che devi dimostrare qui è che se [tex]\alpha_1[/tex] è iniettiva allora anche [tex]\alpha_1'[/tex] è iniettiva... ma a me sembra che possiamo limitarci a dire "ovvio"!

Esercizio 1 del paragrafo 0.3, comma categorie.
Dato un anello commutativo \(A\), si vuole dimostrare che la categoria delle \(A\)-algebre coincide con la comma categoria \( (A \downarrow \mathbf{CRing})\).
Penso di averlo risolto, anche se mi accorgo solo ora di non essere perfettamente sicuro di sapere cosa intendi quando dici mostrare che questa categoria coincide con quell'altra: è sufficiente trovare una coppia di funtori l'uno inverso dell'altro?
Comunque, si consideri un oggetto \(f \colon A \to B \) di \( ( A \downarrow \mathbf{CRing})\): lo si vuole dotare di una struttura di \(A\)-algebra. Definisco l'operazione di moltiplicazione \(A \times B \to B \) come \( \alpha \cdot \beta := f(\alpha ) \beta \) dove l'ultima moltiplicazione è quella in \(B\). Le verifiche che in tal modo \(B\) è una \(A\)-algebra sono banali e si basano sul fatto che \(f\) è un morfismo di anelli commutativi unitari.
Si consideri ora un morfismo \(k\) di \( ( A \downarrow \mathbf{CRing})\) da \(f \colon A \to B \) a \(g \colon A \to E \): voglio dimostrare che è un morfismo di \(A\)-algebre. Si ha \( k(\alpha \cdot \beta)= k(f(\alpha) \beta)=k(f(\alpha) )k( \beta)=g(\alpha )k( \beta)) = \alpha \cdot k( \beta ) \).
Considero ora una \(A\)-algebra \(B\). Definisco un morfismo di anelli (che poi sarà un oggetto della comma categoria \( ( A \downarrow \mathbf{CRing})\) ) \(f \colon A \to B \) in tal modo: \( \alpha \to f(\alpha) := \alpha \cdot 1_B \).
Sia \(k \colon B \to E \) un morfismo di \(A\)-algebre; considero anche il morfismo di anelli \(g \colon A \to E \) definito come \( \alpha \to g(\alpha) := \alpha \cdot 1_E \).
Per dimostrare che \(k \colon B \to E \) è un morfismo in \( ( A \downarrow \mathbf{CRing})\) bisogna far vedere che \( kf=g\). Si ha \( k(f( \alpha )) = k(\alpha \cdot 1_B ) = \alpha \cdot k (1_B) = \alpha \cdot 1_E = g(\alpha) \).
Grosso modo la soluzione dell'esercizio dovrebbe essere questa ma non sono sicuro che ciò sia sufficiente: maurer, che ne dici?
EDIT: errore di ortografia.
Dato un anello commutativo \(A\), si vuole dimostrare che la categoria delle \(A\)-algebre coincide con la comma categoria \( (A \downarrow \mathbf{CRing})\).
Penso di averlo risolto, anche se mi accorgo solo ora di non essere perfettamente sicuro di sapere cosa intendi quando dici mostrare che questa categoria coincide con quell'altra: è sufficiente trovare una coppia di funtori l'uno inverso dell'altro?
Comunque, si consideri un oggetto \(f \colon A \to B \) di \( ( A \downarrow \mathbf{CRing})\): lo si vuole dotare di una struttura di \(A\)-algebra. Definisco l'operazione di moltiplicazione \(A \times B \to B \) come \( \alpha \cdot \beta := f(\alpha ) \beta \) dove l'ultima moltiplicazione è quella in \(B\). Le verifiche che in tal modo \(B\) è una \(A\)-algebra sono banali e si basano sul fatto che \(f\) è un morfismo di anelli commutativi unitari.
Si consideri ora un morfismo \(k\) di \( ( A \downarrow \mathbf{CRing})\) da \(f \colon A \to B \) a \(g \colon A \to E \): voglio dimostrare che è un morfismo di \(A\)-algebre. Si ha \( k(\alpha \cdot \beta)= k(f(\alpha) \beta)=k(f(\alpha) )k( \beta)=g(\alpha )k( \beta)) = \alpha \cdot k( \beta ) \).
Considero ora una \(A\)-algebra \(B\). Definisco un morfismo di anelli (che poi sarà un oggetto della comma categoria \( ( A \downarrow \mathbf{CRing})\) ) \(f \colon A \to B \) in tal modo: \( \alpha \to f(\alpha) := \alpha \cdot 1_B \).
Sia \(k \colon B \to E \) un morfismo di \(A\)-algebre; considero anche il morfismo di anelli \(g \colon A \to E \) definito come \( \alpha \to g(\alpha) := \alpha \cdot 1_E \).
Per dimostrare che \(k \colon B \to E \) è un morfismo in \( ( A \downarrow \mathbf{CRing})\) bisogna far vedere che \( kf=g\). Si ha \( k(f( \alpha )) = k(\alpha \cdot 1_B ) = \alpha \cdot k (1_B) = \alpha \cdot 1_E = g(\alpha) \).
Grosso modo la soluzione dell'esercizio dovrebbe essere questa ma non sono sicuro che ciò sia sufficiente: maurer, che ne dici?
EDIT: errore di ortografia.
Quando dico che due categorie "coincidono" intendo che c'è un isomorfismo (ossia una coppia di funtori, uno l'inverso dell'altro), che è diverso da chiedere un'equivalenza.
Il tuo procedimento è sostanzialmente corretto; dovresti controllare, ad essere pignoli, che hai definito dei funtori tra le due categorie (e che i due funtori sono uno l'inverso dell'altro), ma è piuttosto chiaro che (e perché) debba funzionare.
Il tuo procedimento è sostanzialmente corretto; dovresti controllare, ad essere pignoli, che hai definito dei funtori tra le due categorie (e che i due funtori sono uno l'inverso dell'altro), ma è piuttosto chiaro che (e perché) debba funzionare.
Ok Maurer!
"maurer":
1. "Strong Snake Lemma" o "versione naturale dello Snake Lemma". Supponete di avere il seguente diagramma, commutativo in ogni sua parte:
[tex]\xymatrix{ & & & C_1 \ar[rr]^{\gamma_1} \ar[dd]_(.6){f^\prime} & & C_2 \ar[dd]_(.6){g^\prime} \ar[rr]^{\gamma_2} & & C_3 \ar[rr] \ar[dd]_(.6){h^\prime} & & 0 \\ & & A_1 \ar[dd]^(.4)f \ar[ur]^{k_1} \ar[rr]^(.6){\alpha_1} & & A_2 \ar[ur]^{k_2} \ar[dd]^(.4)g \ar[rr]^(.6){\alpha_2} & & A_3 \ar[ur]^{k_3} \ar[dd]^(.4)h \ar[rr] & & 0 \\ & 0 \ar[rr] & & D_1 \ar[rr]^(.4){\delta_1} & & D_2 \ar[rr]^(.4){\delta_2} & & D_3 \\ 0 \ar[rr] & & B_1 \ar[rr]^{\beta_1} \ar[ur]^{j_1} & & B_2 \ar[ur]^{j_2} \ar[rr]^{\beta_2} & & B_3 \ar[ur]^{j_3} }[/tex]
Forse bisognerebbe aggiungere l'esattezza delle righe da sinistra a destra.

"maurer":
Mostrate allora che esiste il seguente diagramma commutativo:
[tex]\xymatrix{ \ker f \ar[r] \ar[d] & \ker g \ar[d] \ar[r] & \ker h \ar[r]^\partial \ar[d] & \text{coker } f \ar[d] \ar[r] & \text{coker } g \ar[r] \ar[d] & \text{coker } h \ar[d] \\ \ker f^\prime \ar[r] & \ker g^\prime \ar[r] & \ker h^\prime \ar[r]^\partial & \text{coker } f^\prime \ar[r] & \text{coker } g^\prime \ar[r] & \text{coker } h^\prime }[/tex]
(questo è un risultato assai utile in algebra omologica di base. Lo propongo perché dovrebbe aiutarvi a prendere confidenza con la costruzione esplicita della mappa di bordo dello Snake lemma che talvolta è un po' ostica da digerire)
[/list:u:2yteij66]
A parti errori di battitura e sviste varie, spero che l'impianto generale della dimostrazione abbia senso.

Chissà se maurer è ancora "in ascolto"!
