Maratona problemi algebra lineare
Dato il successo che ha ottenuto recentemente la maratona sui problemi di 'Teoria dei gruppi', ho pensato che fosse il caso di aprire un topic simile, nel quale esporre problemi di algebra lineare.
Valgono le stesse regole, quindi: chi risolve per primo esibisce un nuovo problema, oppure cede la mano... Nella speranza che qualcuno voglia partecipare, posto il primo problema... Pronti, via!
Si consideri lo spazio vettoriale $M_(n,m)(K)$ (matrici con $n$ righe ed $m$ colonne a coefficienti in un campo $K$) (*) sul quale definiamo la seguente relazione (d'equivalenza):
$A sim B <=> EE P in GL_n(K), EE Q in GL_m(K): B=PAQ$
(1) Dare una condizione necessaria e sufficiente affinchè, date due matrici $A$,$B in M_(n,m)(K)$, sia $A sim B$;
(2) Dire quanti elementi ha l'insieme $M_(n,m)(K)$ / $sim$;
Buon lavoro!
EDIT: (*) Sarebbe più corretto, date le richieste del problema, vedere $M_(n,m)(K)$ come $K$-algebra con le operazioni di somma, prodotto per scalare, prodotto di matrici.
Valgono le stesse regole, quindi: chi risolve per primo esibisce un nuovo problema, oppure cede la mano... Nella speranza che qualcuno voglia partecipare, posto il primo problema... Pronti, via!
Si consideri lo spazio vettoriale $M_(n,m)(K)$ (matrici con $n$ righe ed $m$ colonne a coefficienti in un campo $K$) (*) sul quale definiamo la seguente relazione (d'equivalenza):
$A sim B <=> EE P in GL_n(K), EE Q in GL_m(K): B=PAQ$
(1) Dare una condizione necessaria e sufficiente affinchè, date due matrici $A$,$B in M_(n,m)(K)$, sia $A sim B$;
(2) Dire quanti elementi ha l'insieme $M_(n,m)(K)$ / $sim$;
Buon lavoro!
EDIT: (*) Sarebbe più corretto, date le richieste del problema, vedere $M_(n,m)(K)$ come $K$-algebra con le operazioni di somma, prodotto per scalare, prodotto di matrici.
Risposte
Perdonami! Questo fatto era specificato nel testo dell'esercizio!
Grazie per la pazienza!
Grazie per la pazienza!
Posto un tentativo di risoluzione parziale del problema di Martino.
NOTE: indico col simbolo $*$ il prodotto nella $k$-algebra. Quando non è segnalato, il prodotto è quello del $k$-spazio vettoriale (ossia la moltiplicazione per uno scalare).
Preferisco distinguere gli elementi di $V$ dagli elementi di $E$, almeno nelle battute iniziali. Lo farò usando i simboli definiti da Martino. Quindi $v in V$ e ${v} in E$
Ci ha già pensato Pat87...
$j(u_i)^2=j(u_i)*j(u_i)={u_i}*{u_i}=gamma_(i,i)({u_i}uu{u_i})=0_k({u_i})=0_E$
$0_k$ è lo zero del campo $k$, mentre $0_E$ è lo zero dello spazio vettoriale $E$ ($emptyset$)
Se $v=sum_(i=1)^n a_iu_i$, $j(v)^2=j(sum_(i=1)^n a_iu_i)*j(sum_(i=1)^n a_iu_i)=(sum_(i=1)^n a_i{u_i})*(sum_(i=1)^n a_i{u_i})=sum_(1 le i,j le n) a_ia_j{u_i}*{u_j}=sum_(1 le i,j le n) a_ia_jgamma_(i,j)({u_i}uu{u_j})$
quando $i=j$ il prodotto $a_ia_jgamma_(i,j)({u_i}*{u_j})$ si annulla. E' chiaro che, presi $p,q in N$,$p!=q$, i due prodotti $a_pa_q{u_p}*{u_q}$ e $a_pa_q{u_q}*{u_p}$ sono uno l'opposto dell'altro (infatti cambiando l'ordine dei fattori il risultato è lo stesso, però cambiato di segno). Questo mostra che $j(v)^2=0_E$ , $AA v in V$.
Alla luce di quanto visto, $j$ ha le caratteristiche per stare in $Omega$. Rimane da controllare se $*$ induce una struttura di $k$-algebra su $E$. Sono delle semplici verifiche:
(1) Esistenza dell'elemento neutro per $*$ (esso è $emptyset$);
(2) Associatività di $*$;
Sia ${r_1,...,r_k}$ una base di $R$. $f$ è unicamente determinato dall'immagine di una qualsiasi base, ad esempio ${u_1,...,u_n}$. Quindi:
$f(v)=f(sum_(I=1)^na_iu_i)=sum_(j=1)^kb_jr_j$
e l'esistenza di $p$ sembra essere ovvia: dato $v$, $j(v)=sum_(I=1)^na_i{u_i}$, basta chiedere che l'immagine di $j(v)$ attraverso $f$ sia proprio $sum_(j=1)^kb_jr_j$. Quindi $j$ induce un morfismo da $j(V)$ ad $R$, detto $p$.
Per mostrare l'unicità di $p$ occorre osservare che se 2 morfismi coincidono su $j(V)$, allora essi coincidono su tutto $E$. Siano quindi $p$,$q$ due $k$-morfismi definiti come detto, siano $P_1,...,P_(2^N)$ le parti di $N$ e quindi, preso $x in E$, sarà $x=sum_(k=1)^(2^N) alpha_kP_k$. Osserviamo che, per ogni elemento di $E$:
$p(P_j)=p({u_i,...,u_m})=p({u_i}*...*{u_m})=$... ogni elemento di $E$ si ottiene come prodotto di elementi di $j(V)$, ma questo verrà giustificato più avanti...
...$=p({u_i})*...*p({u_m})=$ ... $p$ è $k$-morfismo di anelli, quindi rispetta il prodotto...
...$=q({u_i})*...*q({u_m})=q({u_i}*...*{u_m})=q({u_i,...,u_m})=q(P_j)$. Ora è facile concludere:
$p(x)=p(sum_(k=1)^(2^N) alpha_kP_k)=sum_(k=1)^(2^N) alpha_kp(P_k)=sum_(k=1)^(2^N) alpha_kq(P_k)=q(sum_(k=1)^(2^N) alpha_k(P_k))=q(x)$
(ho usato il fatto precedente, nonchè la linearità di $p$ e $q$...)
Ogni permutazione si decompone in un numero finito di scambi. Ogni "scambio" tra fattori del prodotto ${u_i}*...*{u_m}$ produce un cambio di segno (come si verifica immediatamente, usando la definizione). Quindi è chiara la proposizione.
NOTE: indico col simbolo $*$ il prodotto nella $k$-algebra. Quando non è segnalato, il prodotto è quello del $k$-spazio vettoriale (ossia la moltiplicazione per uno scalare).
Preferisco distinguere gli elementi di $V$ dagli elementi di $E$, almeno nelle battute iniziali. Lo farò usando i simboli definiti da Martino. Quindi $v in V$ e ${v} in E$
"Martino":
Sia $V$ uno spazio vettoriale di dimensione $n$ sul campo $k$. Consideriamo l'insieme $Omega$ delle coppie $(f,R)$ dove $R$ è una $k$-algebra
[ovvero un $k$-spazio vettoriale dotato di un'operazione "prodotto" $R xx R to R$, $(r,s) to r*s$ che estende il prodotto per scalare (ovvero se $a in k$ e $r in R$ allora $ar = a*r$); più in breve, si tratta di un anello $R$ dotato di un omomorfismo di anelli $k to R$ la cui immagine è contenuta nel centro di $R$, ovvero ogni elemento dell'immagine commuta con ogni elemento di $R$.]
e $f:V to R$ è un $k$-morfismo tale che $f(v)^2=0$ per ogni $v in V$.
- Mostrare che se $(f,R)$ è un elemento di $Omega$ allora $f(v)f(w) = - f(w)f(v)$ per ogni $v,w in V$.
Ci ha già pensato Pat87...
"Martino":
Fissiamo una base ${u_1,...,u_n}$ di $V$ su $k$.
Costruiamo ora un particolare elemento di $Omega$. Detti $N={1,...,n}$, $P(N)$ l'insieme delle parti di $N$, consideriamo il $k$-spazio vettoriale $E$ che ammette come base $P(N)$ (ovvero $E=k^{(P(N))}$), e dotiamolo del $k$-morfismo $j:V to E$ che manda $u_i$ in ${u_i}$ (qui mi sono sentito autorizzato ad identificare un indice $i in {1,...,n}$ col corrispondente $u_i$, e così farò eventualmente nel seguito). Ora se $s,t in N$ e $S,T in P(N)$ definiamo
$gamma_{s,t} = 1\ se\ s$gamma_{s,t} = 0\ se\ s=t,$
$gamma_{s,t} = -1\ se\ s>t$.
$gamma_{S,T} = prod_{s in S,t in T} gamma_{s,t}\ se\ S,T ne emptyset,$
$gamma_{S,T} = 1\ se\ S=emptyset\ o\ T=emptyset$.
Definiamo ora il prodotto tra elementi di $P(N)$ nel seguente modo: $ST = gamma_{S,T}(S uu T)$. Estendiamo per linearità il prodotto a tutto $E$ ponendo $(sum_j a_j S_j)(sum_l b_l T_l) = sum_{j,l} a_jb_l S_jT_l$.
- Osservare che $j(u_i)^2=0$ per ogni $i=1,...,n$, e dedurre che $j(v)^2=0$ per ogni $v in V$. Dedurre che $(j,E)$ appartiene a $Omega$.
$j(u_i)^2=j(u_i)*j(u_i)={u_i}*{u_i}=gamma_(i,i)({u_i}uu{u_i})=0_k({u_i})=0_E$
$0_k$ è lo zero del campo $k$, mentre $0_E$ è lo zero dello spazio vettoriale $E$ ($emptyset$)
Se $v=sum_(i=1)^n a_iu_i$, $j(v)^2=j(sum_(i=1)^n a_iu_i)*j(sum_(i=1)^n a_iu_i)=(sum_(i=1)^n a_i{u_i})*(sum_(i=1)^n a_i{u_i})=sum_(1 le i,j le n) a_ia_j{u_i}*{u_j}=sum_(1 le i,j le n) a_ia_jgamma_(i,j)({u_i}uu{u_j})$
quando $i=j$ il prodotto $a_ia_jgamma_(i,j)({u_i}*{u_j})$ si annulla. E' chiaro che, presi $p,q in N$,$p!=q$, i due prodotti $a_pa_q{u_p}*{u_q}$ e $a_pa_q{u_q}*{u_p}$ sono uno l'opposto dell'altro (infatti cambiando l'ordine dei fattori il risultato è lo stesso, però cambiato di segno). Questo mostra che $j(v)^2=0_E$ , $AA v in V$.
Alla luce di quanto visto, $j$ ha le caratteristiche per stare in $Omega$. Rimane da controllare se $*$ induce una struttura di $k$-algebra su $E$. Sono delle semplici verifiche:
(1) Esistenza dell'elemento neutro per $*$ (esso è $emptyset$);
(2) Associatività di $*$;
"Martino":
Chiamiamo $E(V)$ questo spazio $E$ per sottolineare la dipendenza da $V$.
- Mostrare che l'elemento $(j,E(V)) in Omega$ è universale, ovvero è tale che per ogni $(f,R) in Omega$ esiste un unico $k$-morfismo di anelli $p:E(V) to R$ tale che $f = p circ j$. Tale $E(V)$ in quanto universale è unico a meno di isomorfismi compatibili di algebre.
Sia ${r_1,...,r_k}$ una base di $R$. $f$ è unicamente determinato dall'immagine di una qualsiasi base, ad esempio ${u_1,...,u_n}$. Quindi:
$f(v)=f(sum_(I=1)^na_iu_i)=sum_(j=1)^kb_jr_j$
e l'esistenza di $p$ sembra essere ovvia: dato $v$, $j(v)=sum_(I=1)^na_i{u_i}$, basta chiedere che l'immagine di $j(v)$ attraverso $f$ sia proprio $sum_(j=1)^kb_jr_j$. Quindi $j$ induce un morfismo da $j(V)$ ad $R$, detto $p$.
Per mostrare l'unicità di $p$ occorre osservare che se 2 morfismi coincidono su $j(V)$, allora essi coincidono su tutto $E$. Siano quindi $p$,$q$ due $k$-morfismi definiti come detto, siano $P_1,...,P_(2^N)$ le parti di $N$ e quindi, preso $x in E$, sarà $x=sum_(k=1)^(2^N) alpha_kP_k$. Osserviamo che, per ogni elemento di $E$:
$p(P_j)=p({u_i,...,u_m})=p({u_i}*...*{u_m})=$... ogni elemento di $E$ si ottiene come prodotto di elementi di $j(V)$, ma questo verrà giustificato più avanti...
...$=p({u_i})*...*p({u_m})=$ ... $p$ è $k$-morfismo di anelli, quindi rispetta il prodotto...
...$=q({u_i})*...*q({u_m})=q({u_i}*...*{u_m})=q({u_i,...,u_m})=q(P_j)$. Ora è facile concludere:
$p(x)=p(sum_(k=1)^(2^N) alpha_kP_k)=sum_(k=1)^(2^N) alpha_kp(P_k)=sum_(k=1)^(2^N) alpha_kq(P_k)=q(sum_(k=1)^(2^N) alpha_k(P_k))=q(x)$
(ho usato il fatto precedente, nonchè la linearità di $p$ e $q$...)
"Martino":
Identificando gli elementi di $V$ con la loro immagine tramite $j$ (cioè identificando un $v in V$ con $j(v) in E(V)$), osservare che si ha:
- Dato $1 le t le n$, presi $i_1,...,i_t in {1,...,n}$ a due a due distinti si ha $u_{i_1}...u_{i_t} = sgn(sigma) u_{i_{sigma(1)}}...u_{i_{sigma(t)}}$ dove $sigma$ è l'unica permutazione di ${1,...,t}$ tale che $i_{sigma(1)} < ... < i_{sigma(t))$.
Ogni permutazione si decompone in un numero finito di scambi. Ogni "scambio" tra fattori del prodotto ${u_i}*...*{u_m}$ produce un cambio di segno (come si verifica immediatamente, usando la definizione). Quindi è chiara la proposizione.
"Martino":
- $E$ è generato come algebra dai prodotti $u_{i_1}...u_{i_t}$ con $t in {1,...,n}$ e $1 le i_1<...
Usando le notazioni precedenti:
$P_j = {u_(i_1), ... , u_(i_t)} = {u_(i_1)} uu ... uu {u_(i_t)} = {u_(i_1)}* ... *{u_(i_t)}$
Ogni elemento di $E$ è combinazione lineare delle parti di $N$, ciascuna della quali è generata da prodotti tra elementi di $j(V)$.
Prima di proseguire, vediamo se quanto ho scritto è accettabile...
Direi che è accettabile. Rimarco solo una cosa, sull'esistenza di $p$: la posizione $p({u_i}) = f(u_i)$ ben definisce $p$ (perché $p$ dev'essere un morfismo di algebre e quindi basta definirlo su un insieme di generatori di $E(V)$ in quanto algebra), e questo basta.
Bene. Appena ho del tempo (presumibilmente domani) elaboro la seconda parte della soluzione.
Riprendo da dove ho lasciato:
$V^r$ è un sottospazio generato dai prodotti ${u_(i_1)}*...*{u_(i_r)}$, i quali sono in corrispondenza biunivoca con le parti di $N$ formate da $r$ elementi. Ciò significa che la cardinalità di una base di $V^r$ è uguale al numero $s$ delle parti di $N$ con $r$ elementi. Ma, com'è noto, $s=((n),(r))$.
[size=75]Per snellire le notazioni, userò, dove possibile, il simbolo $eta$ in luogo di $eta(L)$[/size]
Dobbiamo controllare che, dalla definizione di $eta$, segue che:
$eta(E(V)) sube E(V)$; basterà allora mostrare che ${v} in E(V) => eta({v}) in E(V)$.
Sia ${v} in E(V)$, quindi ${v}=sum_(i=1)^(2^n)alpha_iP_i$
([size=75]ricordo che $P_i$ è un generico elemento della base scelta di $E(V)$, il quale corrisponde ad una parte di $N$)[/size]
$eta({v})=eta(sum_(i=1)^(2^n)alpha_iP_i)=sum_(i=1)^(2^n)alpha_ieta(P_i)$ [size=75](si chiedeva che $eta$ fosse lineare...)[/size]
ricordando che, se $P_i={u_(j_1),...,u_(j_r)}$, $eta(P_i)={L(u_(j_1))}*...*{L(u_(j_r))}$
cioè $eta(P_i)$ sono, ovviamente, ancora elementi di $E(V)$. Pertanto $eta({v}) in E(V)$.
Forse si chiedeva, in maniera implicita, di mostrare l'unicità di $eta$... E' così, Martino?
Siano $L_1$,$L_2 in End_k(V)$, tramite la posizione del punto precedente si deve mostrare che, $AA {v} in E(V)$:
$eta(L_1 circ L_2)({v})=(eta(L_1) circ eta (L_2))({v})$
suppongo (in questo punto e nei successivi)$ {v}={u_(i_1),...,u_(i_r)}$, nel caso generale ${v}=sum_(i=1)^(2^n)alpha_iP_i$ ci si riconduce a quello che stiamo per studiare, grazie alla linearità delle applicazioni considerate. Dunque:
$eta(L_1 circ L_2)({v})={(L_1 circ L_2)(u_(i_1))}*...*{(L_1 circ L_2)(u_(i_r))}={(L_1(L_2(u_(i_1)))}*...*{(L_1(L_2(u_(i_r)))}=eta(L_1)({L_2(u_(i_1))}*...*{L_2(u_(i_r))})=eta(L_1)(eta(L_2)({u_(i_1)}*...*{u_(i_r)}))=(eta(L_1) circ eta (L_2))({v})$.
Devo mostrare che $eta(id_V)=id_(E(V))$:
$eta(id_V)({v})={id_V(u_(i_1))}*...*{id_V(u_(i_r))}={u_(i_1)}*...*{u_(i_r)}={v}$.
(i) Iniettività di $eta$: faccio vedere che, $AA {v},{w} in E(V)$ , ${v}!={w} => eta({v})!=eta({w})$. Se ${v}$,${w}$ corrispondono ad elementi di $N$ con cardinalità diversa, chiaramente $eta({v})!=eta({w})$ (anch'essi, visti in $N$, hanno cardinalità diversa). Supponiamo quindi ${v}$,${w}$ formati dallo stesso numero di elementi: ${v}={u_(i_1),...,u_(i_r)}$ , ${w}={u_(j_1),...,u_(j_r)}$ allora $eta({v})={L(u_(i_1))}*...*{L(u_(i_r))}$ , $eta({w})={L(u_(j_1))}*...*{L(u_(j_r))}$. Vi sarà un $u_(i_k)$ diverso da tutti i fattori di ${w}$ e, per l'iniettività di $L$, la sua immagine sarà diversa dall'immagine di ogni fattore di ${w}$. Siccome sono generati da fattori diversi, $eta({v})!=eta({w})$.
(ii) Suriettività di $eta$: ogni elemento $x$ di $E(V)$ si scrive come $x=prod_(k=1)^r{u_(i_k)}$ e, $AA k$, esiste l'antimmagine $v_k$ di $u_(i_k)$ attraverso $L$ (sto dicendo che, grazie alla suriettività di $L$, $L(v_k)=u_(i_k)$). E' facile notare che l'elemento $prod_(k=1)^rv_k$ è l'antimmagine di $x$ attraverso $L$.
In altri termini, si deve mostrare che il sottospazio $V^r$ è $L$-stabile, cioè che ${x} in V^r => eta({x}) in V^r$. Ma è un'ovvia osservazione: [size=75]$eta$ "eredità" la linearità di $L$[/size]
$eta({x})=eta(sum_(i=1)^ralpha_iP_i)=(sum_(i=1)^ralpha_ieta(P_i))$ che è il ancora il dato di somme di prodotti formati (al più) da $r$ elementi. Dunque $eta({x}) in V^r$.
Questo fatto si può esprimere dicendo che la restrizione di $eta$ a $V^r$ è un endomorfismo di quel sottospazio... In simboli:
$eta_(|V^r) in End_k(V^r)$
Per quando dimostrato, $eta_(|V^n) in End_k(V^n)$ e $dim_k(V^n) = ((n),(n)) = 1$. Ma gli endomorfismi di sottospazi di dimensione 1 sono, ovviamente, la moltiplicazione per una costante (ogni vettore dev'essere necessariamente mandato in un suo multiplo!).
Quì mi blocco... Qualche hint?!
P.S.: non ho ancora trattato l'ultimo punto, preferisco andare per ordine.
"Martino":
Denotata con $V^r$ (dove $1 le r le n$) la sotto-$k$-algebra di $E(V)$ generata dai prodotti del tipo $u_{i_1}...u_{i_r}$, si ha che $dim_k(V^r) = ((n),(r))$ (osservare che $E(V) = F oplus V oplus V^2 oplus ... oplus V^n$).
$V^r$ è un sottospazio generato dai prodotti ${u_(i_1)}*...*{u_(i_r)}$, i quali sono in corrispondenza biunivoca con le parti di $N$ formate da $r$ elementi. Ciò significa che la cardinalità di una base di $V^r$ è uguale al numero $s$ delle parti di $N$ con $r$ elementi. Ma, com'è noto, $s=((n),(r))$.
"Martino":
Mostrare che se $L:V to V$ è un $k$-endomorfismo di $V$ allora resta definito un endomorfismo di $E(V)$ come $eta(L):E(V) to E(V)$, $eta(L)(u_{i_1}...u_{i_t})=L(u_{i_1})...L(u_{i_t})$ (dove $i_1<...
[size=75]Per snellire le notazioni, userò, dove possibile, il simbolo $eta$ in luogo di $eta(L)$[/size]
Dobbiamo controllare che, dalla definizione di $eta$, segue che:
$eta(E(V)) sube E(V)$; basterà allora mostrare che ${v} in E(V) => eta({v}) in E(V)$.
Sia ${v} in E(V)$, quindi ${v}=sum_(i=1)^(2^n)alpha_iP_i$
([size=75]ricordo che $P_i$ è un generico elemento della base scelta di $E(V)$, il quale corrisponde ad una parte di $N$)[/size]
$eta({v})=eta(sum_(i=1)^(2^n)alpha_iP_i)=sum_(i=1)^(2^n)alpha_ieta(P_i)$ [size=75](si chiedeva che $eta$ fosse lineare...)[/size]
ricordando che, se $P_i={u_(j_1),...,u_(j_r)}$, $eta(P_i)={L(u_(j_1))}*...*{L(u_(j_r))}$
cioè $eta(P_i)$ sono, ovviamente, ancora elementi di $E(V)$. Pertanto $eta({v}) in E(V)$.
Forse si chiedeva, in maniera implicita, di mostrare l'unicità di $eta$... E' così, Martino?
"Martino":
Mostrare che $eta(L_1 L_2) = eta(L_1) eta(L_2)$.
Siano $L_1$,$L_2 in End_k(V)$, tramite la posizione del punto precedente si deve mostrare che, $AA {v} in E(V)$:
$eta(L_1 circ L_2)({v})=(eta(L_1) circ eta (L_2))({v})$
suppongo (in questo punto e nei successivi)$ {v}={u_(i_1),...,u_(i_r)}$, nel caso generale ${v}=sum_(i=1)^(2^n)alpha_iP_i$ ci si riconduce a quello che stiamo per studiare, grazie alla linearità delle applicazioni considerate. Dunque:
$eta(L_1 circ L_2)({v})={(L_1 circ L_2)(u_(i_1))}*...*{(L_1 circ L_2)(u_(i_r))}={(L_1(L_2(u_(i_1)))}*...*{(L_1(L_2(u_(i_r)))}=eta(L_1)({L_2(u_(i_1))}*...*{L_2(u_(i_r))})=eta(L_1)(eta(L_2)({u_(i_1)}*...*{u_(i_r)}))=(eta(L_1) circ eta (L_2))({v})$.
"Martino":
$eta(1)=1$
Devo mostrare che $eta(id_V)=id_(E(V))$:
$eta(id_V)({v})={id_V(u_(i_1))}*...*{id_V(u_(i_r))}={u_(i_1)}*...*{u_(i_r)}={v}$.
"Martino":
Se $L$ è biiettiva allora $eta(L)$ è biiettiva.
(i) Iniettività di $eta$: faccio vedere che, $AA {v},{w} in E(V)$ , ${v}!={w} => eta({v})!=eta({w})$. Se ${v}$,${w}$ corrispondono ad elementi di $N$ con cardinalità diversa, chiaramente $eta({v})!=eta({w})$ (anch'essi, visti in $N$, hanno cardinalità diversa). Supponiamo quindi ${v}$,${w}$ formati dallo stesso numero di elementi: ${v}={u_(i_1),...,u_(i_r)}$ , ${w}={u_(j_1),...,u_(j_r)}$ allora $eta({v})={L(u_(i_1))}*...*{L(u_(i_r))}$ , $eta({w})={L(u_(j_1))}*...*{L(u_(j_r))}$. Vi sarà un $u_(i_k)$ diverso da tutti i fattori di ${w}$ e, per l'iniettività di $L$, la sua immagine sarà diversa dall'immagine di ogni fattore di ${w}$. Siccome sono generati da fattori diversi, $eta({v})!=eta({w})$.
(ii) Suriettività di $eta$: ogni elemento $x$ di $E(V)$ si scrive come $x=prod_(k=1)^r{u_(i_k)}$ e, $AA k$, esiste l'antimmagine $v_k$ di $u_(i_k)$ attraverso $L$ (sto dicendo che, grazie alla suriettività di $L$, $L(v_k)=u_(i_k)$). E' facile notare che l'elemento $prod_(k=1)^rv_k$ è l'antimmagine di $x$ attraverso $L$.
"Martino":
Mostrare che se $L:V to V$ è $k$-lineare allora $eta(L)V^r subseteq V^r$ per ogni $r in {1,...,n}$.
In altri termini, si deve mostrare che il sottospazio $V^r$ è $L$-stabile, cioè che ${x} in V^r => eta({x}) in V^r$. Ma è un'ovvia osservazione: [size=75]$eta$ "eredità" la linearità di $L$[/size]
$eta({x})=eta(sum_(i=1)^ralpha_iP_i)=(sum_(i=1)^ralpha_ieta(P_i))$ che è il ancora il dato di somme di prodotti formati (al più) da $r$ elementi. Dunque $eta({x}) in V^r$.
Questo fatto si può esprimere dicendo che la restrizione di $eta$ a $V^r$ è un endomorfismo di quel sottospazio... In simboli:
$eta_(|V^r) in End_k(V^r)$
"Martino":
Dedurre che $eta(L)$ ristretto a $V^n$ è la moltiplicazione per una costante. Mostrare che tale costante è il determinante di $L$.
Per quando dimostrato, $eta_(|V^n) in End_k(V^n)$ e $dim_k(V^n) = ((n),(n)) = 1$. Ma gli endomorfismi di sottospazi di dimensione 1 sono, ovviamente, la moltiplicazione per una costante (ogni vettore dev'essere necessariamente mandato in un suo multiplo!).
Quì mi blocco... Qualche hint?!
P.S.: non ho ancora trattato l'ultimo punto, preferisco andare per ordine.
"Dorian":
[quote="Martino"]Mostrare che se $L:V to V$ è un $k$-endomorfismo di $V$ allora resta definito un endomorfismo di $E(V)$ come $eta(L):E(V) to E(V)$, $eta(L)(u_{i_1}...u_{i_t})=L(u_{i_1})...L(u_{i_t})$ (dove $i_1<...
[size=75]Per snellire le notazioni, userò, dove possibile, il simbolo $eta$ in luogo di $eta(L)$[/size]
Dobbiamo controllare che, dalla definizione di $eta$, segue che:
$eta(E(V)) sube E(V)$; basterà allora mostrare che ${v} in E(V) => eta({v}) in E(V)$.
Sia ${v} in E(V)$, quindi ${v}=sum_(i=1)^(2^n)alpha_iP_i$
([size=75]ricordo che $P_i$ è un generico elemento della base scelta di $E(V)$, il quale corrisponde ad una parte di $N$)[/size]
$eta({v})=eta(sum_(i=1)^(2^n)alpha_iP_i)=sum_(i=1)^(2^n)alpha_ieta(P_i)$ [size=75](si chiedeva che $eta$ fosse lineare...)[/size]
ricordando che, se $P_i={u_(j_1),...,u_(j_r)}$, $eta(P_i)={L(u_(j_1))}*...*{L(u_(j_r))}$
cioè $eta(P_i)$ sono, ovviamente, ancora elementi di $E(V)$. Pertanto $eta({v}) in E(V)$.
Forse si chiedeva, in maniera implicita, di mostrare l'unicità di $eta$... E' così, Martino?[/quote]
Non so cosa intendi con unicità. Comunque no, va bene così, in realtà si trattava solo di convincersi che quel $\eta(L)$ è un endomorfismo di $E(V)$.
Quì mi blocco... Qualche hint?!
Scrivi $Lu_i = \sum_j l_{ij}u_j$, definisci $Lambda = (l_{ij})_{i,j}$, scrivi $\eta(L)(u_1...u_n) = Delta u_1...u_n$, fai un po' di conti e deduci che $Delta = det(\Lambda)$.
"Martino":
Scrivi $Lu_i = \sum_j l_{ij}u_j$, definisci $Lambda = (l_{ij})_{i,j}$, scrivi $\eta(L)(u_1...u_n) = Delta u_1...u_n$, fai un po' di conti e deduci che $Delta = det(\Lambda)$.
Ci penserò... Grazie per la dritta.
Per il resto, tutto ok? Qualche imprecisione? Qualcosa che non torna?
"Martino":
definisci $Lambda = (l_{ij})_{i,j}$
Che significa? $Lambda$ è l'insieme delle coordinate di $L(u_i)$ rispetto alla base ${u_1,...,u_n}$?
EDIT: ho capito, come non detto.
"Martino":
$\eta(L)(u_1...u_n) = Delta u_1...u_n$
Come posso dedurre $Delta=det$?. In tal caso abbiamo un vettore di $E(V)$ a primo membro, un numero al secondo. Cioè due oggetti palesemente diversi...
Cosa mi sfugge?
"Dorian":
[quote="Martino"]
$\eta(L)(u_1...u_n) = Delta u_1...u_n$
Come posso dedurre $Delta=det$?. In tal caso abbiamo un vettore di $E(V)$ a primo membro, un numero al secondo. Cioè due oggetti palesemente diversi...
Cosa mi sfugge?[/quote]
Devi cominciare a scrivere $Delta u_1...u_n = \eta(L)(u_1...u_n) = L(u_1)...L(u_n)$ ecc. ecc.
Ci sono. Non vedevo la soluzione perchè mi sfuggiva la definizione di determinante... Eccola.
Sia $A$ una matrice di ordine $n$. Si pone:
$det(A)$ := $sum_(sigma in S_n) sgn(sigma)prod_(i=1)^n a_(i,sigma_(i))$ ove $S$ := ${sigma:N->N$ | $sigma$ è biiettiva$ }$.
Sia $x = {u_1,...,u_n} in E(V)$, $L in End_k(V)$ , $eta in End_k(E(V))$ (al solito $eta$:=$eta(L)$)
$eta(x)=eta({u_1,...,u_n})=eta({u_1}*...*{u_n})={L(u_1)}*...*{L(u_n)}={sum_(k=1)^nalpha_(i,1)u_i}*...*{sum_(k=1)^nalpha_(i,n)u_i}$.
Calcolando, ad esempio, il primo prodotto si ottiene:
$sum_(j,i)alpha_(j_1)alpha_(i,1){u_j}*{u_i}$
Svolgendo tutti i prodotti, otterremo ancora l'elemento ${u_1,...,u_n}$ (mostrato prima) moltiplicato per un coefficiente del campo $k$. Come si vede, questo coefficiente è dato dalla somma di tutti i prodotti ottenuti moltiplicando insiemi di $n$ entrate della matrice $Lambda$ di $L$ rispetto alla base ${u_1,...,u_n}$ (stando alle nostre notazioni, $Lambda$ := $(alpha_(i,j))_(i,j in {1,...,n})$).
E' comprensibile? Dimmi se posso proseguire...
Sia $A$ una matrice di ordine $n$. Si pone:
$det(A)$ := $sum_(sigma in S_n) sgn(sigma)prod_(i=1)^n a_(i,sigma_(i))$ ove $S$ := ${sigma:N->N$ | $sigma$ è biiettiva$ }$.
Sia $x = {u_1,...,u_n} in E(V)$, $L in End_k(V)$ , $eta in End_k(E(V))$ (al solito $eta$:=$eta(L)$)
$eta(x)=eta({u_1,...,u_n})=eta({u_1}*...*{u_n})={L(u_1)}*...*{L(u_n)}={sum_(k=1)^nalpha_(i,1)u_i}*...*{sum_(k=1)^nalpha_(i,n)u_i}$.
Calcolando, ad esempio, il primo prodotto si ottiene:
$sum_(j,i)alpha_(j_1)alpha_(i,1){u_j}*{u_i}$
Svolgendo tutti i prodotti, otterremo ancora l'elemento ${u_1,...,u_n}$ (mostrato prima) moltiplicato per un coefficiente del campo $k$. Come si vede, questo coefficiente è dato dalla somma di tutti i prodotti ottenuti moltiplicando insiemi di $n$ entrate della matrice $Lambda$ di $L$ rispetto alla base ${u_1,...,u_n}$ (stando alle nostre notazioni, $Lambda$ := $(alpha_(i,j))_(i,j in {1,...,n})$).
E' comprensibile? Dimmi se posso proseguire...
"Dorian":
E' comprensibile?
Sì, ma non mi sembra che hai finito di dimostrare che $Delta = det$, no? Hai dedotto che $Delta$ è una somma di prodotti ma ti manca la discussione del segno, o forse l'hai sottintesa?
"Martino":
[quote="Dorian"]E' comprensibile?
Sì, ma non mi sembra che hai finito di dimostrare che $Delta = det$, no? Hai dedotto che $Delta$ è una somma di prodotti ma ti manca la discussione del segno, o forse l'hai sottintesa?[/quote]
Beh, dovrebbe dipendere dalla proprietà di prima... Dato un prodotto, ogni scambio produce un cambiamento del segno... Similmente, scambiando due argomenti, la funzione $det$ cambia segno... Ti riferivi a questo?
Siamo giunti all'ultimo punto: dedurre il teorema di Binet. Per fare ciò dobbiamo utilizzare un risultato dimostrato in precedenza: $eta(L_1 circ L_2)=eta(L_1) circ eta(L_2)$.
$det(L_1)det(L_2){u_1}*...*{u_n})=eta(L_1)(det(L_2){u_1}*...*{u_n})=eta(L_1) circ eta(L_2)({u_1}*...*{u_n})=eta(L_1 circ L_2)({u_1}*...*{u_n})=det(L_1 circ L_2){u_1}*...*{u_n}$
@Martino: Fine?
$det(L_1)det(L_2){u_1}*...*{u_n})=eta(L_1)(det(L_2){u_1}*...*{u_n})=eta(L_1) circ eta(L_2)({u_1}*...*{u_n})=eta(L_1 circ L_2)({u_1}*...*{u_n})=det(L_1 circ L_2){u_1}*...*{u_n}$
@Martino: Fine?
Fine 
Azzi, non metterò mai più un problema così lungo

Azzi, non metterò mai più un problema così lungo

Si, soprattutto perchè, almeno per me, non è stato immediato capire cosa chiedeva il problema!
Comunque si tratta di un Signor Esercizio, che consiglio a chi, come me, ha cominciato il secondo anno di Matematica... E' un maxi-ripasso, centrato sui principali argomenti del primo anno!
Ora tocca a me postare un problema...!
Comunque si tratta di un Signor Esercizio, che consiglio a chi, come me, ha cominciato il secondo anno di Matematica... E' un maxi-ripasso, centrato sui principali argomenti del primo anno!
Ora tocca a me postare un problema...!
Consideriamo $A in M_n(M_m(K))$; cioè $A$ è una matrice d’ordine $n$ le cui entrate sono matrici $A_(i,j) in M_m(K)$ d’ordine $m$ e supponiamo che tutte queste matrici commutino tra loro (a due a due): diciamo che $A$ è una matrice a blocchi quadrati commutanti. Sia $B in M_(mn)(K)$ la matrice che si ottiene da $A$ “dimenticando la divisione in blocchi”.
(1) Si mostri che $det(det(A)) = det(B)$ (a sinistra, si noti che $det(A) in M_m(K)$, cioè è una matrice);
(2) Dedurne che $det(p_A(X)) = p_B(X)$;
(nota: $p_A(X)$ è il polinomio caratteristico della matrice $A$)
(1) Si mostri che $det(det(A)) = det(B)$ (a sinistra, si noti che $det(A) in M_m(K)$, cioè è una matrice);
(2) Dedurne che $det(p_A(X)) = p_B(X)$;
(nota: $p_A(X)$ è il polinomio caratteristico della matrice $A$)
Richiesta di precisazione:
Siano $R$ è un anello e $ A in M_n(R) $ una matrice con le entrate in $R$.
Come è definito il determinante di $A$?
Posso dire che [size=150]$det(A) := sum_(sigma in mathfrak(S)_n) (-1)^sigma prod_(i=1)^n a_(i,sigma(i))$[/size] ?
Siano $R$ è un anello e $ A in M_n(R) $ una matrice con le entrate in $R$.
Come è definito il determinante di $A$?
Posso dire che [size=150]$det(A) := sum_(sigma in mathfrak(S)_n) (-1)^sigma prod_(i=1)^n a_(i,sigma(i))$[/size] ?
"NightKnight":
Richiesta di precisazione:
Siano $R$ è un anello e $ A in M_n(R) $ una matrice con le entrate in $R$.
Come è definito il determinante di $A$?
Posso dire che [size=150]$det(A) := sum_(sigma in mathfrak(S)_n) (-1)^sigma prod_(i=1)^n a_(i,sigma(i))$[/size] ?
No.
$det(A) := sum_(sigma in mathfrak(S)_n)sgn(sigma)prod_(i=1)^n A_(i,sigma(i))$
dove $A_(i,j)$ è una matrice di ordine $m$, corrispondente all'entrata di posto $(i,j)$ di $A$.