Dimensione del prodotto diretto
Dimostrare l'identità \(\displaystyle \dim(V\times U)=\dim V+\dim U \) (ultimo esercizio di oggi!). Premettendo che credo si possa facilmente generalizzare all'identità \[\displaystyle \dim\prod_{j=1}^nV_j=\sum_{j=1}^n \dim V_j \] mi occupo del caso più specifico. Il generico elemento di \(\displaystyle V\times U \) è la coppia \(\displaystyle (\mathbf{v},\mathbf{u}) \). Se \(\displaystyle \mathcal{B}_V=\{\mathbf{v}_n,...,\mathbf{v}_n\}\) è una base di $V$ e \(\displaystyle \mathcal{B}_U= \{\mathbf{u}_1,...,\mathbf{u}_m\}\) è una base di $U$, allora tale vettore può essere scritto come combinazioni lineari dei vettori di queste due basi, ovvero \[\displaystyle (\alpha_1\mathbf{v}_n+...+\alpha_n\mathbf{v}_n, \beta_1\mathbf{u}_1+...+\beta_m\mathbf{u}_m) \] E' abbastanza intuitivo ora che per rappresentare questo vettore mi servono \(\displaystyle n+m \) coordinate... però non sono certo su come mostrarlo formalmente. Forse si fa con una riscrittura un po' più significativa?
Risposte
Sì, è vero che si può generalizzare. Prova a dimostrarlo:
Il modo più efficiente di dimostrarlo è mostrare che i due oggetti hanno la stessa proprietà universale; ciò significa che (nel caso $n=2$, generalizza tu al caso arbitrario e finito) esiste una coppia di mappe \(p_V : V\to V\times W \leftarrow W : p_W\) tali che per ogni altro spazio vettoriale $Z$ con mappe \(q_V : V\to Z\leftarrow W : q_W\) esista un'unica mappa lineare \(\varphi : V\times W\to \) tale che \(\varphi p_V = q_V, \varphi p_W = q_W\):
Se \(I = \{1,...,n\}\) è un insieme finito, e \(\{V_i \mid i\in I\}\) è una famiglia di spazi vettoriali, la somma diretta \(\bigoplus_{i\in I} V_i\) è isomorfa al prodotto \(\prod_{i\in I}V_i\).
Il modo più efficiente di dimostrarlo è mostrare che i due oggetti hanno la stessa proprietà universale; ciò significa che (nel caso $n=2$, generalizza tu al caso arbitrario e finito) esiste una coppia di mappe \(p_V : V\to V\times W \leftarrow W : p_W\) tali che per ogni altro spazio vettoriale $Z$ con mappe \(q_V : V\to Z\leftarrow W : q_W\) esista un'unica mappa lineare \(\varphi : V\times W\to \) tale che \(\varphi p_V = q_V, \varphi p_W = q_W\):
- [tex]\xymatrix{
& Z& \\
V \ar[r]_-{p_V} \ar[ur]^{q_V}& V\times W \ar@{.>}_\varphi & \ar[l]^-{p_W}\ar[ul]_{q_W}W
}[/tex][/list:u:3njaopm2]
(per quale motivo, se \(V\times W\) soddisfa questa proprietà, allora è isomorfo a \(V\oplus W\)?)
Cos'è quella roba triangolare? Sembra affascinante!
Comunque, sebbene sappia cosa sia un isomorfismo, tecnicamente non ci sono ancora arrivato, e soprattutto non riesco molto a capire questa storia della proprietà universale
mi sento un po' scoraggiato adesso...
O meglio, credo di aver capito la tua definizione, ma non saprei come muovermi per mostrarlo. Magari qualche altra dritta farebbe comodo!
Diciamo che per il momento mi sarei accontentato di capire come chiudere la mia dimostrazione, ecco, ma comunque apprezzo il tuo post killing_buddha.
Comunque, sebbene sappia cosa sia un isomorfismo, tecnicamente non ci sono ancora arrivato, e soprattutto non riesco molto a capire questa storia della proprietà universale

O meglio, credo di aver capito la tua definizione, ma non saprei come muovermi per mostrarlo. Magari qualche altra dritta farebbe comodo!
Diciamo che per il momento mi sarei accontentato di capire come chiudere la mia dimostrazione, ecco, ma comunque apprezzo il tuo post killing_buddha.
"Uomo Grasso":
Cos'è quella roba triangolare? Sembra affascinante!
La prima dose è sempre gratis.
perdonalo..
per prima cosa vediamo che struttura ha $VtimesW$. Definiamo in $VtimesW$ le seguenti operazioni:
- $(v_1,w_1)+(v_2,w_2):=(v_1+v_2,w_1+w_2)$
- $lambda*(v,w):=(lambdav,lambdaw)$
puoi mostrare che le seguenti operazioni definite su $VtimesW$ gli danno una struttura di $K$ spazio vettoriale.
Ora vogliamo vedere come costruire una base di $VtimesW$
Mostriamo che se $dimV=n,dimW=m => dim(VtimesW)=dimV+dimW$
fissiamo $B_V={v_1,...,v_n}$ e $B_W={w_1,...,w_m}$ che avendo $V,W$ dimensione finita, esistono sicuramente.
Mostriamo che l'insieme ${(v_1,0_W),...,(v_n,0_W)}cup{(0_V,w_1),...,(0_V,w_m)}$ è una base di $VtimesW$
chiaramente se $(v,w) inVtimesW => (v,w)=(sum_(j=1)^(n)v_j,sum_(k=1)^(m)w_k)=sum_(j=1)^(n)(v_j,0_W)+sum_(k=1)^(m)(0_V,w_k)$
quindi forniscono un sistema di generatori per $VtimesW$
ora siano $lambda_1,...,lambda_n$ e $mu_1,...,mu_m$ scalari.
$sum_(j=1)^(n)lambda_j(v_j,0_W)+sum_(k=1)^(m)mu_k(0_V,w_k)=(sum_(j=1)^(n)lambda_jv_j,sum_(k=1)^(m)mu_kw_k)=(0_V,0_W)$
chiaramente questo è vero se e solo se ${(sum_(j=1)^(n)lambda_jv_j=0_V),(sum_(k=1)^(m)mu_kw_k=0_W):}$
visto che quei vettori sono linearmente indipendenti, gli scalari risultano tutti nulli.
Pertanto quella è una base di $VtimesW$ e conta esattamente $n+m$ vettori.
Chiaramente se estendi il concetto a una famiglia $F={V_i:i inI_k}$ con $I_k={1,...,k}$
Consideriamo $prod_(i inI_k)V_i:=V_1times...timesV_k$ definendo su di esso le analoghe operazioni.
- $(v_1,v_2,...,v_n)+(w_1,w_2,...,w_n):=(v_1+w_1,v_2+w_2,...,v_n+w_m)$
- $lambda*(v_1,v_2,...,v_n):=(lambda_1v_1,lambda_2v_2,...,lambda_nv_n)$
si dota $prod_(i inI_k)V_i$ di una struttura di $K$ spazio.
considerando che $(v_1,v_2,...,v_k)=(v_1,0_(V_2),...,0_(V_k))+...+(0_(V_1),0_(V_2),...,v_k)$
generalizzi facilmente quello che si è trovato, ma la cosa più carina è che
$prod_(i inI_k)V_icongunderbrace(RR^ntimesRR^ntimes...timesRR^n)_(k)congRR^(n*k)$
Come lo mostreresti mostreresti la generalizzazione?
per prima cosa vediamo che struttura ha $VtimesW$. Definiamo in $VtimesW$ le seguenti operazioni:
- $(v_1,w_1)+(v_2,w_2):=(v_1+v_2,w_1+w_2)$
- $lambda*(v,w):=(lambdav,lambdaw)$
puoi mostrare che le seguenti operazioni definite su $VtimesW$ gli danno una struttura di $K$ spazio vettoriale.
Ora vogliamo vedere come costruire una base di $VtimesW$
Mostriamo che se $dimV=n,dimW=m => dim(VtimesW)=dimV+dimW$
fissiamo $B_V={v_1,...,v_n}$ e $B_W={w_1,...,w_m}$ che avendo $V,W$ dimensione finita, esistono sicuramente.
Mostriamo che l'insieme ${(v_1,0_W),...,(v_n,0_W)}cup{(0_V,w_1),...,(0_V,w_m)}$ è una base di $VtimesW$
chiaramente se $(v,w) inVtimesW => (v,w)=(sum_(j=1)^(n)v_j,sum_(k=1)^(m)w_k)=sum_(j=1)^(n)(v_j,0_W)+sum_(k=1)^(m)(0_V,w_k)$
quindi forniscono un sistema di generatori per $VtimesW$
ora siano $lambda_1,...,lambda_n$ e $mu_1,...,mu_m$ scalari.
$sum_(j=1)^(n)lambda_j(v_j,0_W)+sum_(k=1)^(m)mu_k(0_V,w_k)=(sum_(j=1)^(n)lambda_jv_j,sum_(k=1)^(m)mu_kw_k)=(0_V,0_W)$
chiaramente questo è vero se e solo se ${(sum_(j=1)^(n)lambda_jv_j=0_V),(sum_(k=1)^(m)mu_kw_k=0_W):}$
visto che quei vettori sono linearmente indipendenti, gli scalari risultano tutti nulli.
Pertanto quella è una base di $VtimesW$ e conta esattamente $n+m$ vettori.
Chiaramente se estendi il concetto a una famiglia $F={V_i:i inI_k}$ con $I_k={1,...,k}$
Consideriamo $prod_(i inI_k)V_i:=V_1times...timesV_k$ definendo su di esso le analoghe operazioni.
- $(v_1,v_2,...,v_n)+(w_1,w_2,...,w_n):=(v_1+w_1,v_2+w_2,...,v_n+w_m)$
- $lambda*(v_1,v_2,...,v_n):=(lambda_1v_1,lambda_2v_2,...,lambda_nv_n)$
si dota $prod_(i inI_k)V_i$ di una struttura di $K$ spazio.
considerando che $(v_1,v_2,...,v_k)=(v_1,0_(V_2),...,0_(V_k))+...+(0_(V_1),0_(V_2),...,v_k)$
generalizzi facilmente quello che si è trovato, ma la cosa più carina è che
$prod_(i inI_k)V_icongunderbrace(RR^ntimesRR^ntimes...timesRR^n)_(k)congRR^(n*k)$
Come lo mostreresti mostreresti la generalizzazione?
@killing_buddha, va bene che i matematici non hanno pudore... ma spacciare così, alla luce del sole!
Ciao, anto. Come arrivi a scrivere quest'uguaglianza?
$ (v,w) inVtimesW => (v,w)=(sum_(j=1)^(n)v_j,sum_(k=1)^(m)w_k)=sum_(j=1)^(n)(v_j,0_W)+sum_(k=1)^(m)(0_V,w_k) $
La coppia $(v,w)$ è equivalente alla coppia di coppie $(v,0),(0,w)$? Probabilmente è questo che cercavo parlando di riscrittura significativa, ma non capisco come sia possibile. Probabilmente è una stupidaggine!
Invece ci sono due cose che non mi sono chiare in quest'altro passaggio:
$ prod_(i inI_k)V_icongunderbrace(RR^ntimesRR^ntimes...timesRR^n)_(k)congRR^(n*k) $
Il secondo segno dovrebbe essere un'uguaglianza, no? Mentre perché mai se $V$ è uno spazio qualsiasi dovrebbe essere isomorfo a $RR^n$?
Ciao!
Ciao, anto. Come arrivi a scrivere quest'uguaglianza?
$ (v,w) inVtimesW => (v,w)=(sum_(j=1)^(n)v_j,sum_(k=1)^(m)w_k)=sum_(j=1)^(n)(v_j,0_W)+sum_(k=1)^(m)(0_V,w_k) $
La coppia $(v,w)$ è equivalente alla coppia di coppie $(v,0),(0,w)$? Probabilmente è questo che cercavo parlando di riscrittura significativa, ma non capisco come sia possibile. Probabilmente è una stupidaggine!
Invece ci sono due cose che non mi sono chiare in quest'altro passaggio:
$ prod_(i inI_k)V_icongunderbrace(RR^ntimesRR^ntimes...timesRR^n)_(k)congRR^(n*k) $
Il secondo segno dovrebbe essere un'uguaglianza, no? Mentre perché mai se $V$ è uno spazio qualsiasi dovrebbe essere isomorfo a $RR^n$?
Ciao!
"Uomo Grasso":
$ prod_(i inI_k)V_icongunderbrace(RR^ntimesRR^ntimes...timesRR^n)_(k)congRR^(n*k) $
Forse intendevi $ prod_(i inI_k)V_icongunderbrace(RR^{n_1}timesRR^{n_2}times...timesRR^{n_k})_(k)congRR^(\sum n_i) $?
Il secondo segno dovrebbe essere un'uguaglianza, no? Mentre perché mai se $V$ è uno spazio qualsiasi dovrebbe essere isomorfo a $RR^n$?
Non e' vero che per ogni $V$ di dimensione finita esiste un $n$ tale che $V = RR^n$; e' pero' vero che per ogni $V$ di dimensione finita esiste un $n$ tale che $V \cong RR^n$.
Killing per la prima è colpa mia, l'avevo scritto io quell'isomorfismo supponendo che $dimV_i=n, forall i inI_k$ ma in ipotesi più generali è vero quanto detto da killing sull'isomorfismo(non che ci fosse bisogno della mia conferma) prendendo $dimV_i=n_i, forall i inI_k$
Comunque dopo aver definito $(v_1,w_1)+(v_2,w_2):=(v_1+w_1,v_2+w_2)$ è chiaro che puoi ottenere una soluzione al tuo dubbio considerando
$(v,w)=(v+0_V,w+0_W)=(v+0_V,0_W+w)=(v,0_W)+(0_V,w)$
Comunque dopo aver definito $(v_1,w_1)+(v_2,w_2):=(v_1+w_1,v_2+w_2)$ è chiaro che puoi ottenere una soluzione al tuo dubbio considerando
$(v,w)=(v+0_V,w+0_W)=(v+0_V,0_W+w)=(v,0_W)+(0_V,w)$
Tutto chiaro! Grazie.