Dimensione di una somma di sottospazi
Ciao! Stasera mi accingo a dimostrare il seguente fatto: dati $U$ e $W$ sottospazi di $V$, si ha \[\displaystyle \dim U+\dim W=\dim(U+W)+\dim(U\cap W) \] Allora questo è quello che ho fatto: considero dapprima l'applicazione \(\displaystyle L:U\times W \rightarrow V \) tale che \(\displaystyle L((\mathbf{u},\mathbf{w}))=\mathbf{u}-\mathbf{w} \).
$L$ è lineare poiché \(\displaystyle L((\alpha\mathbf{u}, \alpha\mathbf{w}))=\alpha\mathbf{u}-\alpha\mathbf{w}=\alpha L((\mathbf{u},\mathbf{w})) \) e \(\displaystyle L((\mathbf{u}_1,\mathbf{w}_1)+(\mathbf{u}_2,\mathbf{w}_2))=(\mathbf{u}_1+\mathbf{u}_2)-(\mathbf{w}_1+\mathbf{w}_2) \) (ok perché $U$ e $W$ essendo sottospazi sono chiusi per somme).
Si ha \(\displaystyle L((\mathbf{u},\mathbf{w}))=\mathbf{0} \) se e solo se \(\displaystyle \mathbf{u}=\mathbf{w} \). Quindi il vettore generico di \(\displaystyle \ker L \) è della forma \(\displaystyle (\mathbf{u},\mathbf{u}) \) e il loro insieme forma un sottospazio vettoriale di $VtimesV$. Mi viene quindi il sospetto che ci possa essere un legame con lo spazio \(\displaystyle U\cap W \)... anzi, i due spazi sono equivalenti, poiché nel \(\displaystyle \ker \) prendo proprio i vettori di $U$ che coincidono con quelli di $W$ (essezialmente i vettori che possono essere indifferentemente considerati membri di $U$ o membri di $W$)!
Tengo da parte questo fatto e mi concentro sull'immagine, il cui generico vettore è dato da \[\displaystyle \sum_{i=1}^n\alpha_iL(\mathbf{u}_i, \mathbf{0}_U)+\sum_{j=1}^m\beta_jL(\mathbf{0}_W, \mathbf{w}_j) \] dove sfrutto il fatto che l'immagine di una base è un sistema di generatori per l'immagine (non ho voglia di scrivere le basi di $U$, $W$ e $UtimesW$ (che avevo scritto in un post precedente) ma spero siano chiare!). Ma usando la definizione dell'applicazione si vede che \[\displaystyle \sum_{i=1}^n\alpha_iL(\mathbf{u}_i, \mathbf{0}_U)+\sum_{j=1}^m\beta_jL(\mathbf{0}_W, \mathbf{w}_j)=\sum_{i=1}^n\alpha_i\mathbf{u}_i-\sum_{j=1}^m\beta_j\mathbf{w}_j \] e tenendo presente che il cui generico vettore di \(\displaystyle U+W \) è dato da \[\displaystyle \sum_{i=1}^n (a_i\mathbf{u}_i)+\sum_{j=1}^m (b_j\mathbf{w}_j) \] si ha che i due spazi coincidono a meno di scegliere \(\displaystyle b_j=-\beta_j \) (forse qui non sono molto preciso, diciamo che l'idea è che se i vettori sono l.i. posso scegliere qualunque scalare, tanto la somma farà zero se e solo se tutti questi scalari sono nulli; invertire il segno di questi dovrebbe essere lecito).
Adesso la magia: \(\displaystyle \dim(U\times W)=\dim U+\dim W \), e \(\displaystyle \dim(U\times W)=\dim \Im L+\dim \ker L\); sapendo quindi che \(\displaystyle \dim \Im L+\dim\ker L=\dim(U+W)+\dim(U\cap W) \) si ha la tesi.
Ora ragazzi credo che globalmente il ragionamento fili ma mi sembra che sia un po' poco formale soprattutto nella parte del kernel! Voi cosa ne dite?
$L$ è lineare poiché \(\displaystyle L((\alpha\mathbf{u}, \alpha\mathbf{w}))=\alpha\mathbf{u}-\alpha\mathbf{w}=\alpha L((\mathbf{u},\mathbf{w})) \) e \(\displaystyle L((\mathbf{u}_1,\mathbf{w}_1)+(\mathbf{u}_2,\mathbf{w}_2))=(\mathbf{u}_1+\mathbf{u}_2)-(\mathbf{w}_1+\mathbf{w}_2) \) (ok perché $U$ e $W$ essendo sottospazi sono chiusi per somme).
Si ha \(\displaystyle L((\mathbf{u},\mathbf{w}))=\mathbf{0} \) se e solo se \(\displaystyle \mathbf{u}=\mathbf{w} \). Quindi il vettore generico di \(\displaystyle \ker L \) è della forma \(\displaystyle (\mathbf{u},\mathbf{u}) \) e il loro insieme forma un sottospazio vettoriale di $VtimesV$. Mi viene quindi il sospetto che ci possa essere un legame con lo spazio \(\displaystyle U\cap W \)... anzi, i due spazi sono equivalenti, poiché nel \(\displaystyle \ker \) prendo proprio i vettori di $U$ che coincidono con quelli di $W$ (essezialmente i vettori che possono essere indifferentemente considerati membri di $U$ o membri di $W$)!
Tengo da parte questo fatto e mi concentro sull'immagine, il cui generico vettore è dato da \[\displaystyle \sum_{i=1}^n\alpha_iL(\mathbf{u}_i, \mathbf{0}_U)+\sum_{j=1}^m\beta_jL(\mathbf{0}_W, \mathbf{w}_j) \] dove sfrutto il fatto che l'immagine di una base è un sistema di generatori per l'immagine (non ho voglia di scrivere le basi di $U$, $W$ e $UtimesW$ (che avevo scritto in un post precedente) ma spero siano chiare!). Ma usando la definizione dell'applicazione si vede che \[\displaystyle \sum_{i=1}^n\alpha_iL(\mathbf{u}_i, \mathbf{0}_U)+\sum_{j=1}^m\beta_jL(\mathbf{0}_W, \mathbf{w}_j)=\sum_{i=1}^n\alpha_i\mathbf{u}_i-\sum_{j=1}^m\beta_j\mathbf{w}_j \] e tenendo presente che il cui generico vettore di \(\displaystyle U+W \) è dato da \[\displaystyle \sum_{i=1}^n (a_i\mathbf{u}_i)+\sum_{j=1}^m (b_j\mathbf{w}_j) \] si ha che i due spazi coincidono a meno di scegliere \(\displaystyle b_j=-\beta_j \) (forse qui non sono molto preciso, diciamo che l'idea è che se i vettori sono l.i. posso scegliere qualunque scalare, tanto la somma farà zero se e solo se tutti questi scalari sono nulli; invertire il segno di questi dovrebbe essere lecito).
Adesso la magia: \(\displaystyle \dim(U\times W)=\dim U+\dim W \), e \(\displaystyle \dim(U\times W)=\dim \Im L+\dim \ker L\); sapendo quindi che \(\displaystyle \dim \Im L+\dim\ker L=\dim(U+W)+\dim(U\cap W) \) si ha la tesi.
Ora ragazzi credo che globalmente il ragionamento fili ma mi sembra che sia un po' poco formale soprattutto nella parte del kernel! Voi cosa ne dite?
Risposte
Intanto grazie per farmi compagnia durante gli Oscar 2018 
Questa relazione si chiama 'relazione di Grassmann'.
questo non è del tutto corretto.
$Ker(L)={(u,w) inUtimesW:L(u,w)=0_V}$
sicuramente $u-w in V$ quindi chiaramente in $V$ ha senso dire che $u-w=0_V <=> u=w$ il problema è che il vettore $(u,u) notinUtimesW$ in generale. Poiché $forallu inU, (u,u) inUtimesW <=> UsubseteqW$
perchè?
se $forallu inU,(u,u) inUtimesW => u in W$ quindi $UsubseteqW$
se $UsubseteqW$ allora banalmente $forallu inU, (u,u) in UtimesW$
quindi in generale $(u,u)$ non è detto che appartenga al nucleo.
Ti faccio un esempio pratico: prendiamo $RR^3$ e consideriamo i seguenti sottospazi
$W={(x,y,0) inRR^3:x,y inRR}$ e $U=(0,y,z) inRR^3:y,z inRR}$
presa l'applicazione $L:UtimesW->V$ come da te definita si ha
$L(u,w)=(x,y,0)-(0,a,b)=(x,y-a,-z)$ possiamo notare che si ottiene ${(x=0),(y=a),(z=0):}$
c'è puzza di intersezione no? Il nucleo di quella applicazione è dato esattamente dal seguente insieme
Puoi notare come non sia del tutto equivalente a $UcapW$ piuttosto a $(UcapW)times(UcapW)$
Il discorso sull'immagine è corretto e anche la conclusione.
andrebbe dimostrato solo che $dimKer(L)=dim(UcapW)$ ma in realtà è abbastanza banale basta considerare
$T:UcapW->Ker(L)$ definita come $T(v)=(v,v)$ è banalmente biiettiva e si conclude con la relazione dimensionale.
Ci sono dimostrazioni più semplici di questo fatto senza nemmeno usare la teoria degli omomorfismi, nel caso in cui ti interessasse

Questa relazione si chiama 'relazione di Grassmann'.
"Uomo Grasso":
Si ha \(\displaystyle L((\mathbf{u},\mathbf{w}))=\mathbf{0} \) se e solo se \(\displaystyle \mathbf{u}=\mathbf{w} \). Quindi il vettore generico di \(\displaystyle \ker L \) è della forma \(\displaystyle (\mathbf{u},\mathbf{u}) \)
questo non è del tutto corretto.
$Ker(L)={(u,w) inUtimesW:L(u,w)=0_V}$
sicuramente $u-w in V$ quindi chiaramente in $V$ ha senso dire che $u-w=0_V <=> u=w$ il problema è che il vettore $(u,u) notinUtimesW$ in generale. Poiché $forallu inU, (u,u) inUtimesW <=> UsubseteqW$
perchè?
se $forallu inU,(u,u) inUtimesW => u in W$ quindi $UsubseteqW$
se $UsubseteqW$ allora banalmente $forallu inU, (u,u) in UtimesW$
quindi in generale $(u,u)$ non è detto che appartenga al nucleo.
Ti faccio un esempio pratico: prendiamo $RR^3$ e consideriamo i seguenti sottospazi
$W={(x,y,0) inRR^3:x,y inRR}$ e $U=(0,y,z) inRR^3:y,z inRR}$
presa l'applicazione $L:UtimesW->V$ come da te definita si ha
$L(u,w)=(x,y,0)-(0,a,b)=(x,y-a,-z)$ possiamo notare che si ottiene ${(x=0),(y=a),(z=0):}$
c'è puzza di intersezione no? Il nucleo di quella applicazione è dato esattamente dal seguente insieme
$Ker(L)={(v,v) inUtimesW| v inUcapW}$
Puoi notare come non sia del tutto equivalente a $UcapW$ piuttosto a $(UcapW)times(UcapW)$
Il discorso sull'immagine è corretto e anche la conclusione.
andrebbe dimostrato solo che $dimKer(L)=dim(UcapW)$ ma in realtà è abbastanza banale basta considerare
$T:UcapW->Ker(L)$ definita come $T(v)=(v,v)$ è banalmente biiettiva e si conclude con la relazione dimensionale.
Ci sono dimostrazioni più semplici di questo fatto senza nemmeno usare la teoria degli omomorfismi, nel caso in cui ti interessasse

Perfetto! Grazie mille. Sei stato su tutta la notte? Io in realtà mi sono addormentato abbastanza subito

Si tutta. Dopo ho avuto lezione
