Somma diretta

Emar1
Salve ragazzi,

Sto ripassando questi concetti cercando di interiorizzarli bene utilizzando il Lang "Algebra Lineare" che avevo a casa. Avrei bisogno di un po' di conferme:

Definizione Dato uno spazio vettoriale \(V\) di dimensione finita e due sottospazi \(W, U \subseteq V \). Si dice che \(V\) è somma diretta di \(W\) e \(U\) se e solo se:
[list=1]
[*:2uepjazo] \(W + U = V\)[/*:m:2uepjazo]
[*:2uepjazo]\( W \cap U = \{\mathbf{0}\}\)[/*:m:2uepjazo][/list:o:2uepjazo]



Prima di tutto ammetto che faccio fatica a padroneggiare il concetto di somma diretta. Ho capito la definizione, ma non riesco bene a comprendere quali siano le condizioni necessarie e quelle sufficienti affinché io possa concludere questo.

Ad esempio che relazione c'è tra "il bilancio delle dimensioni" \(\dim U, \dim W, \dim V \) e la somma diretta?
Se dimostro che, per esempio, \(\dim U + \dim W = \dim V \) posso dire qualcosa? Quanto meno, in questo caso dovrebbe essere garantito almeno che \(U + W = V\). No?


EDIT: Ho spezzato il post in più thread in modo da non fare confusione

Risposte
garnak.olegovitc1
@Emar,
uso definizioni diverse[nota]si rifanno al testo "Corso di Geometria" di Marius Ion Stoka[/nota]... ti rispondo intanto per la somma diretta sperando di chiarire alcuni tuoi dubbi:

Def. 1.0: siano dati \( V+W \), ove \( V \) e \( W \) sono sottospazi vettoriali di \( T \), \( V+W\) è somma diretta, \(V+W \doteq V \oplus W \) se $$\forall v \in V, w \in W(v+w=0_T\to v=w=0_T)$$ volendo generalizzare un po le cose, la definizione di sopra sarebbe

Def. 2.0: siano dati \( V_1+V_2+...+V_n\), ove \( V_1,V_2,...,V_n\) sono \(n\) sottospazi vettoriali di \( T \), \( V_1+V_2+...+V_n \) è somma diretta, \( \sum_{i=1}^n V_i: =V_1+V_2+...+V_n\doteq V_1\oplus V_2\oplus...\oplus V_n=:\bigoplus_{i=1}^nV_i \) se $$\forall v_1 \in V_1, v_2 \in V_2,...,v_n \in V_n(v_1+v_2+...+v_n=0_T \to v_1=v_2=...=v_n=0_T)$$ Usando esclusivamente la Def. 2.0 esistono, nei miei studi, due criteri per la "somma diretta"

Prop. 1.0: siano dati $E_1,...,E_p$ $p$ sottospazi vettoriali di $V$, allora:
$$\sum_{i=1}^pE_i \doteq \bigoplus_{i=1}^p E_i \leftrightarrow \forall i\in \{1,...,p\}(E_i \cap \sum_{t \in \{1,...,p\}-\{i\}}E_t=\{0_V\})$$ Prop. 2.0: siano dati $E_1,...,E_p$ $p$ sottospazi vettoriali di $V$, allora:
$$\sum_{i=1}^pE_i \doteq \bigoplus_{i=1}^p E_i \leftrightarrow \forall x \in \sum_{i=1}^pE_i (\exists! e_1 \in E_2,e_2 \in E_2,...,e_p\in E_p(x=e_1+e_2+...+e_p))$$ Ora sei hai due sottospazi \( E ,V \) di \( T \), con \(E+V\) somma diretta allora la loro intersezione è disgiunta (Prop. 1.0 nel caso di \( p=2\)), ovvero è "il singoletto del vettore \( 0_T \)", ergo \( \dim_{\mathbf{K}}(E \cap V)=0\) e nella relazione di Grassman avresti $$\dim_{\mathbf{K}}(E)+\dim_{\mathbf{K}}(V)=\dim_{\mathbf{K}}(E \cap V) + \dim_{\mathbf{K}}(E + V)=0 + \dim_{\mathbf{K}}(E + V)=\dim_{\mathbf{K}}(E + V)$$ In particolare la definizione che uso è

Def. 3.0: siano \( U,V \) due sottospazio di \(T \), \( U\) e \( V \) sono supplementari se $$U\cap V= \{0_T\} \; \wedge \; U+V \doteq U \oplus V \; \wedge \; U+V=T$$ Quindi se sono supplementari da Grassman hai $$\dim_{\mathbf{K}}(U)+\dim_{\mathbf{K}}(V)=\dim_{\mathbf{K}}(U \cap V) + \dim_{\mathbf{K}}(U + V)=0 + \dim_{\mathbf{K}}(U + V)=\dim_{\mathbf{K}}(U+ V)$$ ma per la Def. 3.0 \( U + V=T\) quindi $$\dim_{\mathbf{K}}(U)+\dim_{\mathbf{K}}(V)=...= \dim_{\mathbf{K}}(U + V)=\dim_{\mathbf{K}}(T)$$ Quindi se due sottspazio \( U,V \) di \( T \) sono in somma diretta allora sicuramente $$\dim_{\mathbf{K}}(U)+\dim_{\mathbf{K}}(V)=\dim_{\mathbf{K}}(U + V)$$ se oltre ad essere in somma diretta sono anche supplementari[nota]in effetti nella Def. 3.0 potrei non inserire la condizione \(U+V \doteq U \oplus V\) tenendo conto della Prop. 1.0; quindi se \( U,V \) sono supplementari certamente \(U+V \doteq U \oplus V\), mentre se \(U+V \doteq U \oplus V\) non è detto che \(U,V \) siano supplementari (poichè devi verificare che \(U+V=T\))[/nota] allora $$\dim_{\mathbf{K}}(U)+\dim_{\mathbf{K}}(V)=\dim_{\mathbf{K}}(U + V)=\dim_{\mathbf{K}}(T)$$

Emar1
Ti ringrazio per la risposta. Ho deciso di spezzare il post in modo da non creare troppa confusione.
Nello scrivere la definizione di somma diretta ero andato un po' a memoria, e, anziché scrivere la definizione ho scritto il teorema che fornisce una condizione necessaria e sufficiente affinché due sottospazi siano somma diretta.

La definizione che riporta Lang è:
Definizione. Siano \(W\) e \(U\) sottospazi di uno spazio vettoriale \(V\) di dimensione finita. Diciamo che \(V\) è somma diretta di \(W\) e \(U\), e scriviamo \(V = W \oplus U\), se per ogni elemento \(\mathbf{v} \in V\) esistono un unico \(\mathbf{w} \in W\) e un unico \(\mathbf{u} \in U\) tali che \(\mathbf{v} = \mathbf{w} + \mathbf{u}\).


La definizione che avevo riportato io è invece oggetto del teorema che segue:
Teorema. Siano \(W\) e \(U\) sottospazi di uno spazio vettoriale \(V\) di dimensione finita. Allora:
\[\begin{cases} W + U = V \\ W \cap U = \{\mathbf{0}\}\end{cases} \implies V = W \oplus U\]


Poi si dice:
Teorema. Siano \(W\) e \(U\) sottospazi di uno spazio vettoriale \(V\) di dimensione finita tali che \(V = W \oplus U\). Allora:
\[\dim V = \dim W + \dim U\]

Che, come facevi notare te, esce da Grassman.

Fino a qui ci sono, asino io che ero andato a memoria con la definizione... Al momento non so cosa non mi è chiaro di questa parte, i dubbi sono soprattutto riguardanti il complemento ortogonale, o meglio, come si fa in pratica ad affettare uno spazio in una somma diretta di autospazi. Ci lavoro un po' su.

garnak.olegovitc1
@Emar,

"Emar":
Ti ringrazio per la risposta. Ho deciso di spezzare il post in modo da non creare troppa confusione.
Nello scrivere la definizione di somma diretta ero andato un po' a memoria, e, anziché scrivere la definizione ho scritto il teorema che fornisce una condizione necessaria e sufficiente affinché due sottospazi siano somma diretta.

La definizione che riporta Lang è:
Definizione. Siano \(W\) e \(U\) sottospazi di uno spazio vettoriale \(V\) di dimensione finita. Diciamo che \(V\) è somma diretta di \(W\) e \(U\), e scriviamo \(V = W \oplus U\), se per ogni elemento \(\mathbf{v} \in V\) esistono un unico \(\mathbf{w} \in W\) e un unico \(\mathbf{u} \in U\) tali che \(\mathbf{v} = \mathbf{w} + \mathbf{u}\).


La definizione che avevo riportato io è invece oggetto del teorema che segue:
Teorema. Siano \(W\) e \(U\) sottospazi di uno spazio vettoriale \(V\) di dimensione finita. Allora:
\[\begin{cases} W + U = V \\ W \cap U = \{\mathbf{0}\}\end{cases} \implies V = W \oplus U\]


Poi si dice:
Teorema. Siano \(W\) e \(U\) sottospazi di uno spazio vettoriale \(V\) di dimensione finita tali che \(V = W \oplus U\). Allora:
\[\dim V = \dim W + \dim U\]

Che, come facevi notare te, esce da Grassman.

Fino a qui ci sono, asino io che ero andato a memoria con la definizione... Al momento non so cosa non mi è chiaro di questa parte, i dubbi sono soprattutto riguardanti il complemento ortogonale, o meglio, come si fa in pratica ad affettare uno spazio in una somma diretta di autospazi. Ci lavoro un po' su.


capito.. hai fatto bene a spezzettare il post -; (aspetto l'altra parte :-) ) ho controllato il Lang ed in sostanza usa come definizione la Prop 2.0 che avevo messo, ma funziona ugualmente in quanto con la mia definizione sono equivalenti..!

Saluti

P.S. = Se devo essere sincero, ci sto pensando un pochino sul fatto del prodotto scalare e sottospazi ortogonali.. etc etc.. Il prodotto scalare per te è una qualsiasi forma bilineare simmetrica positiva o, spero qui di ricordare bene poichè di recente solo ho letto di una simile costruzione, una particolare applicazione bilineare \( V^2 \to \Bbb{C} \) ?

Epimenide93


Oltre a sottoscrivere quanto scritto da garnak.olegovitc, vorrei aggiungere un paio di cose.

"Emar":
Sto ripassando questi concetti cercando di interiorizzarli bene (...) Ho capito la definizione (...)

Anche se deduco dall'impostazione della domanda che la parte che ti interessa maggiormente sia quella computazionale (o quantomeno costruttiva) vorrei sottoporti anche la visione puramente algebrica, che secondo me è fondamentale per interiorizzare veramente un concetto, e capirlo fino in fondo, non solo saperlo usare. Una volta capita la definizione, la domanda alla quale vorrei provare a rispondere è «Perché la definizione è proprio questa?», o se preferisci «A quale problema/necessità risponde una costruzione del genere?». Una caratterizzazione intrinseca (cioè basata solo sulle proprietà della costruzione) non ti permetterà di costruire sempre esplicitamente gli oggetti che ti servono (a differenza di una estrinseca), ma ti permetterà di inquadrare direttamente il nocciolo duro della questione, senza rinunciare al rigore e permettendoti di focalizzarti direttamente sul problema, e sulle proprietà richieste dalla soluzione, che la caratterizzano completamente. Chiaramente poi per fare i conti l'unico modo è passare per le caratterizzazioni estrinseche, ma avere una definizione intrinseca dei concetti è secondo me fondamentale per assimilarli veramente, e magari ti aiuterà ad inquadrare da solo ciò che sta alla base della tua domanda:
"Emar":
come si fa in pratica ad affettare uno spazio in una somma diretta di autospazi.
(Che forse in questo caso diventa più «com'è possibile in sostanza che uno spazio sia affettabile in somma diretta di autospazi».)

Terminato il pippone motivazionale (dovevo giustificarmi bene per permettermi di aggiungere una virgola a quanto detto da garnak.olegovitc, che come sempre è di una precisione encomiabile), veniamo al dunque. Anzi, al preambolo algebrico :-D

Esempio. Come immagino ti sarà noto, per determinare univocamente una applicazione lineare tra spazi vettoriali basta, fissata una base per il tuo spazio vettoriale-dominio ed una per il tuo spazio vettoriale-codominio, conoscere le immagini della base. Il che non vuol dire che se conosco le immagini di una base rispetto ad un'applicazione qualsiasi tra spazi vettoriali possa identificarla univocamente. Ma se so che quest'applicazione è lineare, allora le immagini di una base la identificano univocamente. Detto in altre parole, se ho un insieme \( \{ v_1, \ldots , v_n \} \subseteq V \) di vettori linearmente indipendenti in uno spazio qualsiasi, e ad essi associo dei vettori \( \{ w_1, \ldots , w_n \} \subseteq W \) di vettori (non necessariamente distinti, con eventualmente \( W \subseteq V \), insomma, senza ipotesi particolari), esiste ed è unica l'applicazione lineare \( {\rm span} \{ v_1, \ldots , v_n \} \to W \) che "estende" questa scelta. Ora, saliamo un piccolo gradino di astrazione e facciamo una cosa simile.

Supponiamo di avere \( n \) spazi vettoriali \(V_1 , ... , V_n \)[nota]faccio notare che gli spazi e si suppone solo siano dati, non ci serve una qualche rappresentazione, abbiamo degli insiemi con sopra la struttura di spazio vettoriale, non stiamo fissando su alcuno spazio alcuna base[/nota]. Si dimostra che esiste ed è unico lo spazio vettoriale \( U \) con le seguenti caratteristiche:

    [*:1m7xpqrw]Per ogni intero \( 1 \leq j \leq n \) esiste una mappa lineare iniettiva \(\pi_j : V_j \to U\)[/*:m:1m7xpqrw]
    [*:1m7xpqrw]Per ogni coppia di interi \( 1 \leq j \leq n, 1 \leq k \leq n, j \ne k \) si ha \( \pi_j(V_j) \ne \pi_k(V_k) \)[/*:m:1m7xpqrw]
    [*:1m7xpqrw]Per ogni intero \( 1 \leq j \leq n \), siano \( l_j : V_j \to W \) applicazioni lineari arbitrarie in uno spazio vettoriale \( W \), allora esiste ed è unica l'applicazione \(l:U \to W \) tale che per ogni intero \( 1 \leq i \leq n \) il seguente diagramma commuti:

    [tex]\xymatrix{
    V_i\ar[r]^{\pi_i}\ar[dr]_{l_i} & U\ar@{.>}[d]^{l}\\
    & W}[/tex][/*:m:1m7xpqrw][/list:u:1m7xpqrw]

    Si indica tale spazio con la notazione
    \[ U = V_1 \oplus \ldots \oplus V_n = \bigoplus_{j=1}^n V_j \]
    e lo si definisce somma diretta degli spazi vettoriali \(V_1 , ... , V_n \).

    Detto così può essere un po' duro da digerire la prima volta che lo si vede. Cosa sta succedendo in realtà? Prima di tutto è il caso di notare che una applicazione lineare iniettiva non è altro che l'inclusione di uno spazio vettoriale in un'altro (se questa cosa non è immediatamente chiara, riflettici un po' su). Quindi le \( \pi_j \) altro non sono che le solite inclusioni degli spazi vettoriali nella loro somma diretta.

    Quel che accade è che si definisce la somma diretta degli spazi vettoriali \(V_1 , ... , V_n \) come quello spazio vettoriale che permette, date delle applicazioni lineari qualsiasi dagli spazi "sommandi" ad uno spazio vettoriale qualsiasi, di estendere quest'applicazione da un'unico insieme che contiene delle copie-carbone dei \( V_i \) ed è esteso in maniera tale da poterci mettere sopra la struttura di spazio vettoriale nello spazio vettoriale-destinazione, facendola rimanere un'applicazione lineare. Ovvero: qualsiasi spazio vettoriale che contiene le immagini omomorfe di tutti gli spazi vettoriali \( V_i \), contiene un'immagine omomorfa di \( \bigoplus_{j=1}^n V_j \). Detto con altre parole, se tu spari i \( V_i \) con delle applicazioni lineari tutti in uno stesso spazio, in quello spazio ti ritrovi automaticamente anche l'immagine di \( \bigoplus_{j=1}^n V_j \) attraverso la funzione (unica, una volta fissate le applicazioni) che verrebbe fuori dalla costruzione che ho usato per definirlo.

    Definendo la somma diretta con una qualsiasi delle definizioni date da garnak.olegovitch, si dimostra come teorema che vale tale proprietà universale per lo spazio costruito seguendo la definizione.



    Spero di essere stato almeno un po' utile per aiutarti a vedere cosa c'è dietro quelle definizioni apparentemente così diverse e scollegate che saltano fuori nei vari testi introduttivi di algebra lineare.

    My two cents :smt023

Emar1
"Epimenide93":

My two cents :smt023


Alla faccia dei due centesimi. L'ho letto, ho colto le idee generali ma non ci ho riflettuto molto, al momento non voglio distrarmi ulteriormente (già mi sto allontanando dal sentiero).

Ti ringrazio in ogni caso per la spiegazione, quando avrò un po' di tempo ci ritornerò sopra :wink:


Una cosa ben più pratica a cui stavo pensando. Vale il viceversa del teorema di cui sopra?
\[V = W \oplus U \overset{?}\implies \begin{cases} W \cap U = {\mathbf{0}} \\ V = W + V \end{cases}\]

Quelle due condizioni sono anche necessarie oltre che sufficienti? Dato che nelle fonti in mio possesso non ho trovato traccia di ciò deduco di no. Quali possono essere delle condizioni necessarie e sufficienti?

garnak.olegovitc1
@Emar,

"Emar":
Una cosa ben più pratica a cui stavo pensando. Vale il viceversa del teorema di cui sopra?
\[V = W \oplus U \overset{?}\implies \begin{cases} W \cap U = {\mathbf{0}} \\ V = W + V \end{cases}\]

Quelle due condizioni sono anche necessarie oltre che sufficienti? Dato che nelle fonti in mio possesso non ho trovato traccia di ciò deduco di no. Quali possono essere delle condizioni necessarie e sufficienti?


forse volevi scrivere
\[V = W \oplus U \overset{?}\implies \begin{cases} W \cap U = {\mathbf{0}} \\ V = W + U \end{cases}\] :roll: :roll: :roll: :roll: e comunque, se \( W,V \) sono sottospazi dello spazio \( V \), dalle definizioni e notazioni che uso io se scrivi \(V = W \oplus U\) io lo interpreto come \( V = W+U \wedge W+U \doteq W \oplus U \)... quindi, se \(W+U \doteq W \oplus U\) allora \( W\cap U=\{0_V\}\), \( W \) e \( U \) sono supplementari ergo, per la mia definizione Def. 3.0, \( \Rightarrow \) è banalmente vera :roll:

Saluti

P.S. = Se invece avevi solo \[ W \oplus U \overset{?}\implies \begin{cases} W \cap U = {\mathbf{0}} \\ V = W + U \end{cases}\] dove \( W \oplus U \) per me è abbreaviazione per \( W+U \doteq W \oplus U \) bhè allora certamente \( W \cap U = \{0_V \} \) ma non sempre/in generale \(V = W + U \).. :-) quindi non sempre è vera (o non lo è in generale) ;-)

Emar1
"garnak.olegovitc":

forse volevi scrivere

Sì, un errore di battitura.

"garnak.olegovitc":
\[V = W \oplus U \overset{?}\implies \begin{cases} W \cap U = {\mathbf{0}} \\ V = W + U \end{cases}\] :roll: :roll: :roll: :roll: e comunque dalle definizioni e notazioni che uso io se scrivi \(V = W \oplus U\) io lo interpreto come \( V = W+U \wedge W+U \doteq W \oplus U \)... quindi, se \(W+U \doteq W \oplus U\) allora \( W\cap U=\{0_V\}\), \( W \) e \( U \) sono supplementari ergo, per la mia definizione Def. 3.0, \( \Rightarrow \) è banalmente vera :roll:


Già è vero! Quest'implicazione è vera per definizione :smt023


Grazie mille :wink:

garnak.olegovitc1
@Emar,

"Emar":


Grazie mille :wink:


di nulla... buono studio! ;-)

Saluti

garnak.olegovitc1
@Epimenide93,

che costruzione.. che dire? chapeau! :-)

Saluti

P.S.=Questa TdC la sento usare/nominare sempre più da quando per puro caso inciampai su di essa..!! ;-)

dissonance
Mah io non ho ancora visto nessuno dire che il prototipo di somma diretta è formato da due rette per l'origine di $\mathbb{R}^2$ che non siano coincidenti. Quando le due rette sono ortogonali, allora la somma diretta è ortogonale. Sicuramente lo sanno tutti, ma l'ho voluto rimarcare per sicurezza. A volte ci si lancia in complicate costruzioni astratte troppo presto.

Emar1
"dissonance":
Sicuramente lo sanno tutti, ma l'ho voluto rimarcare per sicurezza. A volte ci si lancia in complicate costruzioni astratte troppo presto.


Io cerco di raffigurarmelo in $RR^3$ con un piano e una retta incidente ad esso in modo da avere due sottospazi di dimensione diversa :smt023

E qui diciamo che si ferma la mia immaginazione sul concetto di somma diretta :-D

Camillo
"dissonance":
Mah io non ho ancora visto nessuno dire che il prototipo di somma diretta è formato da due rette per l'origine di $\mathbb{R}^2$ che non siano coincidenti. Quando le due rette sono ortogonali, allora la somma diretta è ortogonale. Sicuramente lo sanno tutti, ma l'ho voluto rimarcare per sicurezza. A volte ci si lancia in complicate costruzioni astratte troppo presto.

Ottima osservazione nella sua semplicità :-D

Epimenide93
L'intervento voleva essere utile. Se viene percepito come una complicazione, o come inutile, lo rimuovo.

(È un'esplicita richiesta di indicazioni.)

Emar1
"Epimenide93":
L'intervento voleva essere utile. Se viene percepito come una complicazione, o come inutile, lo rimuovo.

(È un'esplicita richiesta di indicazioni.)


Dal mio punto di vista il tuo contributo è stato gradito, come ho già detto. Non so a chi ti riferisci, ma non credo che qualcuno lo abbia bollato come inutile. Credo solo che dissonance volesse far presente dietro questi concetti astratti si cela una ben più concreta interpretazione geometrica che è bene tener presente quando ci si avventura nell'astrazione.

:wink:

dissonance
"Emar":
[quote="dissonance"]Sicuramente lo sanno tutti, ma l'ho voluto rimarcare per sicurezza. A volte ci si lancia in complicate costruzioni astratte troppo presto.


Io cerco di raffigurarmelo in $RR^3$ con un piano e una retta incidente ad esso in modo da avere due sottospazi di dimensione diversa :smt023

E qui diciamo che si ferma la mia immaginazione sul concetto di somma diretta :-D[/quote]
Anche la mia. Ma nella mia scarsa esperienza, penso che come modellino sia sufficiente.

Camillo
"Epimenide93":
L'intervento voleva essere utile. Se viene percepito come una complicazione, o come inutile, lo rimuovo.

(È un'esplicita richiesta di indicazioni.)

Il tuo intervento non è certamente inutile , è un maggiore approfondimento che forse, non tutti possono comprendere appieno :D

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.