Sottospazio Vettoriale
Come si risolve questo esercizio: dire per quali valori del parametro $alpha$ l'insieme $U_alpha={(z,z+alpha,x+y) in RR^3}$ è un sottospazio vettoriale.
Risposte
$\alpha=0$, altrimenti è un sottospazio affine.
giusto, ricordiamo che i sottospazi vettoriali di $RR^3$ sono: l'origine, le rette passanti per l'origine, i piani passanti per l'origine, $RR^3$ stesso, tutti gli altri no, ma sono dello stesso tipo dei sottospazi elencati,però traslati, si parla di sottospazi affini come dice giustamente Tipper
"Tipper":
$\alpha=0$, altrimenti è un sottospazio affine.
Mi dispiace ma non abbiamo trattato i sottospazi affini..
Come hai fatto a dire che è solo per $alpha=0$. Io avevo pensato la stessa cosa considerando che affinchè lo 0 appartenga al sottospazio l'unico valore di $alpha$ può essere $0$. E' esatto?
Il generico vettore appartenente allo spazio si può scrivere come:
$((z),(z+\alpha),(x+y))=z((1),(1),(0)) + x((0),(0),(1)) + y((0),(0),(1)) + ((0),(\alpha),(0))$
Dato che il vettore nullo deve appartenere allo spazio, questo succede solo se l'ultimo vettore è nullo, cioè se $\alpha=0$.
$((z),(z+\alpha),(x+y))=z((1),(1),(0)) + x((0),(0),(1)) + y((0),(0),(1)) + ((0),(\alpha),(0))$
Dato che il vettore nullo deve appartenere allo spazio, questo succede solo se l'ultimo vettore è nullo, cioè se $\alpha=0$.
Dato un generico spazio vettoriale $V$ e dato un suo sottoinsieme $S$, il fatto che il vettore nullo appartenga ad $S$ è condizione sufficente per affermare che $S$ è un sottospazio oppure è solamente condizione necessaria?
tu dici
$0 \in S=>S è $sottospazio???
no ad esempio considera
$V = {(x,y,z,t) in (RR^4) | x+y = 0, z^3 + t^3 =0}$
ciao ciao
$0 \in S=>S è $sottospazio???
no ad esempio considera
$V = {(x,y,z,t) in (RR^4) | x+y = 0, z^3 + t^3 =0}$
ciao ciao
"miuemia":
tu dici
$0 \in S=>S è $sottospazio???
no ad esempio considera
$V = {(x,y,z,t) in (RR^4) | x+y = 0, z^3 + t^3 =0}$
ciao ciao
No, intendevo che la uso come condizione necessaria per determinare $alpha$
Poi faccio il solito conto. Solo che in questo caso, non mi sembra, ce ne sia bisogno visto che la condizione è solo che $x,y,z in RR$. O sbaglio?
Ciao
Mi è venuto un altro dubbio osservando vari esercizi che ,a me, sembrano un po' discordanti.
Se ho $4$ vettori, ad esempio, per vedere se sono linearmente indipendente posso farlo sistemandoli ognuno come riga di una matrice e calcolandone il rango devo trovare $4$? Oppure devo sistemarli come colonne della matrice e vedere che il rango sia $4$?
Ciao
Se ho $4$ vettori, ad esempio, per vedere se sono linearmente indipendente posso farlo sistemandoli ognuno come riga di una matrice e calcolandone il rango devo trovare $4$? Oppure devo sistemarli come colonne della matrice e vedere che il rango sia $4$?
Ciao
Data una matrice, il rango per righe e il rango per colonne sono uguali...
Io faccio sempre così: sistemo i vettori come righe di una matrice, riduco la matrice a scala per righe, il numero delle righe diverse dal vettore nullo coincide alla dimensione dello spazio generato dai vettori di partenza (nonché con il rango della matrice); se i vettori di partenza erano $n$, e $n$ è la dimensione dello spazio generato, allora tali vettori sono linearmente indipendenti.
Io faccio sempre così: sistemo i vettori come righe di una matrice, riduco la matrice a scala per righe, il numero delle righe diverse dal vettore nullo coincide alla dimensione dello spazio generato dai vettori di partenza (nonché con il rango della matrice); se i vettori di partenza erano $n$, e $n$ è la dimensione dello spazio generato, allora tali vettori sono linearmente indipendenti.
"Tipper":
Data una matrice, il rango per righe e il rango per colonne sono uguali...
Io faccio sempre così: sistemo i vettori come righe di una matrice, riduco la matrice a scala per righe, il numero delle righe diverse dal vettore nullo coincide alla dimensione dello spazio generato dai vettori di partenza (nonché con il rango della matrice); se i vettori di partenza erano $n$, e $n$ è la dimensione dello spazio generato, allora tali vettori sono linearmente indipendenti.
Ti ringrazio. Il fatto è che anch'io faccio sempre così, solo che in molti esempi ho trovato che lo fanno anche sistemando i vettori come colonna... Ci sono dei casi nei quali un modo di procedere è preferibile all'altro?
Grazie ancora.
Dato che il rango per righe e quello per colonne coincidono, puoi ridurre a scala per righe, o per colonne, come ti torna meglio.
Se invece hai una matrice, e devi calcolare una base dell'immagine, allora ti conviene ridurre per colonne, dato che l'immagine è lo spazio generato dalle colonne (a dire la verità io riduco a scala per righe la trasposta, e poi ritraspongo tutto una seconda volta
).
Se invece hai una matrice, e devi calcolare una base dell'immagine, allora ti conviene ridurre per colonne, dato che l'immagine è lo spazio generato dalle colonne (a dire la verità io riduco a scala per righe la trasposta, e poi ritraspongo tutto una seconda volta

"Tipper":
Dato che il rango per righe e quello per colonne coincidono, puoi ridurre a scala per righe, o per colonne, come ti torna meglio.
Se invece hai una matrice, e devi calcolare una base dell'immagine, allora ti conviene ridurre per colonne, dato che l'immagine è lo spazio generato dalle colonne (a dire la verità io riduco a scala per righe la trasposta, e poi ritraspongo tutto una seconda volta).
Ah, finalmente. Tutto i concetti stanno reincastrandosi gli uni con gli altri formando un piacevole strato di conoscenza

Grazie Tipper, ora posso tornare al mio studio intensivo
Prego, buono studio

Ritorno con qualche vero o falso "sospetto"..
Sia $v_1,...,v_k$ una famiglia linearmente dipendente di uno spazio vettoriale $V$. Si dica quale affermazione è vera:
A) $v_k$ è combinazione lineare di $v_1,...,v_(k-1)$
B) $v_1$ si può scrivere in almeno $2$ modi diversi come combinazione lineare di $v_1,...,v_k$
C) nessuna sottofamiglia di $v_1,...,v_k$ è una base
Io penso che la A sia quella vera perchè rispecchia la definizione di lineare dipendenza. La C mi sembra falsa perchè non è detto che una sottofamiglia di una famiglia linearmente dipendente sia ancora lin dip, perciò se è anche generatrice(la sottofamiglia), è una base.
La 2° mi perplime un po' e non saprei che dire..
Sia $v_1,...,v_k$ una famiglia linearmente dipendente di uno spazio vettoriale $V$. Si dica quale affermazione è vera:
A) $v_k$ è combinazione lineare di $v_1,...,v_(k-1)$
B) $v_1$ si può scrivere in almeno $2$ modi diversi come combinazione lineare di $v_1,...,v_k$
C) nessuna sottofamiglia di $v_1,...,v_k$ è una base
Io penso che la A sia quella vera perchè rispecchia la definizione di lineare dipendenza. La C mi sembra falsa perchè non è detto che una sottofamiglia di una famiglia linearmente dipendente sia ancora lin dip, perciò se è anche generatrice(la sottofamiglia), è una base.
La 2° mi perplime un po' e non saprei che dire..
La a) direi di no: il fatto che quei vettori siano linearmente indipendenti significa che:
$a_1 v_1 + a_2 v_2 + \ldots + a_k v_k = O$, dove $O$ è il vettore nullo, sia verificata per coefficienti $a_i$ non tutti nulli, questo però non vieta che $v_1$ e $v_2$, ad esempio, sia uno multiplo dell'altro, e tutti gli altri $a_i$, $3 \le i \le k$ siano nulli, in questo caso sinceramente non saprei come esprimere $v_k$ come combinazione degli altri.
$a_1 v_1 + a_2 v_2 + \ldots + a_k v_k = O$, dove $O$ è il vettore nullo, sia verificata per coefficienti $a_i$ non tutti nulli, questo però non vieta che $v_1$ e $v_2$, ad esempio, sia uno multiplo dell'altro, e tutti gli altri $a_i$, $3 \le i \le k$ siano nulli, in questo caso sinceramente non saprei come esprimere $v_k$ come combinazione degli altri.
La c) sicuramente no, a naso direi la b).
Se infatti $a_1 v_1 + a_2 v_2 + \ldots a_k v_k = O$, allora $(a_1+1) v_1 + a_2 v_2 + \ldots a_k v_k = v_1$
Inoltre $a_1 v_1 + a_2 v_2 + \ldots + a_k v_k = v_1$ per $a_1=1$ e tutti gli altri nulli.
Se infatti $a_1 v_1 + a_2 v_2 + \ldots a_k v_k = O$, allora $(a_1+1) v_1 + a_2 v_2 + \ldots a_k v_k = v_1$
Inoltre $a_1 v_1 + a_2 v_2 + \ldots + a_k v_k = v_1$ per $a_1=1$ e tutti gli altri nulli.
"Tipper":
La a) direi di no
Hai ragione.. Diciamo che è vera solo in alcuni casi e non generalmente.
"Tipper":
La c) sicuramente no, a naso direi la b).
Se infatti $a_1 v_1 + a_2 v_2 + \ldots a_k v_k = O$, allora $(a_1+1) v_1 + a_2 v_2 + \ldots a_k v_k = v_1$
Inoltre $a_1 v_1 + a_2 v_2 + \ldots + a_k v_k = v_1$ per $a_1=1$ e tutti gli altri nulli.
Dopo "allora" non dovrebbe essere $(a_1-1) v_1 + a_2 v_2 + \ldots a_k v_k = v_1$? Comunque ho capito il senso.
Ho un altro problema. Se devo trovare la base dell'intersezione di 2 sottospazi ho capito come fare nel caso in cui ne abbia uno definito tramite un equazione
ad es $U={(x,y,z) in RR^3 | x+y+z=0}$ e l'altro no.
Ma se entrambi sono definiti semplicemente da i vettori che li generano, come si fa?
Ad esempio: come faccio a trovare una base del sottospazio intersezione di $UnnW$ dove
$U=<(5,1,3,5),(1,2,3,4)>$ e $W=<(1,2,1,2),(3,0,-1,0)>$
Grazie
ad es $U={(x,y,z) in RR^3 | x+y+z=0}$ e l'altro no.
Ma se entrambi sono definiti semplicemente da i vettori che li generano, come si fa?
Ad esempio: come faccio a trovare una base del sottospazio intersezione di $UnnW$ dove
$U=<(5,1,3,5),(1,2,3,4)>$ e $W=<(1,2,1,2),(3,0,-1,0)>$
Grazie
"Dust":
Dopo "allora" non dovrebbe essere $(a_1-1) v_1 + a_2 v_2 + \ldots a_k v_k = v_1$? Comunque ho capito il senso.
Ho aggiunto $v_1$ a entrambi i membri, quindi $+1$, se lo togli viene $-1$, è uguale.
"Dust":
Ho un altro problema. Se devo trovare la base dell'intersezione di 2 sottospazi ho capito come fare nel caso in cui ne abbia uno definito tramite un equazione
ad es $U={(x,y,z) in RR^3 | x+y+z=0}$ e l'altro no.
Ma se entrambi sono definiti semplicemente da i vettori che li generano, come si fa?
Ad esempio: come faccio a trovare una base del sottospazio intersezione di $UnnW$ dove
$U=<(5,1,3,5),(1,2,3,4)>$ e $W=<(1,2,1,2),(3,0,-1,0)>$
Grazie
Quando devo trovare l'intersezione di due, o più, sottospazi, per prima cosa scrivo l'equazione cartesiana di ogni sottospazio, poi le metto a sistema, facile no?
