Vettore appartenente a sottospazio con parametro
Ciao
Vi chiedo aiuto per vedere se il mio ragionamento è corretto, il testo dell'esercizio è:
Determinare i valori del parametro h per i quali il vettore v = (-1,h,0) appartiene al sottospazio u di R^3 generato dai vettori:
u1 = (1,h,0)
u2 = (-1,0,1)
u3 = (h,0,1).
---
Io ho ragionato così:
- Dalla matrice formata dai tre vettori u1,u2,u3 trovo il determinante che è = h(1+h)
- I tre vettori per formare una base devono avere determinante diverso da zero, ossia per h<>0 e h<>-1
Quindi capisco che se
- h<>0 e h<>-1 ho un sottospazio di dimensione 3
- h = 0 ho un sottospazio di dimensione 2 e una base è ((1,0,0),(-1,0,1))
- h = -1 ho un sottospazio di dimensione 2 e una base è ((1,-1,0),(-1,0,1))
- Se aggiungo il vettore v con h=0 la dimensione rimane 2 e quindi il vettore è L.D. è fa parte dello spazio.
- Se aggiungo il vettore v con h=-1 la dimensione diventa 3 e quindi il vettore è L.I. è non fa parte dello spazio.
Quindi la risposta è h = 0
È corretto? Ma cosa succede per h<>0 e h<>-1
Grazie mille
Vi chiedo aiuto per vedere se il mio ragionamento è corretto, il testo dell'esercizio è:
Determinare i valori del parametro h per i quali il vettore v = (-1,h,0) appartiene al sottospazio u di R^3 generato dai vettori:
u1 = (1,h,0)
u2 = (-1,0,1)
u3 = (h,0,1).
---
Io ho ragionato così:
- Dalla matrice formata dai tre vettori u1,u2,u3 trovo il determinante che è = h(1+h)
- I tre vettori per formare una base devono avere determinante diverso da zero, ossia per h<>0 e h<>-1
Quindi capisco che se
- h<>0 e h<>-1 ho un sottospazio di dimensione 3
- h = 0 ho un sottospazio di dimensione 2 e una base è ((1,0,0),(-1,0,1))
- h = -1 ho un sottospazio di dimensione 2 e una base è ((1,-1,0),(-1,0,1))
- Se aggiungo il vettore v con h=0 la dimensione rimane 2 e quindi il vettore è L.D. è fa parte dello spazio.
- Se aggiungo il vettore v con h=-1 la dimensione diventa 3 e quindi il vettore è L.I. è non fa parte dello spazio.
Quindi la risposta è h = 0
È corretto? Ma cosa succede per h<>0 e h<>-1
Grazie mille
Risposte
Ci sono un paio di imprecisioni:
Naturalmente è la matrice formata dai tre vettori ad avere determinante diverso da 0, non "i tre vettori".
Per $ h!= 0 ^^ h!=1 $ hai un particolare sottospazio di dimensione 3, ossia proprio $ RR^3 $.
Questo è giusto, mentre da qui in poi è completamente sbagliato. Cosa intendi per "aggiungo il vettore v"? Hai stabilito che per $ h!= 0 ^^ h!=1 $ $ U=RR^3 $ quindi ovviamente $ vinU $. Resta da vedere cosa accade negli altri due casi.
$ h=0rArr { ( U=<(1,0,0);(0,0,1)>),( v=(-1,0,0) ):} $ quindi $ vinU $ ossia $ v $ può essere espresso come combinazione lineare dei vettori di base: $ v=-1(1,0,0)+0(0,0,1) $.
$ h=-1rArr { ( U=<(1,-1,0);(-1,0,1)>),( v=(-1,-1,0) ):} $. Per verificare se $ vinU $ cerchiamo i coefficienti $ lambda $ e $ mu $ $ :v=lambda (1,-1,0)+mu (-1,0,1) $. Imposti quindi il sistema $ { ( -1=lambda-mu ),( -1=-lambda ),(0=mu ):} $ che non ammette soluzione, quindi $ v!inU $.
Per concludere $ vinUifh!=-1 $
- I tre vettori per formare una base devono avere determinante diverso da zero, ossia per h<>0 e h<>-1
Naturalmente è la matrice formata dai tre vettori ad avere determinante diverso da 0, non "i tre vettori".
- h<>0 e h<>-1 ho un sottospazio di dimensione 3
Per $ h!= 0 ^^ h!=1 $ hai un particolare sottospazio di dimensione 3, ossia proprio $ RR^3 $.
- h = 0 ho un sottospazio di dimensione 2 e una base è ((1,0,0),(-1,0,1))
- h = -1 ho un sottospazio di dimensione 2 e una base è ((1,-1,0),(-1,0,1))
Questo è giusto, mentre da qui in poi è completamente sbagliato. Cosa intendi per "aggiungo il vettore v"? Hai stabilito che per $ h!= 0 ^^ h!=1 $ $ U=RR^3 $ quindi ovviamente $ vinU $. Resta da vedere cosa accade negli altri due casi.
$ h=0rArr { ( U=<(1,0,0);(0,0,1)>),( v=(-1,0,0) ):} $ quindi $ vinU $ ossia $ v $ può essere espresso come combinazione lineare dei vettori di base: $ v=-1(1,0,0)+0(0,0,1) $.
$ h=-1rArr { ( U=<(1,-1,0);(-1,0,1)>),( v=(-1,-1,0) ):} $. Per verificare se $ vinU $ cerchiamo i coefficienti $ lambda $ e $ mu $ $ :v=lambda (1,-1,0)+mu (-1,0,1) $. Imposti quindi il sistema $ { ( -1=lambda-mu ),( -1=-lambda ),(0=mu ):} $ che non ammette soluzione, quindi $ v!inU $.
Per concludere $ vinUifh!=-1 $