Kernel e dubbio su un sistemino (mi sento scemo =/)
Ciao ragazzi,
Ho un dubbio su una parte delle "dispense" di Sergio, forse mi sto perdendo qualcosa:
Il post è quello sul Kernel di un'applicazione: http://www.matematicamente.it/forum/post334133.html#p334133
la soluzione di questo sistema non dovrebbe essere un vettore da 2 elementi (sol di due variabili) moltiplicato per una libera?
A me riducendo con l'eliminazione di Gauss viene così, (è equivalente) e la soluzione mi viene naturale formularla in questo modo. Vero è che poi il prodotto degli elementi di un vettore da due elementi con 3 elementi della B non torna.
$Ax=0 " "=>" " {(x_1-x_2=0),(x_2-x_3=0) :} " "=>" " "Sol"(A,0)=\{x_3((1),(1))" : "x_3 in RR\}$
Cosa mi sono perso per strada?
Grazie a tutti per l'aiuto!
Ho un dubbio su una parte delle "dispense" di Sergio, forse mi sto perdendo qualcosa:
Il post è quello sul Kernel di un'applicazione: http://www.matematicamente.it/forum/post334133.html#p334133
"Sergio":
Costruiamo il sistema $Ax=0$ e risolviamolo. Riducendo la matrice a gradini otteniamo un sistema equivalente più semplice ed il relativo insieme delle soluzioni (queste cose in genere si sanno fare):
$Ax=0 " "=>" " {(x_1-x_3=0),(x_2-x_3=0) :} " "=>" " "Sol"(A,0)=\{t((1),(1),(1))" : "t in RR\}$
La dimensione del nucleo è chiaramente $1$, ma...
la soluzione di questo sistema non dovrebbe essere un vettore da 2 elementi (sol di due variabili) moltiplicato per una libera?
A me riducendo con l'eliminazione di Gauss viene così, (è equivalente) e la soluzione mi viene naturale formularla in questo modo. Vero è che poi il prodotto degli elementi di un vettore da due elementi con 3 elementi della B non torna.
$Ax=0 " "=>" " {(x_1-x_2=0),(x_2-x_3=0) :} " "=>" " "Sol"(A,0)=\{x_3((1),(1))" : "x_3 in RR\}$
Cosa mi sono perso per strada?
Grazie a tutti per l'aiuto!
Risposte
ciao,
dato il sistema lineare $ { ( x_{1}= x_{3} ),( x_{2}=x_{3} ):} $ è evidente che hai un sistema di due equazioni con tre incognite...
per Rouchè-Capelli sappiamo che esso ammette infnite soluzioni dipendeti da $(3-2)=1$ parametro. Si scrive spesso: $ \infty^1 $ soluzioni.
Assegnamo dunque il ruolo di parametro "libero" a $x_{3}$, poiché è il più conveniente.
$ { ( x_{1}=t ),( x_{2}= t ),( x_{3}=t ):} $ , da cui:
$ kerphi= {vec(v)\in V| vec(v)= t((1),(1),(1))} $ , dove con $\phi$ intendo l'applicazione lineare associata generica, mentre con $v$ lo spazio di partenza.
Infatti, gli elementi del $ker\phi$, sono proprio quei vettori che appartengono allo spazio di partenza (interpretalo come dominio), che tramite l'applicazione $\phi$ vengono mappati nel vettore nullo !
Prova a calcolare $A*v$ con il vettore $((1),(1),(1))$ e osserverai che viene mappato in $vec(0)$
dato il sistema lineare $ { ( x_{1}= x_{3} ),( x_{2}=x_{3} ):} $ è evidente che hai un sistema di due equazioni con tre incognite...
per Rouchè-Capelli sappiamo che esso ammette infnite soluzioni dipendeti da $(3-2)=1$ parametro. Si scrive spesso: $ \infty^1 $ soluzioni.
Assegnamo dunque il ruolo di parametro "libero" a $x_{3}$, poiché è il più conveniente.
$ { ( x_{1}=t ),( x_{2}= t ),( x_{3}=t ):} $ , da cui:
$ kerphi= {vec(v)\in V| vec(v)= t((1),(1),(1))} $ , dove con $\phi$ intendo l'applicazione lineare associata generica, mentre con $v$ lo spazio di partenza.
Vero è che poi il prodotto degli elementi di un vettore da due elementi con 3 elementi della B non torna.
Infatti, gli elementi del $ker\phi$, sono proprio quei vettori che appartengono allo spazio di partenza (interpretalo come dominio), che tramite l'applicazione $\phi$ vengono mappati nel vettore nullo !

Prova a calcolare $A*v$ con il vettore $((1),(1),(1))$ e osserverai che viene mappato in $vec(0)$
Quindi, ho anche rivisto qualcosa, la variabile libera nel vettore della soluzione non si "cancella" ma è sempre uguale a se stessa. infatti la dimensione non dovrebbe variare da quella dello spazio a cui i vettori appartengono.
...e io dovrei fare qualche esercizio in più mentre studio la teoria.
Grazie del chiarimento!
...e io dovrei fare qualche esercizio in più mentre studio la teoria.
Grazie del chiarimento!
Certo ! Eliminare la variabile libera cambia la dimensione del vettore...e ciò non deve essere.
Ad essa, appunto perché "libera", assegni un parametro e poi, sostituendo all'indietro, ricavi le altre incognite in funzione di essa
Ad essa, appunto perché "libera", assegni un parametro e poi, sostituendo all'indietro, ricavi le altre incognite in funzione di essa

A titolo di maggior chiarezza. la soluzione in questo caso:
$V nn W$ sarebbe il vettore ${\l(1,-1/3,-2/3)\}$ con $x=l$ .
Non centra molto ma è un esempio analogo da cui avevo tratto una conclusione sbagliata secondo quello che credevo all'inizio
"Sergio":
Esempio: dati i sottospazi di $RR^3$ $V=\{(x,y,z)":"x+y-z=0\}$ e $W=\{(x,y,z)":"x-y=0\}$, si trova che una base di $V$ è $B_V=\{(-1,1,0),(1,0,1)\}$, mentre una base di $W$ è $B_W=\{(1,1,0),(0,0,1)\}$. Questi calcoli in genere si sanno fare. Per trovare una base di $V+W$ basta mettere insieme i quattro vettori delle due basi trovate e vedere quali sono quelli linearmente indipendenti, e anche questo in genere si sa fare. A volte si dimentica, però, come fare per trovare una base di $V nn W$: in realtà basta trovare una base per un sottospazio che rispetti sia la definizione di $V$ che quella di $W$, si tratta cioè di risolvere il sistema:
${(x+y-z=0),(x-y=0) :}$
La formula di Grassmann aiuta poi a capire se si è sbagliato qualcosa.
$V nn W$ sarebbe il vettore ${\l(1,-1/3,-2/3)\}$ con $x=l$ .
Non centra molto ma è un esempio analogo da cui avevo tratto una conclusione sbagliata secondo quello che credevo all'inizio

probabilmente hai commesso qualche errore:
abbiamo due metodi (in realtà analoghi):
o procediamo direttamente alla risoluzione del tuo sistema come hai fatto te, oppure, sapendo che EG (eliminazione gaussiana) manda sistemi lineare in altri sistemi lineari equivalenti, possiamo prendere la matrice associata:
$ [ ( 1 , 1 , -1 ),( 1 , -1 , 0 ),( 0,0,0 ) ] $ e ridurla:
$ [ ( 1 , 1 , -1 ),( 0,-2,1 ),( 0,0,0 ) ] $
Prendiamo ora come parametro libero la y, già sappiamo che avremo $\infty^{1} soluzioni$.
Nota che la scelta del parametro è arbitraria e dettata dall'evitare conti con frazioni e sostituzioni evitabili.
Otteniamo: $ { ( x=\xi ),( y=\xi ),( z=2\xi ):} $ , pertanto il sottospazio $ Vnn W = {<((1),(1),(2))>} $
abbiamo due metodi (in realtà analoghi):
o procediamo direttamente alla risoluzione del tuo sistema come hai fatto te, oppure, sapendo che EG (eliminazione gaussiana) manda sistemi lineare in altri sistemi lineari equivalenti, possiamo prendere la matrice associata:
$ [ ( 1 , 1 , -1 ),( 1 , -1 , 0 ),( 0,0,0 ) ] $ e ridurla:
$ [ ( 1 , 1 , -1 ),( 0,-2,1 ),( 0,0,0 ) ] $
Prendiamo ora come parametro libero la y, già sappiamo che avremo $\infty^{1} soluzioni$.
Nota che la scelta del parametro è arbitraria e dettata dall'evitare conti con frazioni e sostituzioni evitabili.
Otteniamo: $ { ( x=\xi ),( y=\xi ),( z=2\xi ):} $ , pertanto il sottospazio $ Vnn W = {<((1),(1),(2))>} $
Torna, grazie!