Matrici linearmente dipendenti
Considerato lo spazio delle matrici reali quadrate di ordine 2 e date le matrici:
$A=((0,1),(0,0))$
e
$B=((1,1),(0,1))$
dire per quali valori di k si ha che le matrici
$(1-k)A+kB$
e
$kA+(1-k)B$
sono linearmente dipendenti.
Non so come risolvere, mi aiutate?
Grazie.
$A=((0,1),(0,0))$
e
$B=((1,1),(0,1))$
dire per quali valori di k si ha che le matrici
$(1-k)A+kB$
e
$kA+(1-k)B$
sono linearmente dipendenti.
Non so come risolvere, mi aiutate?
Grazie.
Risposte
questo esercizio mi lascia un po' perplesso
comunque,se non ho fatto male i calcoli,la prima somma è uguale a
$C= ( ( k , 1 ),( 0 , k ) ) $
e la seconda è uguale a
$D= ( ( 1-k , 1 ),( 0 , 1-k ) ) $
dovremmo vedere per quali $k$ esiste un $lambda$ tale $C=lambdaD$
direi che c'e solo la possibilità,$lambda=1$ cioè $C=D$ per $k=1/2$
la perplessità consiste nel chiamare matrici dipendenti 2 matrici uguali
comunque,se non ho fatto male i calcoli,la prima somma è uguale a
$C= ( ( k , 1 ),( 0 , k ) ) $
e la seconda è uguale a
$D= ( ( 1-k , 1 ),( 0 , 1-k ) ) $
dovremmo vedere per quali $k$ esiste un $lambda$ tale $C=lambdaD$
direi che c'e solo la possibilità,$lambda=1$ cioè $C=D$ per $k=1/2$
la perplessità consiste nel chiamare matrici dipendenti 2 matrici uguali