Domande teoria di algebra lineare
Salve,
Mi sfugge qualcosa e non riesco a comprendere queste affermazioni:
Dato una spazio vettoriale V, sia W un suo sottospazio
W=span{w1,..,wk}
B={v1,...vn} base di W
posso scrivere ogni elemento di W come combinazione lineare degli elementi della base B.
Dalle combinazioni lineari estrapolo i coefficienti ed ottengo la matrice dei coefficienti "A".
I miei dubbi sono i seguenti:
Le righe della matrice ridotta sono Linearmente indipendenti. Perché? Quale teorema me lo assicura??
La seconda domanda è più una conseguenza dell'affermazione di sopra: Dim(W)=rango(A)?
Vi ringrazio in anticipo.
Buon proseguimento.
Mi sfugge qualcosa e non riesco a comprendere queste affermazioni:
Dato una spazio vettoriale V, sia W un suo sottospazio
W=span{w1,..,wk}
B={v1,...vn} base di W
posso scrivere ogni elemento di W come combinazione lineare degli elementi della base B.
Dalle combinazioni lineari estrapolo i coefficienti ed ottengo la matrice dei coefficienti "A".
I miei dubbi sono i seguenti:
Le righe della matrice ridotta sono Linearmente indipendenti. Perché? Quale teorema me lo assicura??
La seconda domanda è più una conseguenza dell'affermazione di sopra: Dim(W)=rango(A)?
Vi ringrazio in anticipo.
Buon proseguimento.
Risposte
Beh hai uno $Span$ di vettori che generano uno spazio e una base dello spazio stesso.
Prendiamo $DimV=n$ e $B_V={v_1,...,v_n}$
E anche $Span(w_1,...,w_m)$
È noto che deve essere $mgeqn$.
Poiché lo $Span$ genera tutto lo spazio, allora ogni vettore dello spazio e quindi della sua base, possono scriversi come combinazione lineare dei vettori dello $Span$
$v_j=sum_(k=1)^(m)a_(jk)w_k,forallj=1,...,n$
Ora prendo la matrice $((a_11,a_21,...,a_(n1)),(a_12,a_22,...,a_(n1)),( : , : ,...,: ),(a_(1m),a_(2m),...,a_(nm)))$
Dove le colonne sono le componenti dei vettori rispetto allo $Span$
Supponiamo per assurdo che le colonne siano linearmente dipendenti.
Dunque $exists lambda_1,...,lambda_n inK:lambda_1A^1+...+lambda_nA^n=0$ per qualche $lambda_kne0$
Ma $A^j=sum_(k=1)^(m)a_(jk)w_k=v_j$
Dunque avremmo che $lambda_1v_1+...+lambda_nv_n=0$ per qualche $lambda_kne0$
E questo è assurdo poiché $v_1,..,v_n$ sono vettori dicuna base e quindi linearmente indipendenti.
Dunque gli scalari sono tutti nulli e in particolare le colonne sono tutte linearmente indipendenti.
Inoltre $r(A)=r_c(A)=DimCol(A)=dimSpan(A^1,...,A^n)=dimSpan(v_1,...,v_n)=n$
Dunque $r(A)=n=dimW$
Di fatto $n=r(A)leqmin{n,m}=>nleqmin{n,m}$,
In particolare $nleqm$
Se saltasse il fatto che sappiamo che $r_c(A)=r_r(A)$ potremmo dimostrare lo stesso questa cosa, stringendo un po' quello che chiedi ovvero semplicemente che $r_c(A)=n=dimW$
Però potremmo dire che i vettori della base sono un sistema massimale di generatori di $W$ tale che tolto un vettore, essi non generano più $W$ dunque se avessi $w_m$ con $m
Questo potresti dimostrarle effettuando proprio $m$ scambi in questo modo
E niente.
Prendiamo $DimV=n$ e $B_V={v_1,...,v_n}$
E anche $Span(w_1,...,w_m)$
È noto che deve essere $mgeqn$.
Poiché lo $Span$ genera tutto lo spazio, allora ogni vettore dello spazio e quindi della sua base, possono scriversi come combinazione lineare dei vettori dello $Span$
$v_j=sum_(k=1)^(m)a_(jk)w_k,forallj=1,...,n$
Ora prendo la matrice $((a_11,a_21,...,a_(n1)),(a_12,a_22,...,a_(n1)),( : , : ,...,: ),(a_(1m),a_(2m),...,a_(nm)))$
Dove le colonne sono le componenti dei vettori rispetto allo $Span$
Supponiamo per assurdo che le colonne siano linearmente dipendenti.
Dunque $exists lambda_1,...,lambda_n inK:lambda_1A^1+...+lambda_nA^n=0$ per qualche $lambda_kne0$
Ma $A^j=sum_(k=1)^(m)a_(jk)w_k=v_j$
Dunque avremmo che $lambda_1v_1+...+lambda_nv_n=0$ per qualche $lambda_kne0$
E questo è assurdo poiché $v_1,..,v_n$ sono vettori dicuna base e quindi linearmente indipendenti.
Dunque gli scalari sono tutti nulli e in particolare le colonne sono tutte linearmente indipendenti.
Inoltre $r(A)=r_c(A)=DimCol(A)=dimSpan(A^1,...,A^n)=dimSpan(v_1,...,v_n)=n$
Dunque $r(A)=n=dimW$
È noto che deve essere $mgeqn$.
Di fatto $n=r(A)leqmin{n,m}=>nleqmin{n,m}$,
In particolare $nleqm$
Se saltasse il fatto che sappiamo che $r_c(A)=r_r(A)$ potremmo dimostrare lo stesso questa cosa, stringendo un po' quello che chiedi ovvero semplicemente che $r_c(A)=n=dimW$
Però potremmo dire che i vettori della base sono un sistema massimale di generatori di $W$ tale che tolto un vettore, essi non generano più $W$ dunque se avessi $w_m$ con $m
E niente.