Dimostrazione dell'esistenza della base
Ciao,
ho un problema riguardo la dimostrazione di una proposizione che serve a dimostrare l'esistenza delle basi.
Proposizione:
Sia $S$ una matrice a scala di tipo $mxxn$ e rango $r$. Siano $s_1, ... , s_r$ i suoi vettori riga non nulli e siano $s^{j_1}, ... , s^{j_r}$ i suoi vettori colonna corrispondenti ai pivots. Allora:
a) $s_1, ... , s_r$ sono linearmente indipendenti e formano una base per lo spazio generato dai vettori riga di $S$;
b) $s^{j_1}, ... , s^{j_r}$ sono linearmente indipendenti e formano una base per lo spazio generato dai vettori colonna di $S$.
Dimostrazione (sperando siano corretti, riporto i passaggi illustrati in aula che non ho ben capito, forse facendo troppa confusione tra righe e colonne, e che non ho trovato spiegati in nessun volume che ho consultato...):
Questa è la generica matrice a scala:
$S=[[0,...,0,p_1,**,**,**,**],[0,...,...,0,p_2,**,**,**],[vdots,vdots,vdots,vdots,vdots,vdots,vdots,vdots],[0,...,...,...,...,...,p_r,**],[0,...,...,...,...,...,...,0]]$
dove $**$ rappresenta un generico numero reale e $p_1, ..., p_r$ sono i pivots.
a) (bisogna dimostrare che le prime $r$ righe di $S$ sono linearmente indipendenti)
Si consideri:
$\alpha_1 s_1+alpha_2 s_2+...+alpha_r s_r=0$
(due vettori sono linearmente indipendenti se e solo se la combinazione lineare uguale a zero ha come unica soluzione tutti i coefficienti uguali a zero: pertanto bisogna dimostrare che $alpha_1=alpha_2=...=alpha_r=0$)
$s_1$ è il vettore riga composto da un certo numero di $0$, il pivot $p_1$ e di seguito "valori che non importano".
Inoltre, se $p_1$ occupa il posto $j_1$, è l'unico valore di quella colonna diverso da $0$, perché $p_1$ è il pivot.
$alpha_1 p_1=0$ implica che almeno uno dei due tra $alpha_1$ e $p_1$ sia $0$.
Ma poiché, per definizione di pivot, $p_1!=0$ allora $alpha_1=0$.
Tale ragionamento può essere applicato anche ai vettori successivi, perché ad esempio di seguito si trova $alpha_1 ** + alpha_2 p_2=0$ che, a prescindere dal valore assunto da $**$, poiché viene moltiplicato per $alpha_1=0$ varrà $0$ e quindi si torna ad avere $alpha_2 p_2$.
Ciò dimostra che i vettori riga sono linearmente indipendenti (ma non che sono una base).
Il fatto che formano una base non si dimostra perché banale: infatti avendo $r$ vettori linearmente indipendenti e il resto dei vettori composti da tutti zero è una base per uno spazio di dimensione $r$.
b) (bisogna dimostrare che le colonne sono linearmente indipendenti)
Per dimostrare l'indipendenza lineare bisogna prendere in considerazione la combinazione lineare delle righe.
$alpha_1 s^{j_1} + ... + alpha_r s^{j_r} =0$
Dove gli $s^j$ sono i vettori colonna della matrice ridotta a scala che contengono i pivot.
$s^{j_1}=[[p_1],[0],[vdots],[vdots],[0]]$ e $s^{j_2}=[[**],[p_2],[0],[vdots],[0]]$
Tale sistema di equazioni può essere scritto in forma compatta matriciale come:
$S_0* ul alpha =0$
che in sostanza moltiplica ciascun vettore per il rispettivo scalare $alpha$.
Il sistema ha come incognite i parametri $alpha$ che hanno come coefficienti i valori dei vettori $s^j$ (la matrice dei coefficienti è proprio $S_0$ ed è una sottomatrice di $S$).
Il sistema è lineare, con $S_0$ matrice quadrata di rango massimo (non più a scala ma triangolare e con tutti gli elementi sulla diagonale diversi da 0 perché sono i pivot): quindi la soluzione è unica e siccome è un sistema omogeneo, l'unica soluzione è quella nulla.
Pertanto i vettori sono linearmente indipendenti.
Inoltre questi vettori rappresentano una base perché, se si aggiunge un vettore, questo può essere scritto in funzione degli altri, che quindi sono una base.
$square$
[hl]Grazie a chiunque mi darà una mano[/hl]
ho un problema riguardo la dimostrazione di una proposizione che serve a dimostrare l'esistenza delle basi.
Proposizione:
Sia $S$ una matrice a scala di tipo $mxxn$ e rango $r$. Siano $s_1, ... , s_r$ i suoi vettori riga non nulli e siano $s^{j_1}, ... , s^{j_r}$ i suoi vettori colonna corrispondenti ai pivots. Allora:
a) $s_1, ... , s_r$ sono linearmente indipendenti e formano una base per lo spazio generato dai vettori riga di $S$;
b) $s^{j_1}, ... , s^{j_r}$ sono linearmente indipendenti e formano una base per lo spazio generato dai vettori colonna di $S$.
Dimostrazione (sperando siano corretti, riporto i passaggi illustrati in aula che non ho ben capito, forse facendo troppa confusione tra righe e colonne, e che non ho trovato spiegati in nessun volume che ho consultato...):
Questa è la generica matrice a scala:
$S=[[0,...,0,p_1,**,**,**,**],[0,...,...,0,p_2,**,**,**],[vdots,vdots,vdots,vdots,vdots,vdots,vdots,vdots],[0,...,...,...,...,...,p_r,**],[0,...,...,...,...,...,...,0]]$
dove $**$ rappresenta un generico numero reale e $p_1, ..., p_r$ sono i pivots.
a) (bisogna dimostrare che le prime $r$ righe di $S$ sono linearmente indipendenti)
Si consideri:
$\alpha_1 s_1+alpha_2 s_2+...+alpha_r s_r=0$
(due vettori sono linearmente indipendenti se e solo se la combinazione lineare uguale a zero ha come unica soluzione tutti i coefficienti uguali a zero: pertanto bisogna dimostrare che $alpha_1=alpha_2=...=alpha_r=0$)
$s_1$ è il vettore riga composto da un certo numero di $0$, il pivot $p_1$ e di seguito "valori che non importano".
Inoltre, se $p_1$ occupa il posto $j_1$, è l'unico valore di quella colonna diverso da $0$, perché $p_1$ è il pivot.
$alpha_1 p_1=0$ implica che almeno uno dei due tra $alpha_1$ e $p_1$ sia $0$.
Ma poiché, per definizione di pivot, $p_1!=0$ allora $alpha_1=0$.
Tale ragionamento può essere applicato anche ai vettori successivi, perché ad esempio di seguito si trova $alpha_1 ** + alpha_2 p_2=0$ che, a prescindere dal valore assunto da $**$, poiché viene moltiplicato per $alpha_1=0$ varrà $0$ e quindi si torna ad avere $alpha_2 p_2$.
Ciò dimostra che i vettori riga sono linearmente indipendenti (ma non che sono una base).
Il fatto che formano una base non si dimostra perché banale: infatti avendo $r$ vettori linearmente indipendenti e il resto dei vettori composti da tutti zero è una base per uno spazio di dimensione $r$.
b) (bisogna dimostrare che le colonne sono linearmente indipendenti)
Per dimostrare l'indipendenza lineare bisogna prendere in considerazione la combinazione lineare delle righe.
$alpha_1 s^{j_1} + ... + alpha_r s^{j_r} =0$
Dove gli $s^j$ sono i vettori colonna della matrice ridotta a scala che contengono i pivot.
$s^{j_1}=[[p_1],[0],[vdots],[vdots],[0]]$ e $s^{j_2}=[[**],[p_2],[0],[vdots],[0]]$
Tale sistema di equazioni può essere scritto in forma compatta matriciale come:
$S_0* ul alpha =0$
che in sostanza moltiplica ciascun vettore per il rispettivo scalare $alpha$.
Il sistema ha come incognite i parametri $alpha$ che hanno come coefficienti i valori dei vettori $s^j$ (la matrice dei coefficienti è proprio $S_0$ ed è una sottomatrice di $S$).
Il sistema è lineare, con $S_0$ matrice quadrata di rango massimo (non più a scala ma triangolare e con tutti gli elementi sulla diagonale diversi da 0 perché sono i pivot): quindi la soluzione è unica e siccome è un sistema omogeneo, l'unica soluzione è quella nulla.
Pertanto i vettori sono linearmente indipendenti.
Inoltre questi vettori rappresentano una base perché, se si aggiunge un vettore, questo può essere scritto in funzione degli altri, che quindi sono una base.
$square$
[hl]Grazie a chiunque mi darà una mano[/hl]
Risposte
Hai riportato la dimostrazione, ma quali sono le tue perplessità specifiche?
"080e73990d22b9e30ee6fddddc45a902d78283e6":
Hai riportato la dimostrazione, ma quali sono le tue perplessità specifiche?
Ho capito l'indipendenza lineare, ma non capisco come ci arrivo a dimostrarla.
Per capirci, nella parte di dimostrazione a, la prima riga perché diventa $0$? Cioè, io ho $alpha_1 (p_1 + **_1 + **_2 +...)=0$ che sarebbe $alpha_1 p_1 + alpha_1 **_1 + alpha_1 **_2 + ... =0$.
Come faccio a dimostrare che l'unica possibilità è avere $alpha_1=0$?
Poi, perché nel cercare di dimostrare l'indipendenza lineare dei vettori riga prendo in considerazione $p_1$ come unico elemento diverso da $0$ della colonna?
Spero di essere riuscita a spiegarmi...
Grazie ancora per la disponibilità!
"serepopsong":
[...]
Per capirci, nella parte di dimostrazione a, la prima riga perché diventa $0$? Cioè, io ho $alpha_1 (p_1 + **_1 + **_2 +...)=0$ che sarebbe $alpha_1 p_1 + alpha_1 **_1 + alpha_1 **_2 + ... =0$.
Come faccio a dimostrare che l'unica possibilità è avere $alpha_1=0$? [...]
Stai sommando vettori, la combinazione lineare delle righe \( s_1 , \dots s_r \) deve essere uguale alla riga fatta tutta di zeri, il che significa che ogni componente della riga \( \alpha_1 s_1 + \dots + \alpha_r s_r \) deve essere (posta) \( = 0\). Ora nella riga \( s_1 \) il primo elemento (da sinistra) ad essere diverso da zero sta, diciamo, nella posizione \( m_1\); nelle righe \( s_2, \dots , s_r \) ci sono almeno \( n- m_1 \) zeri (partendo da sinistra). Quindi quando costruisci la combinazione lineare \( \alpha_1 s_1 + \dots + \alpha_r s_r \) l'unico elemento non nullo nella posizione \(m_1\) e' \( \alpha_1 p_1 \), che dovra' essere posto \( = 0 \) (perche' stiamo studiando l'indipendenza lineare). Siccome \( p_1 \ne 0 \) per ipotesi ne deduci che \( \alpha_1 = 0\). E continui a cascata.
Grazie infinite!