Dimostrazione algoritmo di Gram-Schmidt
Ciao a tutti, io ho sempre saputo una dimostrazione piuttosto semplice dell'algoritmo di ortogonalizzazione di Gram-Schmidt, ma studiando su un altro testo ne ho trovata una più complessa e quindi mi chiedo: non è che la dimostrazione che conosco io ha qualcosa che non va? Di seguito porto quella che ho sempre usato, ditemi che ne pensate.
Teorema (ortogonalizzazione di Gram-Schmidt) Sia $V$ uno spazio euclideo e siano $v_1,…,v_k ∈V$ linearmente indipendenti. Allora esistono $w_1,…,w_k ∈V$ tali che
(i) $Span(w_1,…,w_j)=Span(v_1,…,v_j)∀j∈{1,…,k}$
(ii) $w_j$ è ortogonale ad ogni vettore di $Span(v_1,…,v_j)∀j∈{2,…,k}$
I vettori ${w_j}_{j=1}^k$ sono ottenuti ponendo
$w_1=v_1$ e $w_j=v_j-sum_{h=1} ^{j-1} (<>)/(<>) w_h forall j in {2,...,k}$
e sono unici a meno di fattori scalari.
Dimostrazione
Procediamo per induzione su $k in bbbN$. Per $k=1$ si ha $v_1 != 0$ per cui ponendo $w_1=lambda v_1$ con $lambda !=0$ scalare, questo soddisfa (i) e (ii). Ora, siano $w_1,...,w_{k-1} in V$ tali che valgano (i) e (ii). Poichè $v_1,...,v_k$ sono linearmente indipendenti $v_k notin Span(v_1,…,v_{k-1})=Span(w_1,...,w_{k-1})$ per cui $Span(w_1,...,w_{k-1},v_k)$ ha dimensione $k$ e quindi $Span(w_1,...,w_{k-1},v_k)=Span(v_1,...,v_k)$. Ora ponendo
$w_k=v_k - sum_{h=1}^{k-1} (<>)/(<>) w_h$
segue che $forall j in {1,...,k-1}$ si ha
$<>=<>)/(<>) w_h,w_j>>=$
$=<>-sum_{h=1}^{k-1} (<>)/(<>) <>=$
$=<> - (<>)/(<>) <>=0$
cioè $w_k$ è ortogonale ai vettori $w_1,...,w_{k-1}$; quindi $w_k$ è pure linearmente dipendente a questi per cui posso affermare che $Span(w_1,…,w_k)=Span(v_1,…,v_k)$.
N.B. Il testo fa una dimostrazione differente perchè aggiunge un terzo punto alla tesi, cioè
(iii) $<>>0 forall j in {1,...,k}$.
Ma il fatto è: se non mi serve dimostrare la (iii), la dimostrazione che ho scritto sopra è corretta?
Grazie a tutti!
Teorema (ortogonalizzazione di Gram-Schmidt) Sia $V$ uno spazio euclideo e siano $v_1,…,v_k ∈V$ linearmente indipendenti. Allora esistono $w_1,…,w_k ∈V$ tali che
(i) $Span(w_1,…,w_j)=Span(v_1,…,v_j)∀j∈{1,…,k}$
(ii) $w_j$ è ortogonale ad ogni vettore di $Span(v_1,…,v_j)∀j∈{2,…,k}$
I vettori ${w_j}_{j=1}^k$ sono ottenuti ponendo
$w_1=v_1$ e $w_j=v_j-sum_{h=1} ^{j-1} (<
e sono unici a meno di fattori scalari.
Dimostrazione
Procediamo per induzione su $k in bbbN$. Per $k=1$ si ha $v_1 != 0$ per cui ponendo $w_1=lambda v_1$ con $lambda !=0$ scalare, questo soddisfa (i) e (ii). Ora, siano $w_1,...,w_{k-1} in V$ tali che valgano (i) e (ii). Poichè $v_1,...,v_k$ sono linearmente indipendenti $v_k notin Span(v_1,…,v_{k-1})=Span(w_1,...,w_{k-1})$ per cui $Span(w_1,...,w_{k-1},v_k)$ ha dimensione $k$ e quindi $Span(w_1,...,w_{k-1},v_k)=Span(v_1,...,v_k)$. Ora ponendo
$w_k=v_k - sum_{h=1}^{k-1} (<
segue che $forall j in {1,...,k-1}$ si ha
$<
$=<
$=<
cioè $w_k$ è ortogonale ai vettori $w_1,...,w_{k-1}$; quindi $w_k$ è pure linearmente dipendente a questi per cui posso affermare che $Span(w_1,…,w_k)=Span(v_1,…,v_k)$.
N.B. Il testo fa una dimostrazione differente perchè aggiunge un terzo punto alla tesi, cioè
(iii) $<
Ma il fatto è: se non mi serve dimostrare la (iii), la dimostrazione che ho scritto sopra è corretta?
Grazie a tutti!