Basi Ortogonali e Ortogonali su spazio nullo di una matrice

Laemoth
Salve a tutti, sto preparando l' esame di Algebra Lineare al corso di informatica UNIVR ed un esercizio costante negli esami e', data una matrice ed un valore α, calcolare la base ortogonale C(Aα) e la base ortogonale N(Aα), che sono rispettivamente la base ortogonale e la base su spazio nullo.

Inutile dire che ho piu' di un dubbio su questi argomenti, dubbi che non ho sanato ne' guardando i thread su questo forum ne' le lezioni.

partiamo subito con un esempio pratico: ultimo esercizio svolto in preparazione:

La matrice data e' la seguente:

$ ( ( -1 , α , -α , 1 ),( -α , 1 , -1 , 1 ),( -1 , α , 0 , 1 ) ) $

con α = 2 per la base ortogonale C(Aα) e α=0 per la base ortogonale N(Aα).

Ora, con α=2 e procedendo con l' eliminazione Gaussiana si ottiene la seguente tabella:

$ ( ( 1 , -2 , 2 , -1 ),( 0 , 1 , -1 , 1/3 ),( 0 , 0 , 1 , 0 ) ) $

che avendo la diagonale completa ha 3 pivot e, di conseguenza, 3 vettori base rispettivamente
[-1, 2, -1]
[2, 1, 2]
[-2, -1, 0]
(ricavati sostituendo 2 alla variabile nella matrice di partenza).


ovvio che avendo 3 vettori e non 2 la formula abbreviata non funziona (mettere a sistema i 3 vettori mettendoli = 0 e trovare il vettore base risultante), dando come risultato [0, 0, 0], quindi ho seguito l' algoritmo di Gram-Schmidt.

E qui sorge il primo dubbio: le slide del mio corso vanno in contrasto con cio' che si legge in internet, quindi chiedo conferma del procedimento (non avendo nemmeno il risultato dell' esercizio sotto mano, essendo una prova d' esame del 2008 la cui correzione risulta irrintracciabile)

la pratica seguita e' questa:

w1 = v1

w2= $ v2 - (v2\cdot w1-: w1\cdot w1) \cdot w1 $

w3 = $v3 - (v3\cdot w1-: w1\cdot w1) \cdot w1 - (v3\cdot w2-: w2\cdot w2) \cdot w2 $

che equivale a:

w1 = $ | ( -1 ),( -2 ),( -1 ) | $

w2 = $ | ( 2 ),( 1 ),( 2 ) | - (| ( 2 ),( 1 ),( 2 ) | .|(-1),(-2),(-1)|) / (|(-1),(-2),(-1)|.|(-1),(-2),(-1)|) . |(-1),(-2),(-1)| $

w3= $ | ( -2 ),( 1 ),( 0 ) | - (| ( -2 ),( 1 ),( 0 ) | .|(-1),(-2),(-1)|) / (|(-1),(-2),(-1)|.|(-1),(-2),(-1)|) . |(-1),(-2),(-1)| - (| ( -2 ),( 1 ),( 0 ) | .| (1), (-1), (1)|) / (| (1), (-1), (1)|.| (1), (-1), (1)|) . | (1), (-1), (1)| $


Dando come risultato la base ortogonale $ B ={| (-1), (-2), (-1)|, |(1), (-1), (1)|, |(1), (-2), (-3)|} $

E fin qui il procedimento dovrebbe essere giusto, ma ora arriva la parte divertente: la Base ortogonale dello Spazio Nullo.

Abbiamo ora α = 0, il che porta la matrice, dopo eliminazione gaussiana, in questa forma:

$ ( ( 1 , 0 , 0 , -1 ),( 0 , 1 , -1 , 1 ),( 0 , 0 , 0 , 0 ) ) $

moltiplichiamo la matrice per il vettore di incognite $ | ( a ),( b ),( c ),( d ) | $ ed il sistema che otteniamo
e' il seguente:

$ { ( a - d = 0 ),( b - c + d = 0 ),( 0 = 0):} $

che porta a:

$ { ( a = d ),( d = c - d ),( 0 = 0):} $

Bene, ora abbiamo due incognite, e questo sinceramente mi ha mandato abbastanza in pappa il cervello e smontato ogni mia convinzione.

cos'ho sbagliato? mi sta forse sfuggendo l' ovvio? o i miei procedimenti sono sbagliati?
Ammetto di essere MOLTO insicuro poiche' questo esame lo sto preparando in autonomia da 0, senza un testo a cui fare riferimento e senza aver mai presenziato ad una sola lezione per cause di forza maggiore; tutto cio' che ho imparato quindi lo devo a internet, testi d' esame passati e slide trovate qui e la'.

So di aver fatto un post chilometrico, forse esageratamente specifico e con dubbi generici, ma ho un disperato bisogno di aiuto e confido nella bonta' e comprensione del webbe :D

Risposte
Magma1
"Laemoth":
data una matrice ed un valore $alpha$, calcolare la base ortogonale $C(Aalpha)$ e la base ortogonale $N(Aalpha)$, che sono rispettivamente la base ortogonale e la base su spazio nullo.

Cosa sarebbe la base su spazio nullo?
Comunque per me $Aalpha$ indica una matrice $A$ moltiplicata per uno scalare $alpha$, cosa che non si evince dalla matrice da te scritta; intendi forse $A_alpha$?

"Laemoth":

La matrice data e' la seguente [...] con α=2 e procedendo con l' eliminazione Gaussiana si ottiene la seguente tabella:

$ ( ( 1 , -2 , 2 , -1 ),( 0 , 1 , -1 , 1/3 ),( 0 , 0 , 1 , 0 ) ) $


che avendo la diagonale completa ha 3 pivot e, di conseguenza, 3 vettori base rispettivamente
$(-1, 2, -1)$
$(2, 1, 2)$
$(-2, -1, 0)$

(ricavati sostituendo 2 alla variabile nella matrice di partenza).

Quindi un sistema di $3$ equazioni in $4$ incognite con $r(A_2)=3$ avrebbe $oo^3$ soluzioni? :smt067 :smt067 :roll: :-D

Dovresti invece sapere che
$\text{numero pivot }-r(A)=\text{numero incognite libere}$


ovvero un sistema che ha $m$ incognite e un rango[nota]Ovviamente riferito alla matrice dei coefficienti :roll:[/nota] pari a $r$ avrà $oo^(m-r)$ soluzioni.

"Laemoth":

Abbiamo ora $α = 0$, il che porta la matrice, dopo eliminazione gaussiana, in questa forma:

$ ( ( 1 , 0 , 0 , -1 ),( 0 , 1 , -1 , 1 ),( 0 , 0 , 0 , 0 ) ) $


$S: qquad ( ( 1 , 0 , 0 , -1 ),( 0 , 1 , -1 , 1 ),( 0 , 0 , 0 , 0 ) ) ((x),(y),(z),(t))=((0),(0),(0),(0))$


$S$ è un sistema lineare omogeneo in $3$ equazioni e quattro incognite e, ammesso che i tuoi calcoli siano giusti, si ha $r(A_0)=2$ per cui ci aspettiamo che $S$ abbia $oo^(4-2)=oo^2$ soluzioni; infatti un vettore soluzione è

$((t),(z-t),(z),(t)) hArr z((0),(1),(1),(0))+t((1),(-1),(0),(1))$

Laemoth
Ma quindi il mio procedimento nella seconda parte è giusto, ed è giusto arrivare a 2 incognite (ma allora mi sa che non ho capito come raccoglierle poi)?

E poi, chiedo pazienza, ma allora non ho capito come si prendono i pivot e di vettori base (perché suppongo allora che non siano quelli, e che il procedimento anche se giusto non abbia portato al risultato sperato), cosa dovrei fare?

Purtroppo mi trovo con una mole di nozioni fuori di testa e mettere assieme tutti i puntini non è semplicissimo, sono ore che sbatto la testa su sta cosa ahahah!

Magma1
Prendi la matrice $M$ e la riduci tramite l'algoritmo di Gauss-Jordan fino ad ottenere un pivot[nota]È un numero non nullo che al di sotto ha solo zeri.[/nota] su ogni riga non nulla.
Nel caso in cui si hanno $oo^(n-r)$ soluzioni, su ogni riga si sceglie un unico pivot come incognita dipendente, cioè quelle che dipendono dal valore delle restanti incognite. Tutte le incognite che non dipendenti[nota]Ovvero tutti i valori che non sono pivot o che lo sono ma sulla stessa riga si è già scelto un altro pivot come incognita dipendente[/nota] vanno "spostate" a sinistra dell'uguale.

Laemoth
Quindi, riprendendo l' esempio, su che vettori avrei dovuto applicare Gram-Schmidt? solo il primo e secondo? o addirittura primo secondo e quarto?

Magma1
Non capisco! Per $A_2$ vedo un unico vettore, mentre per $A_0$ ne vedo due; quale sarebbe il terzo e quarto vettore?

In ogni caso si definisce base ortogonale una base i cui vettori sono mutuamente ortogonali: cioè

$< v_i, v_j > =0, qquad AA i ne j$

Laemoth
Allora, da quel che ho capito alla fine i procedimenti dell' esercizio sono giusti, ma l' errore e' alla radice nell' interpretazione e scelta dei vettori base della radice.

Ora, credo di essermi perso qualcosa di fondamentale ma non sto capendo, il procedimento che ho creduto giusto per mesi in realta' e' fuffa e allora davvero non ho capito cosa osservare per estrapolare i vettori base.
Sappiamo che con $ alpha $ = 2 la matrice ridotta ha 3 pivot, quindi e' di rango 3, ma a questo punto davvero non ho capito il procedimento per individuare esattamente i vettori da analizzare per la base!

Quale sarebbe questo singolo vettore? e quale?
Suppongo che poi lo stesso schema si applichi con $ alpha $ = 0, quindi capito una volta e' riapplicabile sempre, ma c'e' davvero un passaggio che mi sta sfuggendo :vom:

Magma1
"Laemoth":
Suppongo che poi lo stesso schema si applichi con $ alpha $ = 0, quindi capito una volta e' riapplicabile sempre
Infatti per $alpha=0$ ho esplicitato i calcoli :|

Comunque, per $alpha=2$ si ottiene
$ ( ( -1 , 2 , -2 , 1 ),( -2 , 1 , -1 , 1 ),( -1 , 2 , 0 , 1 ) )((x),(y),(z),(t))=((0),(0),(0),(0)) $

che ridotta diventa[nota]Essendo un sistema lineare omogeneo ridurre $A$ o ridurre $A|B$, con $B$ colonna dei termini noti, è indifferente.[/nota]
$ ( ( -1 , 2 , -2 , 1 ),( 0 , -3 , 3 , -1 ),( 0 , 0 , 2 , 0) )((x),(y),(z),(t))=((0),(0),(0),(0))$

si hanno $3$ pivot e scegliamo come incognite dipendente $x,y,z$, mentre $t$ la prendiamo come incognita indipendente e la portiamo dalla parte dei termini noti; ovvero:

$hArr { ( -x=-2y+2z-t ),( -3y=-3z+t ),( z=0 ),( t in RR ):} hArr { ( x=2y+t ),( y=-1/3t ),( z=0 ),( t in RR ):} hArr { ( x=-2/3t+t=1/3t ),( y=-1/3t ),( z=0 ),( t in RR ):} $

per cui un vettore soluzione del sistema lineare omogeneo è

$((1/3t),(-1/3t),(0),(t))=t((1/3),(-1/3),(0),(1)), qquad t in RR$


Les jeux sont faits! :-D

P.S.
"Laemoth":
Sappiamo che con $ alpha $ = 2 la matrice ridotta ha 3 pivot, quindi e' di rango 3,

Questa asserzione è falsa! Non c'è corrispondenza tra rango e numero di pivot: infatti una matrici può avere un numero di pivot maggiori del rango della matrice stessa.

Invece è giusto affermare che: se la matrice dei coefficienti $nxxm$ ha rango $r$, allora ha $r$ incognite dipendenti e $m-r$ incognite indipendenti.

L

Laemoth
...ma quindi per 2 e 0 il procedimento era uguale identico.
E Gram-Schmidt che mi serviva a fare?

Qual e' la vera differenza tra cercare la base ortogonale e la base dello spazio nullo?

Magma1
"Laemoth":
...ma quindi per 2 e 0 il procedimento era uguale identico.

Perché sarebbe dovuto essere diverso? :roll:

"Laemoth":
E Gram-Schmidt che mi serviva a fare?


Se hai dei vettori ortogonali, allora essi sono indipendenti; ma non è vero il contrario. Infatti pur avendo dei vettori indipendenti non è detto che siano ortogonali, per cui ci si affida all'algoritmo di Gram-Schmidt per ortogonalizzari i vettori di una base.

Laemoth
Quindi alla fine l' algoritmo non serve di per se' a trovare la base ortogonale, ma ad ortogonalizzare qualsiasi vettore per altri scopi, giusto?

Ma allora persiste il mio dubbio: qual e' la differenza tra calcolare la base ortogonale e calcolare la base dello spazio nullo?
Perche' in alcune slide per trovare una base ortogonale prendono le colonne dominanti, applicano gram-schmidt e danno i vettori risultati come risultato? o meglio, in quale frangente si puo' vedere che il risultato e' un vettore, dipendente da una variabile libera, e quando sono piu' vettori specifici? (ammesso che questa differenza esista a questo punto, perche' in realta' sono piuttosto confuso).

Magma1
"Laemoth":
Quindi alla fine l' algoritmo non serve di per se' a trovare la base ortogonale, ma ad ortogonalizzare qualsiasi vettore per altri scopi, giusto?

Questa non l'ho capita. L'algoritmo serve per ortogonalizzare i vettori: se cerchi è una base ortogonale allora applichi Gram-Schmidt, ma se la base è già ortogonale non serve; concordi su questo?

"Laemoth":
Ma allora [...] qual e' la differenza tra calcolare la base ortogonale e calcolare la base dello spazio nullo?

Non capisco cosa tu intenda per spazio nullo. Per me è questo $V={0}$, il quale non ha base!

"Laemoth":

Perche' in alcune slide per trovare una base ortogonale prendono le colonne dominanti, applicano gram-schmidt e danno i vettori risultati come risultato? o meglio, in quale frangente si puo' vedere che il risultato e' un vettore, dipendente da una variabile libera, e quando sono piu' vettori specifici?

Questo metodo non lo conosco o, per lo meno non ben capito come si esplica, per cui non posso rispondere. È online questa slide?

P.S. per curiosità: cosa studi? :roll:

Laemoth
Studio informatica all' UNIVR e algebra lineare e', insieme ad analisi I, l' unico esame che mi manca per terminare il primo anno.

Comunque, allego una slide dove si parla appunto dei metodi per calcolare la base ortogonale (e ortonormale, ma non viene solitamente richiesta) e un compito dove viene per l' appunto chiesta una base dello spazio nullo di A. :-D
https://drive.google.com/open?id=1jsR5k ... 8VsbNKwcrV


Che magari sono davvero scemo io e mi sto scervellando sull' ovvio, non lo escludo, pero' almeno vorrei arrivare a vederchi chiaro.

Magma1
Dando una letta veloce, mi è sembrato di capire che per spazio nullo si intenda il $ker(f)$ e per spazio delle colonne $Im(f)$; infatti, data una funzione lineare
$f: RR^m->RR^n$
esiste un isomorfismo tale che
$f:=L_A(v):=Av$


dove $A$ $nxxm$ è la matrice rappresentativa.

Si può dimostrare che

$ker(f)=ker(L_A):={v in RR^m : qquad Av=bar(0)}$


cioè il calcolo del nucleo, quello che il tuo professore chiama spazio nullo, è rimandato al calcolo di un sistema lineare omogeneo. E si può anche dimostrare che

$Im(f)=Im(L_A)=mathcal(L){C_1,...,C_r}$


con $C_i$ colonna $i-\text{esima}$ colonna di $A$ e $r=r(A)$[nota]Sostanzialmente $dim(Im(f))=r(A)$[/nota]; ovvero che l'immagine di un'applicazione lineare è generata dalle immagini delle colonne della matrice rappresentativa dell'applicazione stessa.

Laemoth
ok, e quindi in tutto questo...tornando alla domanda iniziale, qual e' la reale differenza?

e poi, se noti nelle slide per trovare la base ortogonale non mettono tutta la matrice U a sistema, ma solo le colonne con il pivot, mentre per calcolare lo spazio nullo viene messa a sistema tutta la matrice, che alla fine e' l' unica differenza che sono riuscito a trovare.

E qui torniamo alla primissima domanda: prendendo solo le colonne con pivot pero' ci troviamo 3 vettori a sistema (...giusto?), che ci danno quindi due incognite, cosa che non va bene, che si fa dunque?

E quindi sempre tornando al discorso iniziale, ma quindi il mio procedimento iniziale per trovare lo spazio nullo, ora che abbiamo appurato di che si tratta, era giusto?

Magma1
"Laemoth":
Tornando alla domanda iniziale, qual e' la reale differenza? qual e' la differenza tra calcolare la base ortogonale e calcolare la base dello spazio nullo?

Che differenza c'è tra una mela e una pera? :-k :-D
Calcolare la base del $ker(f)$, ovvero quello che tu chiami spazio nullo[nota]Non mi va giù questo termine perché, come già fatto notare, è ambiguo.[/nota], equivale a risolvere un sistema lineare omogeneo. Calcolare una base ortogonale lo si fa applicando l'algoritmo di Gram-Schmidt. Sono due cose diverse.


"Laemoth":

e poi per trovare la base ortogonale non mettono tutta la matrice U a sistema, ma solo le colonne con il pivot, mentre per calcolare lo spazio nullo viene messa a sistema tutta la matrice, che alla fine e' l' unica differenza che sono riuscito a trovare.

Infatti ti ho già detto che $ker(f)$ e $Im(f)$ sono due cose diverse.

"Laemoth":

prendendo solo le colonne con pivot pero' ci troviamo 3 vettori a sistema (...giusto?), che ci danno quindi due incognite, cosa che non va bene, che si fa dunque?

Non capisco a che ti serva mettere le colonne a sistema, anzi che idea hai di sistema tu?

"Laemoth":

E quindi il mio procedimento iniziale per trovare lo spazio nullo, ora che abbiamo appurato di che si tratta, era giusto?

Per spazio nullo non si intende che $alpha=0$, ma ${Ain RR^(nxxm), v in RR^m : qquad Av=bar(0)}$, ed è lecito cercarlo[nota]Il $ker(f)$ potrebbe essere banale: cioè contenente il solo vettore nullo.[/nota] sia per $alpha=0$ che $alpha=2$.

P.S.

ripeto:

Se il ker è non banale, allora una base si trova risolvendo un sistema lineare omogeneo: $Av=bar(0)$
l'immagine è generata dalle immagini delle colonne di $A$: ${f(C_1),...,f(C_r)}$ (per avere una base occorre però verificare che tali immagini siano indipendenti[nota]Cosa non necessaria se la funzione è iniettiva![/nota]).
Se vuoi che questa base sia ortogonale, allora applichi Gram-Schmidt.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.