Rango matrice quadrata per righe o colonne
Sto ripassando gli appunti - con l'aiuto di testi quali il Sernesi e quello di Abate -. Sono in grado di dimostrare il teorema che il rango di una matrice quadrata è identico tanto per righe quanto per colonne.
Però non riesco a capirlo. Mi spiego. Nel teorema - per dimostrare l'eguaglianza dei due ranghi, che, in definitiva, sono lo stesso - ci si avvale della matrice trasposta di quella data.
E ciò mi è chiaro. Ma - in generale - le righe della trasposta, ad es., non sono le righe della matrice originale.
Io vorrei proprio riuscire a capire bene perché - posto che le colonne siano linearmente indipendenti - consegue necessariamente che lo siano anche le righe della stessa matrice - non riesco a vederci proprio il nesso, anche perché non riesco a figurarmi mentalmente la relazione dei vettori costituenti le righe con quelli che costituiscono le colonne se non come vettori delle proiezioni sulla base in un'esemplificazione geometrica -, non le righe della matrice colonna che - evidentemente - non sono altro che le colonne della matrice originaria.
Qualcuno potrebbe aiutarmi a farmi capire dove "sragiono"?
Grazie infinite a chi potrà darmi un aiuto.
Però non riesco a capirlo. Mi spiego. Nel teorema - per dimostrare l'eguaglianza dei due ranghi, che, in definitiva, sono lo stesso - ci si avvale della matrice trasposta di quella data.
E ciò mi è chiaro. Ma - in generale - le righe della trasposta, ad es., non sono le righe della matrice originale.
Io vorrei proprio riuscire a capire bene perché - posto che le colonne siano linearmente indipendenti - consegue necessariamente che lo siano anche le righe della stessa matrice - non riesco a vederci proprio il nesso, anche perché non riesco a figurarmi mentalmente la relazione dei vettori costituenti le righe con quelli che costituiscono le colonne se non come vettori delle proiezioni sulla base in un'esemplificazione geometrica -, non le righe della matrice colonna che - evidentemente - non sono altro che le colonne della matrice originaria.
Qualcuno potrebbe aiutarmi a farmi capire dove "sragiono"?
Grazie infinite a chi potrà darmi un aiuto.
Risposte
A me è stato spiegato così:
Dim.:
$Righe(A)=mathcal (L)(R_1 (A), ..., R_n(A))$, posso supporre $Righe(A) ne {0}$
Sia ${v_1, ..., v_r} \text{una base di} Righe(A), v_j in mathbb (R^m)$
Sia $B$ la matrice $rxxm$ la cui j-esima riga è $v_j$,
${vi_1, ..., v_r} \text{ base di} Righe(A) rArr \text{ogni riga di A è C.L. de vettori } v_1, ..., v_r$
cioè ogni riga di A è C.L. di righe di B.
Per il Lemma[nota]Lemma:
$A$ $nxxn$, $B$ $rxxm$. Le seguenti cose sono equivalenti:
(1) Orni riga di A è C.L. di righe di B
(2) $EE Y nxx r \text{ tale che } A=YB$[/nota], $EE Y$ $nxxr$ $\text{tale che } A=YB$
$rArr A^t = B^t Y^t$, e si ha che
Teorema:
$A$ $nxxm$. Allora $r(A)=dim(Righe(A))=dim(\text{Colonne}(A))$
Dim.:
$Righe(A)=mathcal (L)(R_1 (A), ..., R_n(A))$, posso supporre $Righe(A) ne {0}$
Sia ${v_1, ..., v_r} \text{una base di} Righe(A), v_j in mathbb (R^m)$
Sia $B$ la matrice $rxxm$ la cui j-esima riga è $v_j$,
${vi_1, ..., v_r} \text{ base di} Righe(A) rArr \text{ogni riga di A è C.L. de vettori } v_1, ..., v_r$
cioè ogni riga di A è C.L. di righe di B.
Per il Lemma[nota]Lemma:
$A$ $nxxn$, $B$ $rxxm$. Le seguenti cose sono equivalenti:
(1) Orni riga di A è C.L. di righe di B
(2) $EE Y nxx r \text{ tale che } A=YB$[/nota], $EE Y$ $nxxr$ $\text{tale che } A=YB$
$rArr A^t = B^t Y^t$, e si ha che
$r(A^t)<=r(Y^t)<=r =r(A)$
però
$r(A^t)<=dim(Righe(A^t))=dim(\text{ Colonne(A)})$
$r(A^t)<=dim(Righe(A^t))=dim(\text{ Colonne(A)})$
Abbiamo così provato che
$AA \text{ matrice } A,$ $dim(\text{Colonne(A)})<= dim(Righe(A))$
$AA \text{ matrice } A,$ $dim(\text{Colonne(A)})<= dim(Righe(A))$
ma ciò vale anche per $A^t$:
$dim(\text{Colonne}(A^t)) <= dim(Righe(A^t))$
e siccome
$dim(\text{Colonne}(A^t))=dim(Righe(A))$,
$dim(Righe(A^t))=dim(\text{Colonne}(A^t))$
Allora $dim(Righe(A))=dim(\text{Colonne(A)})$
$dim(\text{Colonne}(A^t)) <= dim(Righe(A^t))$
e siccome
$dim(\text{Colonne}(A^t))=dim(Righe(A))$,
$dim(Righe(A^t))=dim(\text{Colonne}(A^t))$
Allora $dim(Righe(A))=dim(\text{Colonne(A)})$
A me era risultata chiara questa risposta di lordb per avvicinarmici intuitivamente:
viewtopic.php?f=37&t=104013&hilit=rango
Invece con la dimostrazione sei a posto, hai detto
viewtopic.php?f=37&t=104013&hilit=rango
Invece con la dimostrazione sei a posto, hai detto
"Magma":
A me è stato spiegato così:
Teorema:
$A$ $nxxm$. Allora $r(A)=dim(Righe(A))=dim(\text{Colonne}(A))$
Dim.:
$Righe(A)=mathcal (L)(R_1 (A), ..., R_n(A))$, posso supporre $Righe(A) ne {0}$
Sia ${v_1, ..., v_r} \text{una base di} Righe(A), v_j in mathbb (R^m)$
Sia $B$ la matrice $rxxm$ la cui j-esima riga è $v_j$,
${vi_1, ..., v_r} \text{ base di} Righe(A) rArr \text{ogni riga di A è C.L. de vettori } v_1, ..., v_r$
cioè ogni riga di A è C.L. di righe di B.
Per il Lemma[nota]Lemma:
$A$ $nxxn$, $B$ $rxxm$. Le seguenti cose sono equivalenti:
(1) Orni riga di A è C.L. di righe di B
(2) $EE Y nxx r \text{ tale che } A=YB$[/nota], $EE Y$ $nxxr$ $\text{tale che } A=YB$
$rArr A^t = B^t Y^t$, e si ha che
$r(A^t)<=r(Y^t)<=r =r(A)$
però
$r(A^t)<=dim(Righe(A^t))=dim(\text{ Colonne(A)})$
Abbiamo così provato che
$AA \text{ matrice } A,$ $dim(\text{Colonne(A)})<= dim(Righe(A))$
ma ciò vale anche per $A^t$:
$dim(\text{Colonne}(A^t)) <= dim(Righe(A^t))$
e siccome
$dim(\text{Colonne}(A^t))=dim(Righe(A))$,
$dim(Righe(A^t))=dim(\text{Colonne}(A^t))$
Allora $dim(Righe(A))=dim(\text{Colonne(A)})$
Ti ringrazio molto. La tua perfetta dimostrazione vale anche
a emendare eventuali imprecisioni della mia esposizione verbale.
Rimango sempre affascinato dalle dimostrazioni anche se so che
non esiste un insegnamento che spieghi come siano venute fuori.
Anche perché ritengo sia impossibile - nell'ambito dello sviluppo
delle dimostrazioni - "generalizzare" o "categorizzare".
"jitter":
A me era risultata chiara questa risposta di lordb per avvicinarmici intuitivamente:
viewtopic.php?f=37&t=104013&hilit=rango
Invece con la dimostrazione sei a posto, hai detto
Ringrazio molto anche te della risposta.
In effetti - se posso esprimermi con sincerità - avrei gradito
poterci arrivare anche intuitivamente - se pure correttamente -.
Ciò che mi risulta evidente è che - in tutti gli esempi "tridimensionali"
che si possono "maneggiare" mentalmente o su carta -, se si hanno
vettori linearmente dipendenti, il determinante risulta identicamente
nullo.
Tre vettori complanari - di cui uno sarà, inevitabilmente, combinazione
lineare degli altri due - producono un determinante nullo comunque
disposti nella matrice - tanto su righe o su colonne -.
E - ciò di cui mi domandavo la ragione - comunque si dispongano
i tre vettori - su righe o colonne - risultano linearmente dipendenti
- proprio a motivo dell'algoritmo del calcolo del determinante - anche
i vettori che, ad es., risultano formati - ciascuno - dalle tre proiezioni
sullo stesso asse dei tre vettori "spaziali". Vettori cui io - almeno -
non riesco ad attribuire alcun significato evidente.
Infatti, dati tre vettori complanari nello spazio, essi possono essere
rappresentati, senza ledere la generalità, come $(a,b,c)$, $(d,e,f)$
e $(cl1,cl2,cl3)$,dove $cl1$ = $\alphaa +\betad$, $cl2$ = $\alphab +
\betae$ e $cl3$ = $(\alpha c + \betaf)$.
Tutto dipende soltanto dalle regole che consentono di calcolare il
determinante della matrice.
Il quale risulta nullo comunque si dispongano i vettori.
Infatti il determinante della matrice $((a,b,c),(d,e,f),(cl1, cl2, cl3))$
risulta identicamente nullo - basta eseguire i calcoli, si semplifica
tutto - esattamente come quello della matrice $((a,d,cl1),(b,e,cl2),(c,f,cl3))$.
Il fatto che - a motivo della loro lineare dipendenza, nel caso dell'esempio
la complanarità - tre vettori - comunque disposti nella matrice - mi diano
determinante nullo mi va benissimo. Altrettanto ciò che concerne la trasposta,
che ha sempre lo stesso deteminante.
Ciò che mi "turba" è non riuscire a "intuire" con esempi in tre dimensioni
perché debbano essere necessariamente linearmente dipendenti anche
i tre vettori delle "proiezioni" sugli "assi coordinati" dei vettori dati
- nella mia povera mente privi di qualsiasi significato - anche se so bene
che non può che essere così date le regole di calcolo del determinante
di una matrice.
Anche in questo caso i calcoli sono esattamente gli stessi - dipende da
come si calcola il determinante -. Se non sono esattamente gli stessi,
ovviamente si semplifica tutto, si ottiene zero e la conseguente
dipendenza lineare anche dei tre vettori "non significativi".
So benissimo che un teorema vale ben più di un esempio.
E anche il teorema ci dice esattamente quanto si può verificare
- non dimostrare - con un esempio. Ciò mi risulta chiaro.
Solo che mi risulta insoddisfacente non riuscire ad attribuire
a ciò un significato.
P.S.: o - meglio - per quanto mi riguarda un significato riesco
ad attribuirlo. Mi spiego. In esempi in tre dimensioni la
dipendenza lineare di tre vettori coincide con la complanarità.
Se il terzo non fosse più complanare, si avrebbe una base per
$RR^3$. Comunque si fissino le coordinate, qualsiasi "terzo
vettore" - purché complanare - risulta sempre linearmente
dipendente. Quindi, le ascisse e le ordinate sono "libere".
Ma se si fa sì, ad es., che il piano sia $z$ = $0$, se il terzo
vettore assume $z$ $!=$ $0$ esso risulta linearmente indipendente
e - analogamente, ma con descrizione delle coordinate meno
immediate - se lo si fa "muovere" nello spazio in modo non
complanare con gli altri due vettori. Quindi - anche se il terzo
vettore "si muove" normalmente al piano originario conservando
ascissa e ordinata - non risulta più linearmente dipendente solo
perché $z$ non è libera. Esiste una sola $z$ - rispetto al piano
individuato dai primi due vettori, diciamo $z$ = $0$, sempre
possibile - che rende il terzo vettore linearmente dipendente.
L'intuizione è corretta, ma una sua formalizzazione specifica
- al di là del calcolo dei determinanti - esula dalle mie capacità.
D'altronde, in $RR^2$ solo due vettori possono essere linearmente
indipendenti e l'intuizione non fa che "confermare" tutto il
discorso teorico delle dimensioni in algebra lineare.
Ciao Roma91,
Proiettando sullo stesso asse 3 vettori non ottieni 3 vettori che stanno sulla stessa retta, quindi inevitabilmente proporzionali e dipendenti? Mi sa che non ho capito bene il percorso del tuo ragionamento...
Forse intendi una cosa del genere?
- Identifico spazi affini con spazi vettoriali per costruirci una rappresentazione visiva
- Prendo un piano qualsiasi e 3 suoi vettori $u$, $v$, $w$ che non so ancora essere dipendenti
- Considero u e v come assi coordinati
- Quindi un vettore $e_u $ su u si scrive come $(a, 0)$ e un vettore $e_v$ su $v$ si scrive come $(0, b)$
- Si vede che $e_u, e_v$ è una base di $R^2$
- Qualsiasi altro vettore (e anche il nostro $w$) è esprimibile con le 2 coordinate dipendenti da questa base: quindi è combinazione lineare di $e_u, e_v$ e di conseguenza anche di $u, v$
Sull'aspetto intuitivo dell'algebra lineare: paradossalmente a me è servito fregarmene un po', anche se fastidioso non avere una visione nitida, fa venire il nervoso. Su alcune cose poi l'intuizione è venuta da sé col tempo, su altre ci sto ancora "litigando".
"ROMA91":.
E - ciò di cui mi domandavo la ragione - comunque si dispongano
i tre vettori - su righe o colonne - risultano linearmente dipendenti
- proprio a motivo dell'algoritmo del calcolo del determinante - anche
i vettori che, ad es., risultano formati - ciascuno - dalle tre proiezioni
sullo stesso asse dei tre vettori "spaziali". Vettori cui io - almeno -
non riesco ad attribuire alcun significato evidente.
Proiettando sullo stesso asse 3 vettori non ottieni 3 vettori che stanno sulla stessa retta, quindi inevitabilmente proporzionali e dipendenti? Mi sa che non ho capito bene il percorso del tuo ragionamento...
Forse intendi una cosa del genere?
- Identifico spazi affini con spazi vettoriali per costruirci una rappresentazione visiva
- Prendo un piano qualsiasi e 3 suoi vettori $u$, $v$, $w$ che non so ancora essere dipendenti
- Considero u e v come assi coordinati
- Quindi un vettore $e_u $ su u si scrive come $(a, 0)$ e un vettore $e_v$ su $v$ si scrive come $(0, b)$
- Si vede che $e_u, e_v$ è una base di $R^2$
- Qualsiasi altro vettore (e anche il nostro $w$) è esprimibile con le 2 coordinate dipendenti da questa base: quindi è combinazione lineare di $e_u, e_v$ e di conseguenza anche di $u, v$
Sull'aspetto intuitivo dell'algebra lineare: paradossalmente a me è servito fregarmene un po', anche se fastidioso non avere una visione nitida, fa venire il nervoso. Su alcune cose poi l'intuizione è venuta da sé col tempo, su altre ci sto ancora "litigando".
"jitter":.
Ciao Roma91,
[quote="ROMA91"]E - ciò di cui mi domandavo la ragione - comunque si dispongano
i tre vettori - su righe o colonne - risultano linearmente dipendenti
- proprio a motivo dell'algoritmo del calcolo del determinante - anche
i vettori che, ad es., risultano formati - ciascuno - dalle tre proiezioni
sullo stesso asse dei tre vettori "spaziali". Vettori cui io - almeno -
non riesco ad attribuire alcun significato evidente.
Proiettando sullo stesso asse 3 vettori non ottieni 3 vettori che stanno sulla stessa retta, quindi inevitabilmente proporzionali e dipendenti? Mi sa che non ho capito bene il percorso del tuo ragionamento...
Forse intendi una cosa del genere?
- Identifico spazi affini con spazi vettoriali per costruirci una rappresentazione visiva
- Prendo un piano qualsiasi e 3 suoi vettori $u$, $v$, $w$ che non so ancora essere dipendenti
- Considero u e v come assi coordinati
- Quindi un vettore $e_u $ su u si scrive come $(a, 0)$ e un vettore $e_v$ su $v$ si scrive come $(0, b)$
- Si vede che $e_u, e_v$ è una base di $R^2$
- Qualsiasi altro vettore (e anche il nostro $w$) è esprimibile con le 2 coordinate dipendenti da questa base: quindi è combinazione lineare di $e_u, e_v$ e di conseguenza anche di $u, v$
Sull'aspetto intuitivo dell'algebra lineare: paradossalmente a me è servito fregarmene un po', anche se fastidioso non avere una visione nitida, fa venire il nervoso. Su alcune cose poi l'intuizione è venuta da sé col tempo, su altre ci sto ancora "litigando".[/quote]
Ciao, jitter, innanzitutto ti ringrazio per la benevolenza con cui hai accettato di leggere un messaggio
- lo ammetto in pieno - "verbalizzato" e non adeguatamente formalizzato.
Che cosa intendevo dire?
Solo questo.
In $RR^3$ - in dimensioni ulteriori la rappresentazione mentale non mi aiuta - tre vettori non allineati sono
necessariamente complanari. Se il terzo non fosse complanare avremmo una base. Se pongo i tre vettori
come le tre colonne di una matrice si ha determinante nullo e se ne può identicamente verificare la loro
dipendenza lineare - basta sviluppare i calcoli relativi alle matrici del mio messaggio -.
Fin qui tutto bene e tutto perfettamente conforme all'intuizione e all' "immagine mentale".
Ma in questa stessa matrice - senza modificare nulla - si ha rango = 2 anche per quanto concerne le righe
- l'afferma chiaramente il teorema riportato dall'utente Magma -.
Quindi, considerando anche le righe come vettori - perché no? - risultano anch'essi - questi "nuovi" vettori -
linearmente dipendenti.
Che cosa sono questi "nuovi" vettori?
Supponiamo - nello spazio - una base ortonormale.
Ognuno di essi contiene, rispettivamente, le tre coordinate - relative allo stesso asse coordinato -
di ciascuno dei tre vettori posti come colonne.
Il primo le tre $x$, il secondo le tre $y$ e, infine, il terzo le tre $z$.
Ognuno dei tre "vettori" corrispondenti alle righe della matrice non contiene altro che le tre coordinate
- rispetto allo stesso asse, detto in termini geometrici - di ciascuno dei tre vettori messi in colonna.
Ciò vuol dire che, ad es., il vettore costituito dalle $z$ di tre vettori linearmente dipendenti in $RR^3$
risulta "dipendente" dai due vettori - linearmente indipendenti - che contengono, ciascuno, le tre ascisse
o le tre coordinate dei vettori posti in colonna.
Quindi, mentre due vettori risultano - se non allineati - sempre linearmente indipendenti nello spazio,
tre vettori risultano linearmente indipendenti in infiniti modi tranne nell'unico caso in cui esista la
lineare dipendenza dei vettori costituiti - rispettivamente - dalle loro tre $x$, da quello formato dalle
loro tre $y$ e da quello formato dalle loro tre $z$.
Quindi, nel caso "singolare" della loro complanarità.
E' - per me, almeno - solo questo tipo di immagine mentale sul vincolo relativo alla dipendenza tra le
tre $z$ - $(z_1,z_2,z_3) = (c,f,cl3)$ - e i due vettori rispettivamente formati dalle tre ascisse e dalle tre coordinate
- $(x_1,x_2,x_3)= (a,d,cl1)$ e $(y_1,y_2,y_3) = (b,e,cl2)$ - che mi "giustifica" il teorema che stabilisce anche la dipendenza di questi tre ulteriori vettori - oltre a quella dei vettori "spaziali" $(a,b,c)$, $(d,e,f)$ e $(cl1,cl2,cl3)$,
che sono stati messi in colonna e di cui il calcolo del determinante ha consentito di verificare
la lineare dipendenza -. Infatti, il terzo vettore spaziale può muoversi in $\infty^2$ modi e sarà sempre
linearmente indipendente. La dipendenza vi sarà solo nel caso "singolare" in cui esso si muova sul piano
formato dagli altri due vettori spaziali - quelli in colonna -.
In questo caso, sembra che debba esistere un vincolo tra un vettore - posto come riga - formato dalle
tre $z$ e quelli costituiti dalle rimanenti coordinate - $x$ e $y$ -.
Ciò discende direttamente anche dall'algoritmo di calcolo del determinante.