Rango per righe rango per colonne di una matrice sono uguali.
Buongiorno, come da titolo sto studiando il seguente teorema, dal Sernesi.
Teorema: Il rango per righe e il rango per colonne di una matrice $A in M_(m,n) (K)$ coincidono.
Dimostrazione:
Siano $r$ rango per righe e $c$ rango per colonne di $A$.
Se $r=0$ gli elementi di $A$ sono nulli e quindi anche $c=0$.
Supponiamo che $r>0$.
Una relazione di dipendenza lineare tra le colonne di $A$ è una soluzione non banale del sistema lineare omogeneo $AX=0$, dove $X=(X_1,...,X_n)^t.$
1) Pertanto, il rango per colonne di $A$ è individuato dall'insieme delle soluzioni del sistema lineare omogeno.
2) Se le righe di $A$ si dispongono in ordine diverso, $c$ non cambia perché un cambiamento nell'ordine delle equazioni del sistema, non influisce sull'insieme delle sue soluzioni.
Neanche $r$ cambia se si riordinano le righe di $A$, perché il rango di un insieme di vettori non dipende dal loro ordine.
Vorrei discutere prima questi due punti e poi continuare con la dimostrazione.
In particolare, in 1) quando si dice che una soluzione $bar{x}=(x_1,...,x_n)^tin K^n$ è una relazione di dipendenza lineare tra le colonne di $A$ significa dire
Teorema: Il rango per righe e il rango per colonne di una matrice $A in M_(m,n) (K)$ coincidono.
Dimostrazione:
Siano $r$ rango per righe e $c$ rango per colonne di $A$.
Se $r=0$ gli elementi di $A$ sono nulli e quindi anche $c=0$.
Supponiamo che $r>0$.
Una relazione di dipendenza lineare tra le colonne di $A$ è una soluzione non banale del sistema lineare omogeneo $AX=0$, dove $X=(X_1,...,X_n)^t.$
1) Pertanto, il rango per colonne di $A$ è individuato dall'insieme delle soluzioni del sistema lineare omogeno.
2) Se le righe di $A$ si dispongono in ordine diverso, $c$ non cambia perché un cambiamento nell'ordine delle equazioni del sistema, non influisce sull'insieme delle sue soluzioni.
Neanche $r$ cambia se si riordinano le righe di $A$, perché il rango di un insieme di vettori non dipende dal loro ordine.
Vorrei discutere prima questi due punti e poi continuare con la dimostrazione.
In particolare, in 1) quando si dice che una soluzione $bar{x}=(x_1,...,x_n)^tin K^n$ è una relazione di dipendenza lineare tra le colonne di $A$ significa dire
$A_1x_1+A_2x_2+...+A_nx_n=0$
Dall'altra parte il rango per colonne di $A$ è per definizione il massimo numero di colonne linearmente indipendenti di $A$. Non capisco perché in 1) si dice quello.
Risposte
"E' individuato" nel senso che la dimensione dello spazio delle soluzioni di \(AX=0\) è la dimensione del nucleo di \(A\), o della applicazione lineare associata, e determina univocamente la dimensione dell'immagine di \(A\), cioè esattamente al rango di \(A\), perché \(l+d=n\), dove \(l=\dim\ker A\), \(d=\text{rk } A\).
Questo genere di relazioni, comunque, si apprezza meglio senza coordinate: se \(f :V\to W\) è lineare, il rango per righe non è altro che il rango per colonne della trasposta \(f^\lor : W^\lor \to V^\lor\) indotta tra i duali, e tra le due applicazioni sussistono le relazioni
\[ \ker (f^\lor) = (\text{im } f)^\perp \qquad \text{im}(f^\lor) = (\ker f)^\perp\] Allora usando la formula delle dimensioni e il fatto che \((\ker f)^\perp \cong (V/\ker f)^\lor \cong (\text{im } f)^\lor\), il quale a sua volta è isomorfo -non canonicamente- a \(\text{im } f\), si conclude.
Questo genere di relazioni, comunque, si apprezza meglio senza coordinate: se \(f :V\to W\) è lineare, il rango per righe non è altro che il rango per colonne della trasposta \(f^\lor : W^\lor \to V^\lor\) indotta tra i duali, e tra le due applicazioni sussistono le relazioni
\[ \ker (f^\lor) = (\text{im } f)^\perp \qquad \text{im}(f^\lor) = (\ker f)^\perp\] Allora usando la formula delle dimensioni e il fatto che \((\ker f)^\perp \cong (V/\ker f)^\lor \cong (\text{im } f)^\lor\), il quale a sua volta è isomorfo -non canonicamente- a \(\text{im } f\), si conclude.
Premetto che quello che hai scritto qui non posso capirlo poiché sul Sernesi il concetto di Nucleo e applicazione lineare viene dopo. Lo conosci come testo? è un po ortodosso.
Quindi, si vuole dire questo: se definisco $Sigma_0={bar{x} in K^n : Abar{x}=0}$, allora la $dim(Sigma_0)=r(A)$? Se è così l'avevo quasi intuito ma non ero sicuro
Invece il punto 2) mi è chiaro quello che dice, ma non capisco perché il rango per colonne $c$ è "riferito" all'insieme delle soluzioni.
Invece che vuoi dire con il simbolo tipo \(W^\lor \) ? Qui \( (\ker f)^\perp \cong (V/\ker f)^\lor \cong (\text{im } f)^\lor \) mi sa tanto di primo teorema di omomorfismo, per parlare in generale, di strutture algebriche. Sbaglio?
"megas_archon":
"E' individuato" nel senso che la dimensione dello spazio delle soluzioni di \(AX=0\) è la dimensione del nucleo di \(A\), o della applicazione lineare associata, e determina univocamente la dimensione dell'immagine di \(A\), cioè esattamente al rango di \(A\), perché \(l+d=n\), dove \(l=\dim\ker A\), \(d=\text{rk } A\)
Quindi, si vuole dire questo: se definisco $Sigma_0={bar{x} in K^n : Abar{x}=0}$, allora la $dim(Sigma_0)=r(A)$? Se è così l'avevo quasi intuito ma non ero sicuro

Invece il punto 2) mi è chiaro quello che dice, ma non capisco perché il rango per colonne $c$ è "riferito" all'insieme delle soluzioni.
Invece che vuoi dire con il simbolo tipo \(W^\lor \) ? Qui \( (\ker f)^\perp \cong (V/\ker f)^\lor \cong (\text{im } f)^\lor \) mi sa tanto di primo teorema di omomorfismo, per parlare in generale, di strutture algebriche. Sbaglio?
"Ortodosso" non è il termine con cui mi riferirei al Sernesi.
Per il resto: no, \(\Sigma_0\) è, per definizione, il sottospazio \(\ker A\); quindi (formula delle dimensioni) \(\text{rk } A = n - l\), nelle notazioni di sopra.
Infine, \(W^\lor\) è lo spazio vettoriale \(\hom_k(W,k)\), il duale di \(W\), e sì, per gli spazi vettoriali così come per molte altre strutture è vero il primo teorema di isomorfismo.
Per il resto: no, \(\Sigma_0\) è, per definizione, il sottospazio \(\ker A\); quindi (formula delle dimensioni) \(\text{rk } A = n - l\), nelle notazioni di sopra.
Infine, \(W^\lor\) è lo spazio vettoriale \(\hom_k(W,k)\), il duale di \(W\), e sì, per gli spazi vettoriali così come per molte altre strutture è vero il primo teorema di isomorfismo.
"Yuyu_13":
Premetto che quello che hai scritto qui non posso capirlo poiché sul Sernesi il concetto di Nucleo e applicazione lineare viene dopo. Lo conosci come testo? è un po ortodosso.
Direi più âgé che ortodosso

"Yuyu_13":
Quindi, si vuole dire questo: se definisco $Sigma_0={bar{x} in K^n : Abar{x}=0}$, allora la $dim(Sigma_0)=r(A)$? Se è così l'avevo quasi intuito ma non ero sicuro![]()
Considera
[tex]A:=\begin{bmatrix}1&0\\0&1\end{bmatrix},[/tex]
qual è il suo rango? Qual è la dimensione di [tex]\{x\in\mathbb{R}^2\mid Ax=0\}[/tex]? Hai studiato il teorema di nullità+rango o teorema della dimensione?
"Yuyu_13":
Invece che vuoi dire con il simbolo tipo \(W^\lor \) ? Qui \( (\ker f)^\perp \cong (V/\ker f)^\lor \cong (\text{im } f)^\lor \) mi sa tanto di primo teorema di omomorfismo, per parlare in generale, di strutture algebriche. Sbaglio?
Dato un [tex]\Bbbk[/tex]-spazio vettoriale [tex]V[/tex], con [tex]V^\vee[/tex] o [tex]V^*[/tex] si indica lo spazio dei funzionali [tex]\Bbbk[/tex]-lineari su [tex]V[/tex]
[tex]V^\vee\equiv\operatorname{Hom}_\Bbbk(V,\Bbbk)=\{\phi\colon V\to\Bbbk\mid\phi\text{ è }\Bbbk\text{-lineare}\};[/tex]
mentre, dato un sottoinsieme [tex]S\subseteq V[/tex], l'annullatore di [tex]S[/tex] è [tex]\operatorname{Ann}(S)\equiv S^\perp:=\{\phi\in V^\vee \mid \phi(s)=0,\,\forall s\in S\}.[/tex]
Vedi pag. 264 (stampata/270 del pdf): https://www1.mat.uniroma1.it/people/manetti/dispense/algebralineare.pdf .
"Yuyu_13":
1) Pertanto, il rango per colonne di $A$ è individuato dall'insieme delle soluzioni del sistema lineare omogeno.
Sia
[tex]A=\begin{bmatrix}A^1|\dots|A^n\end{bmatrix},\quad A^i\in\mathbb{R}^m[/tex]
allora i vettori [tex]A^i[/tex] sono linearmente indipendenti sse per ogni [tex]x=(x^1,\dots,x^n)^t\in\mathbb{R}^n[/tex]
[tex]x^1A^1+\dots x^n A^n=0\rightarrow x^1=\dots=x^n=0[/tex]
l'uguaglianza a sinistra, scritta per esteso, diventa
[tex]\begin{align*}&a_{11}x^1+\dots+a_{1n}x^n=0\\
&\vdots\\
&a_{m1}x^1+\dots+a_{mn}x^n=0
\end{align*}[/tex]
&\vdots\\
&a_{m1}x^1+\dots+a_{mn}x^n=0
\end{align*}[/tex]
che è equivalente a
[tex]\begin{gather}Ax=0\label{eq:omo}\end{gather}[/tex]
quindi i vettori [tex]A^1,\dots,A^n\in\mathbb{R}^m[/tex] sono linearmente indipendenti se e solo se il sistema lineare omogeneo ha come unica soluzione quella banale, [tex]x=(0,\dots,0)^t[/tex]; il rango risulta pertanto determinato dalla dimensione dello spazio delle soluzioni di[tex]\ref{eq:omo}[/tex]: se questo ha dimensione [tex]k>0[/tex] ottieni [tex]k[/tex] relazioni di dipendenza lineare indipendenti che abbassano il rango della matrice.
Se non sei convinto, prova a ragionare su un esempio semplice:
[tex]A=\begin{bmatrix}1&0&1\\
0&1&1\\
0&0&0\end{bmatrix}[/tex]
0&1&1\\
0&0&0\end{bmatrix}[/tex]
qual è il rango di [tex]A[/tex]? Qual è la dimensione dello spazio delle soluzioni del sistema lineare associato? Scegli una base dello spazio delle soluzioni e scrivi le relazioni di dipendenza lineare (indipendenti) associate[nota]Quelle che ottieni sostituendo, per ciascun vettore della base scelta, le sue componenti in[tex]\ref{eq:omo}[/tex].[/nota] per le colonne della matrice [tex]A[/tex] (potrebbe essercene solo una).
Il punto è che è un anno che chiedi lo stesso tipo di cose. Non puoi pretendere che gli altri vengano qui a ricopiare le definizioni per te.
Non mi pare l'OP abbia preteso nulla e non penso megas_archon si sia sentito obbligato da quest'ultimo a rispondere; per quanto mi riguarda, io certamente no
ad ogni modo, sarei interessato a sapere se l'OP ha chiarito i suoi dubbi


Buongiorno. Grazie per le risposte!
@marco2132k forse ti confondi con un altro utente, sono iscritto a questo forum da giugno; quindi, sono circa quattro mesi che sono iscritto.
@413, @megas_archon sì, infatti, non è vero che la $dim(Sigma_0)=rg(A)$ poiché se prendo in esempio la matrice
ha le seguenti caratteristiche:
-$r(A)=2$; ha le prime due colonne $A^1=(1,0,0), A^2=(0,1,0)$ che dipendono linearmente dalla $A^3=(1,1,0)$
-Considero $S$ sistema associato
-Dall'altra parte per definizione $Sigma_0={(-t,-t,t) in RR^3: t in R}$. Una base di $Sigma_0$ è il singleton ${(-1,-1,1)}$. Dunque, $dim(Sigma_0)=1$
-Questo torna anche con la relazione della dimensione @megas_archon.
-Una relazione di dipendenza lineare tra le colonne di $A$ è
@413 quando dici questo: il rango risulta pertanto determinato dalla dimensione dello spazio delle soluzioni di $Ax=0$: se questo ha dimensione k>0 ottieni k relazioni di dipendenza lineare indipendenti che abbassano il rango della matrice.
Vuoi dire "più grande il rango" e "più si abbassa la dimensione dello spazio delle soluzioni"?
@marco2132k forse ti confondi con un altro utente, sono iscritto a questo forum da giugno; quindi, sono circa quattro mesi che sono iscritto.
@413, @megas_archon sì, infatti, non è vero che la $dim(Sigma_0)=rg(A)$ poiché se prendo in esempio la matrice
\( \displaystyle A=\begin{bmatrix}1&0&1\\ 0&1&1\\ 0&0&0\end{bmatrix} \)
ha le seguenti caratteristiche:
-$r(A)=2$; ha le prime due colonne $A^1=(1,0,0), A^2=(0,1,0)$ che dipendono linearmente dalla $A^3=(1,1,0)$
-Considero $S$ sistema associato
$ S:{ ( x+z=0 ),( y+z=0 ):} <=> S:{ ( x=-z ),( y=-z ):} $
dando un valore arbitrario $t in RR$ all'incognita $z$ si ha che una soluzione generale del sistema $S$ è $(x,y,z)=(-t,-t,t)$-Dall'altra parte per definizione $Sigma_0={(-t,-t,t) in RR^3: t in R}$. Una base di $Sigma_0$ è il singleton ${(-1,-1,1)}$. Dunque, $dim(Sigma_0)=1$
-Questo torna anche con la relazione della dimensione @megas_archon.
-Una relazione di dipendenza lineare tra le colonne di $A$ è
$-A^1-A^2+A^3=0$
@413 quando dici questo: il rango risulta pertanto determinato dalla dimensione dello spazio delle soluzioni di $Ax=0$: se questo ha dimensione k>0 ottieni k relazioni di dipendenza lineare indipendenti che abbassano il rango della matrice.
Vuoi dire "più grande il rango" e "più si abbassa la dimensione dello spazio delle soluzioni"?
Ma ti sono note (e chiare) le cose di cui parlo? Se sai dimostrare la formula delle dimensioni, perché riscoprirla a ogni cantone?
In ogni caso, un altro modo di vedere che il rango per righe è uguale al rango per colonne usa la riduzione di Gauss; prendi \(A\in M_{m\times n}(k)\), e
1. usiamo la notazione \(A_{[1]} | \dots | A_{[n]})\) per le colonne di $A$, \(\left(\begin{smallmatrix} \langle A^{[1]}\\ \vdots \\ A^{[n]} \end{smallmatrix}\right) \) per le righe di \(A\),
2. definiamo \(\text{rkc}(A) := \dim \langle A_{[1]},\dots, A_{[n]}\rangle\), e \(\text{rkr}(A) := \langle (A^{[1]})^t,\dots, (A^{[n]})^t\rangle\)
Fatto ciò, l'algoritmo di riduzione di Gauss dice che esistono due matrici invertibili \(P,Q\) delle giuste dimensioni tali che il prodotto \[\boxed{\begin{matrix}
&&\\
&P&\\
&&
\end{matrix}}\,
\boxed{\begin{matrix}
&&\\
&&A&&\\
&&
\end{matrix}}\,
\boxed{\begin{matrix}
&&\\
&&\\
&&Q&&\\
&&\\
&&
\end{matrix}}\] sia la matrice \(\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right)\). Ora, osserva (o meglio, dimostra) che la moltiplicazione a destra (resp., sinistra) per una matrice invertibile non cambia il rango per righe (resp., per colonne), quindi
\[\text{rkc}(A) = \text{rkc}(AQ)= \text{rkc}(PAQ) = \text{rkc}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = k = \text{rkr}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = \text{rkr}(PA)=\text{rkr}(A)\]
...Mi sembra tu ti stia rendendo la vita inutilmente difficile, imparando l'algebra lineare come un ingegnere.
In ogni caso, un altro modo di vedere che il rango per righe è uguale al rango per colonne usa la riduzione di Gauss; prendi \(A\in M_{m\times n}(k)\), e
1. usiamo la notazione \(A_{[1]} | \dots | A_{[n]})\) per le colonne di $A$, \(\left(\begin{smallmatrix} \langle A^{[1]}\\ \vdots \\ A^{[n]} \end{smallmatrix}\right) \) per le righe di \(A\),
2. definiamo \(\text{rkc}(A) := \dim \langle A_{[1]},\dots, A_{[n]}\rangle\), e \(\text{rkr}(A) := \langle (A^{[1]})^t,\dots, (A^{[n]})^t\rangle\)
Fatto ciò, l'algoritmo di riduzione di Gauss dice che esistono due matrici invertibili \(P,Q\) delle giuste dimensioni tali che il prodotto \[\boxed{\begin{matrix}
&&\\
&P&\\
&&
\end{matrix}}\,
\boxed{\begin{matrix}
&&\\
&&A&&\\
&&
\end{matrix}}\,
\boxed{\begin{matrix}
&&\\
&&\\
&&Q&&\\
&&\\
&&
\end{matrix}}\] sia la matrice \(\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right)\). Ora, osserva (o meglio, dimostra) che la moltiplicazione a destra (resp., sinistra) per una matrice invertibile non cambia il rango per righe (resp., per colonne), quindi
\[\text{rkc}(A) = \text{rkc}(AQ)= \text{rkc}(PAQ) = \text{rkc}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = k = \text{rkr}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = \text{rkr}(PA)=\text{rkr}(A)\]
...Mi sembra tu ti stia rendendo la vita inutilmente difficile, imparando l'algebra lineare come un ingegnere.
@megas_archon come detto, sto studiando dal Sernesi, se lo conosci, sai che il teorema della dimensione viene dopo il capitolo sul rango. Detto ciò, il teorema sulle dimensioni lo conosco e so che potrei risolvere il mio problema diversamente, esempio, come hai proposto all'inizio; quindi, non è che voglio complicarmi la vita, ma ora sto studiando per l'esame non per la materia, purtroppo.
Inoltre, questo qui\[ \text{rkc}(A) = \text{rkc}(AQ)= \text{rkc}(PAQ) = \text{rkc}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = k = \text{rkr}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = \text{rkr}(PA)=\text{rkr}(A) \] viene dimostrato subito dopo il teorema e fa uso dello stesso.
Inoltre, questo qui\[ \text{rkc}(A) = \text{rkc}(AQ)= \text{rkc}(PAQ) = \text{rkc}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = k = \text{rkr}\left( \begin{smallmatrix} \mathbf{1}_k & \\ & \mathbf{O}_{n-k}\end{smallmatrix}\right) = \text{rkr}(PA)=\text{rkr}(A) \] viene dimostrato subito dopo il teorema e fa uso dello stesso.
Faccio fatica a capire il fatto che stai "studiando per l'esame e non per la materia": uno dei criteri con cui si valuta l'esame di uno studente è l'autonomia di giudizio, quale che sia il modo in cui arriva a dimostrare quello che devi controllare che sa, è più importante che sia giusto che non il fatto che usi i teoremi nell'ordine proposto dal libro di testo, sia esso Sernesi o altro.
Anche perché sorpresa, per quanto ci si sforzi di rendere lineare e consequenziale l'esposizione, non sempre questo è possibile, oppure a volte bisogna fare un sacco di fatica per dimostrare qualcosa mediante un argomento elementare, e questa fatica non è istruttiva, è molto più istruttivo apprendere come funzionano gli argomenti evoluti attraverso il loro uso nel rendere più semplice il processo dimostrativo. Altrimenti non si impara la matematica, ma appunto, a passare gli esami, pratica che è notoriamente inutile e fine a sé stessa.
Quindi, a me non è chiaro cosa vuoi: una dimostrazione che usi solo i risultati del Sernesi? Questo è stupido: ce ne sono di più intelligenti che semplicemente se ne sbattono di cosa Edoardo fa o crede di fare, e dimostrano il risultato che ti interessa in maniera semplice e diretta (immagino tu voglia presentarti all'esame ricordando quello che hai studiato, e quindi dovresti privilegiare argomenti eleganti, perché più semplici da ricordare di un castello di numeri, apici e pedici). Oppure il problema è che il docente del tuo corso è uno di quegli animali che vi chiede di imparare le cose "come ci sono scritte nel libro" e penalizza quelli che invece cercano -e trovano e usano- riferimenti migliori?
Anche perché sorpresa, per quanto ci si sforzi di rendere lineare e consequenziale l'esposizione, non sempre questo è possibile, oppure a volte bisogna fare un sacco di fatica per dimostrare qualcosa mediante un argomento elementare, e questa fatica non è istruttiva, è molto più istruttivo apprendere come funzionano gli argomenti evoluti attraverso il loro uso nel rendere più semplice il processo dimostrativo. Altrimenti non si impara la matematica, ma appunto, a passare gli esami, pratica che è notoriamente inutile e fine a sé stessa.
Quindi, a me non è chiaro cosa vuoi: una dimostrazione che usi solo i risultati del Sernesi? Questo è stupido: ce ne sono di più intelligenti che semplicemente se ne sbattono di cosa Edoardo fa o crede di fare, e dimostrano il risultato che ti interessa in maniera semplice e diretta (immagino tu voglia presentarti all'esame ricordando quello che hai studiato, e quindi dovresti privilegiare argomenti eleganti, perché più semplici da ricordare di un castello di numeri, apici e pedici). Oppure il problema è che il docente del tuo corso è uno di quegli animali che vi chiede di imparare le cose "come ci sono scritte nel libro" e penalizza quelli che invece cercano -e trovano e usano- riferimenti migliori?
@megas_archon quando eri studente ragionavi allo stesso modo?
Piacerebbe anche a me studiare a modo mio e non avere l'obbligo di fare certe scelte, purtroppo non posso.
Brutti esseri quelli lì
Piacerebbe anche a me studiare a modo mio e non avere l'obbligo di fare certe scelte, purtroppo non posso.
"megas_archon":
Oppure il problema è che il docente del tuo corso è uno di quegli animali che vi chiede di imparare le cose "come ci sono scritte nel libro" e penalizza quelli che invece cercano -e trovano e usano- riferimenti migliori?
Brutti esseri quelli lì
@megas_archon quando eri studente ragionavi allo stesso modo?La risposta è sì, ovviamente. Ero un bolo d'odio concentrato sull'aorta di chiunque mi facesse perdere tempo.
Ero, hehe.
Se non hai voglia di rispondere nessuno ti dice nulla.
Buonasera
Buonasera
Sei tu che non hai risposto:
Quindi, a me non è chiaro cosa vuoi
@Yuyu_13 penso che megas_archon voglia aiutarti a capire, a suo modo, fornendoti una intuizione alternativa del concetto che fatichi a comprendere... vale la pena leggerlo con attenzione.
Ciò detto, a pag. 61 del libro di Sernesi, esempio 4.15 numeri 3 e 4 e Prop. 4.7, ti viene spiegato in dettaglio quello che ti ho scritto nel post precedente. Per cui a me viene il dubbio che tu non abbia capito cosa sia il rango per colonne di una matrice, pertanto ti chiedo: data la matrice
qual è il suo rango? Qual è una base dello spazio delle soluzioni di [tex]Ax=0[/tex]?
Ciò detto, a pag. 61 del libro di Sernesi, esempio 4.15 numeri 3 e 4 e Prop. 4.7, ti viene spiegato in dettaglio quello che ti ho scritto nel post precedente. Per cui a me viene il dubbio che tu non abbia capito cosa sia il rango per colonne di una matrice, pertanto ti chiedo: data la matrice
[tex]A:=\begin{bmatrix}1&2 &3 &4 &5 &6 &7 &8 &9 &10 \\
2&4 &6 &8 &10 &12 &14 &16 &18 &20 \\
3&6 &9 &12 &15 &18 &21 &24 &27 &30 \\
4&8 &12 &16 &20 &24 &28 &32 &36 &40 \\
5&10 &15 &20 &25 &30 &35 &40 &45 &50 \\
6&12 &18 &24 &30 &36 &42 &48 &54 &60 \\
7&14 &21 &28 &35 &42 &49 &56 &63 &70 \\
8&16 &24 &32 &40 &48 &56 &64 &72 &80 \\
9&18 &27 &36 &45 &54 &63 &72 &81 &90 \\
10&20 &30 &40 &50 &60 &70 &80 &90 &100 \\
\end{bmatrix}[/tex]
2&4 &6 &8 &10 &12 &14 &16 &18 &20 \\
3&6 &9 &12 &15 &18 &21 &24 &27 &30 \\
4&8 &12 &16 &20 &24 &28 &32 &36 &40 \\
5&10 &15 &20 &25 &30 &35 &40 &45 &50 \\
6&12 &18 &24 &30 &36 &42 &48 &54 &60 \\
7&14 &21 &28 &35 &42 &49 &56 &63 &70 \\
8&16 &24 &32 &40 &48 &56 &64 &72 &80 \\
9&18 &27 &36 &45 &54 &63 &72 &81 &90 \\
10&20 &30 &40 &50 &60 &70 &80 &90 &100 \\
\end{bmatrix}[/tex]
qual è il suo rango? Qual è una base dello spazio delle soluzioni di [tex]Ax=0[/tex]?