Dimostrazione riguardante il rango di due matrici equivalenti

Speedyiii
Ringrazio in anticipo chiunque sia così gentile da darmi una mano.

Sto seguendo il mio primo corso di algebra lineare e sto studiando dal libro "Lezioni di Geometria I" di Ferruccio Orecchia. Il libro è molto poco friendly (contiene pochissimi esempi ed in 3 capitoli che per ora ho letto 1 solo esercizio) ed è, in generale, molto sintetico nelle dimostrazioni.

Purtroppo, sebbene ci abbia pensato per diverse ore, non riesco a sciogliere un nodo sulla dimostrazione di un lemma di base, cioè quello che 2 matrici equivalenti (cioè ottenibili l'una dall'altra attraverso operazioni elementari) hanno lo stesso rango. Ho trovato molte dimostrazioni sul web, ma nessuna parte dalle stesse premesse e l'unico libro che seguiva un percorso simile all'Orecchia esponeva il teorema seguito da "dimostrazione: omessa" ... bella fregatura!

Il problema risiede nel passaggio in cui si dimostra che scambiare due righe di una matrice non ne varia il rango. La dimostrazione di ciò è completata in poche parole dicendo che "è facile rendersi conto che ogni minore della matrice ottenuta dopo lo scambio di righe è un minore della matrice originale oppure è ottenuto permutando due righe della matrice di un minore di A, onde i ranghi sono identici"

D'altra parte, questa dimostrazione non tiene in conto del caso in cui, detta A la matrice di partenza e B la matrice ottenuta scambiando la riga i con la riga j, si consideri un minore di B la cui matrice contiene soltanto una delle righe che sono state scambiate. In tal caso, la matrice non è uguale ad una già presente in A ed essa non ha subito un semplice scambio di righe poiché una delle due righe che sono state scambiate non le appartiene. Purtroppo questo caso non è, per me, banale e non riesco a completare la dimostrazione. Sareste così gentili da aiutarmi?

Il capitolo precede sia quello sui sistemi lineari che quello sugli spazi vettoriali. Le uniche cose che ho a disposizione sono la definizione di determinante, le sue proprietà di base e la definizione di rango come il massimo ordine di un minore non nullo.

Risposte
gugo82
[ot]Detto da uno che lo conosce (e che conosce anche chi l'ha scritto, che veniva a fare lezione col libro aperto in mano e trascriveva passaggio per passaggio le dimostrazioni dalla pagina alla lavagna... ): quel libro è brutto.
Buttalo e prendine uno buono.[/ot]

Ad ogni modo, prendiamo una matrice a capocchia:

$A=((1,2,3), (4,5,6), (-3,-2,-1))$

e scambiamone due righe, diciamo la prima e la terza, ottenendo:

$B= ((-3, -2, -1), (4,5,6), (1,2,3))$.

I minori di ordine $2$ di $A$ sono:

$A_(1,1) = ((5,6), (-2,-1))$, $A_(1,2)=((4,6), (-3,-1))$, $A_(1,3)=((4,5), (-3,-2))$

$A_(2,1) = ((2,3), (-2,-1))$, $A_(2,2)=((1,3), (-3,-1))$, $A_(2,3)=((1,2), (-3,-2))$

$A_(3,1) = ((2,3), (5,6))$, $A_(3,2)=((1,3), (4,6))$, $A_(3,3)=((1,2), (4,5))$

mentre quelli di $B$ sono:

$B_(1,1) = ((5,6), (2,3))$, $B_(1,2)=((4,6), (1,3))$, $B_(1,3)=((4,5), (1,2))$

$B_(2,1) = ((-2,-1), (2,3))$, $B_(2,2)=((-3,-1), (1,3))$, $B_(2,3)=((-3,-2), (1,2))$

$B_(3,1) = ((-2,-1), (5,6))$, $B_(3,2)=((-3,-1), (4,6))$, $B_(3,3)=((-3,-2), (4,5))$

e si vede che i minori della prima riga di $A$ corrispondono a quelli della terza di $B$ e viceversa, mentre quelli delle righe centrali si corrispondono tra loro.

Se fai una prova con una matrice $4 xx 4$, osserverai che alcuni minori di ordine $2$ sono uguali, mentre altri differiscono per l'ordine di righe.

Questa cosa si potrà formalizzare decentemente, ma non mi ci infilo e lascio ben volentieri la palla ad altri. :lol:

axpgn
Prova a guardare anche qui, specificatamente la sottosezione "Theorem EOPSS".
Inoltre qui, guarda i teoremi con la sigla NME, dall'1 al 9.

Speedyiii
"gugo82":
[ot]Detto da uno che lo conosce (e che conosce anche chi l'ha scritto, che veniva a fare lezione col libro aperto in mano e trascriveva passaggio per passaggio le dimostrazioni dalla pagina alla lavagna... ): quel libro è brutto.
Buttalo e prendine uno buono.[/ot]


[ot]Mi sento come fossi in un duello western, non posso fuggire. Tra l'altro, signor gugo, mi ritrovo a ringraziarla di nuovo poichè giá una volta parlammo ma con un account diverso a cui non riesco ad accedere...[/ot]

"gugo82":
Ad ogni modo, prendiamo una matrice a capocchia:

$A=((1,2,3), (4,5,6), (-3,-2,-1))$

e scambiamone due righe, diciamo la prima e la terza, ottenendo:

$B= ((-3, -2, -1), (4,5,6), (1,2,3))$.

I minori di ordine $2$ di $A$ sono:

$A_(1,1) = ((5,6), (-2,-1))$, $A_(1,2)=((4,6), (-3,-1))$, $A_(1,3)=((4,5), (-3,-2))$

$A_(2,1) = ((2,3), (-2,-1))$, $A_(2,2)=((1,3), (-3,-1))$, $A_(2,3)=((1,2), (-3,-2))$

$A_(3,1) = ((2,3), (5,6))$, $A_(3,2)=((1,3), (4,6))$, $A_(3,3)=((1,2), (4,5))$

mentre quelli di $B$ sono:

$B_(1,1) = ((5,6), (2,3))$, $B_(1,2)=((4,6), (1,3))$, $B_(1,3)=((4,5), (1,2))$

$B_(2,1) = ((-2,-1), (2,3))$, $B_(2,2)=((-3,-1), (1,3))$, $B_(2,3)=((-3,-2), (1,2))$

$B_(3,1) = ((-2,-1), (5,6))$, $B_(3,2)=((-3,-1), (4,6))$, $B_(3,3)=((-3,-2), (4,5))$

e si vede che i minori della prima riga di $A$ corrispondono a quelli della terza di $B$ e viceversa, mentre quelli delle righe centrali si corrispondono tra loro.

Se fai una prova con una matrice $4 xx 4$, osserverai che alcuni minori di ordine $2$ sono uguali, mentre altri differiscono per l'ordine di righe.

Questa cosa si potrà formalizzare decentemente, ma non mi ci infilo e lascio ben volentieri la palla ad altri. :lol:


Ci provo.

Speedyiii
"Sergio":
La butto lì: l'approccio per sottomatrici mi pare un po' cervellotico.
C'è un approccio molto più semplice (e più generale):
1) eseguire un'operazione elementare su una matrice equivale a moltiplicarla per una matrice elementare;
2) le matrici elementari sono tutte a rango pieno;
3) moltiplicare una matrice per una matrice a rango pieno non ne altera il rango.
Se ti interessa ti do i dettagli.


Molto interessante. Ho dato un'occhiata alle matrici elementari (di Gauss, secondo Wikipedia), mi chiedevo se per dimostrare l'equivalenza con le operazioni elementari l'unica strada fosse per "forza bruta", mostrando che il risultato è identico, oppure se ci fosse qualche altra maniera più rapida. Invece che le matrici abbiano rango pieno mi sembra abbastanza ovvio alla fin fine (oppure no?). Potresti darmi qualche spunto per il terzo punto?

Grazie mille della risposta

Speedyiii
"axpgn":
Prova a guardare anche qui, specificatamente la sottosezione "Theorem EOPSS".
Inoltre qui, guarda i teoremi con la sigla NME, dall'1 al 9.


Ti ringrazio per la risposta. Purtroppo le risorse che mi hai linkato seguono percorsi molto diversi e mi piacerebbe dimostrare il teorema con gli strumenti che mi mette a disposizione l'Orecchia. Credo che la strada delle matrici elementari indicatami sopra sia per ora quella che più si avvicina, ma non sono ancora sicuro che si possano evitare sistemi lineari e spazi vettoriali nelle dimostrazioni.

axpgn
A dir la verità, nel primo link si fa riferimento proprio all'equivalenza di sistemi lineari non di matrici (che viene poi successivamente quando "associa" sistemi lineari a matrici).
Tutto il capitolo iniziale mi pare possa fare proprio al caso tuo, a maggior ragione se chiedi questo
"GN00Fu":
Molto interessante. Ho dato un'occhiata alle matrici elementari (di Gauss, secondo Wikipedia), mi chiedevo se per dimostrare l'equivalenza con le operazioni elementari l'unica strada fosse per "forza bruta", mostrando che il risultato è identico, oppure se ci fosse qualche altra maniera più rapida.


IMHO :D

Cordialmente, Alex

Speedyiii
"axpgn":
A dir la verità, nel primo link si fa riferimento proprio all'equivalenza di sistemi lineari non di matrici (che viene poi successivamente quando "associa" sistemi lineari a matrici).
Tutto il capitolo iniziale mi pare possa fare proprio al caso tuo, a maggior ragione se chiedi questo [quote="GN00Fu"]Molto interessante. Ho dato un'occhiata alle matrici elementari (di Gauss, secondo Wikipedia), mi chiedevo se per dimostrare l'equivalenza con le operazioni elementari l'unica strada fosse per "forza bruta", mostrando che il risultato è identico, oppure se ci fosse qualche altra maniera più rapida.


IMHO :D

Cordialmente, Alex[/quote]

Forse non sto capendo io, ma quello che intendevo sopra era una dimostrazione più rapida senza ulteriori strumenti come i sistemi lineari. Mi piacerebbe completare la dimostrazione del libro e seguirne il percorso che passa soltanto in un secondo momento per i sistemi lineari. Le matrici elementari già sono uno strumento in più, ma molto vicino a quelli che ho già a disposizione.

axpgn
Capisco.
Siccome cercavi una dimostrazione più rapida, quella lo è :D

Speedyiii
"axpgn":
Capisco.
Siccome cercavi una dimostrazione più rapida, quella lo è :D
Lo terrò comunque a mente. Grazie mille

Inviato dal mio Redmi 5 Plus utilizzando Tapatalk

Speedyiii
"Sergio":
[quote="GN00Fu"]Ho dato un'occhiata alle matrici elementari (di Gauss, secondo Wikipedia), mi chiedevo se per dimostrare l'equivalenza con le operazioni elementari l'unica strada fosse per "forza bruta", mostrando che il risultato è identico, oppure se ci fosse qualche altra maniera più rapida.

Puoi sempre ricorrere alla formuletta del prodotto tra matrici: se $EA=B$, allora $b_{rc}=\sum_k e_{rk}a_{kc}$.
Per lo scambio delle prima e seconda riga la matrice elementare $E$ è uguale alla matrice identità $I$ con le due righe scambiate: $b_{1c}=\sum_k e_{1k}a_{kc}=\sum_k i_{2k}a_{kc}$, quindi la prima riga di $B$ è costituita dai prodotti di $(0,1,0,0,...)$ per le colonne di $A$, è cioè uguale alla seconda riga di $A$. Ecc.[/quote]

Fantastico, grazie.

"Sergio":
[quote="GN00Fu"]Invece che le matrici abbiano rango pieno mi sembra abbastanza ovvio alla fin fine (oppure no?). Potresti darmi qualche spunto per il terzo punto?

Se sai già che $"rango"(EA) <= "rango"(E)$ e $"rango"(EA) <= "rango"(A)$, si fa presto: se $E$ è quadrata e a rango pieno, quindi invertibile, hai $"rango"(EA) >= "rango"(E^{-1}EA) = "rango"(A)$, quindi $"rango"(EA)="rango"(A)$.

Se non lo sai già, ci arrivi presto ragionando sulle immagini. Ad esempio $"Im"(EA) sub "Im"(E)$ in quanto per ogni $v in "Im"(EA)$ si ha $EAv=E(Av) sub "Im"(E)$.[/quote]

Purtroppo non ho a disposizione nè l'imm di una matrice nè quei risultati sul rango. Come scrivevo in altre risposte, vorrei seguire il percorso demarcato dal particolare libro che sto utilizzando, il che significa che per dimostrare il teorema non ho a disposizione nient'altro se non la definizione di determinante, le sue proprietà di base e la definizione di rango. Le applicazioni lineari non sono collegate alle matrici se non molto dopo. Ci deve essere una maniera per farlo se l'autore ha ritenuto di organizzare così il testo, ma sto perdendo lo speranze.

Speedyiii
"Sergio":

Determinanti?
Data una matrice quadrata $A$, se scambi due righe o due colonne il determinante cambia segno, ma il valore assoluto è lo stesso: se era diverso da zero, diverso da zero rimane.
Se moltiplichi una riga o una colonna di $A$ per uno scalare $alpha ne 0$, il nuovo determinante è uguale a quello di $A$ moltiplicato per $alpha$: se era diverso da zero, diverso da zero rimane.
Se sostituisci una riga o una colonna con la somma di questa riga e di un'altra moltiplicata per uno scalare il determinante non cambia. Infatti in generale, indicando con \(\mathbf{A}_i\) la $i$-esima riga o colonna di \(\mathbf{A}\),
\[\det(\mathbf{A}_1,\dots,\alpha\mathbf{x}+\beta\mathbf{y},\dots,\mathbf{A}_n)
=\alpha\det(\mathbf{A}_1,\dots,\mathbf{x},\dots,\mathbf{A}_n)
+\beta(\mathbf{A}_1,\dots,\mathbf{y},\dots,\mathbf{A}_n)
\]Nel nostro caso, in cui la $i$-esima riga/colonna viene sostituita dalla sua somma con la $j$-esima moltiplicata per $alpha$:
\[\begin{align*}\det(\mathbf{A}_1,\dots,\mathbf{A}_i+\alpha\mathbf{A}_j,\dots,\mathbf{A}_j,\dots,\mathbf{A}_n) &= \det(\mathbf{A}_1,\dots,\mathbf{A}_i,\dots,\mathbf{A}_j,\dots,\mathbf{A}_n) \\
&+\alpha\det(\mathbf{A}_1,\dots,\mathbf{A}_j,\dots,\mathbf{A}_j,\dots,\mathbf{A}_n)\\
&=\det(\mathbf{A})+0\end{align*}\]perché il secondo determinante, avendo due righe/colonne uguali, è nullo.


La ringrazio per la risposta signor Sergio. Dei risultati che ha scritto sono a conoscenza, il problema è sfruttarli nella dimostrazione che due matrici equivalente hanno lo stesso rango. Per quanto riguarda la moltiplicazione di uno scalare per una riga o per una colonna la dimostrazione non è difficile. Ma quando si tratta di scambiare due righe o due colonne le cose si complicano e ci sono 2 casi in cui le cose sono semplici ed uno a cui mi blocco:

A è la matrice mxn da cui partiamo e B è la matrice mxn che otteniamo, ad esempio, scambiando due righe. Per dimostrare che il rango non cambia possiamo pensare di dimostrare che il determinante di ogni sottomatrice di A, nello scambio di righe, se è nullo tale rimane, se non lo è non diventa nullo. Allora può accadere che

a) Le righe scambiate non appartengono alla sottomatrice, ed allora essa è identica alla sua controparte in A.
b) Entrambe le righe scambiate appartengono alla sottomatrice, ed allora lo scambio conserva il valore assoluto del determinante.
c)1 sola delle due righe scambiate appartiene alla sottomatrice.

Il caso c) non sono riuscito a dimostrarlo senza chiamare in gioco sistemi lineari e applicazioni lineari, spazi vettoriali.

Una volta dimostrato c) allora è facile dimostrare che anche l'ultimo tipo di operazione elementare non varia il rango. Anche in questo caso ci sono 3 casi:

a') La riga modificata non appartiene alla sottomatrice, che risulta pertanto invariata.
b')Entrambe le righe, quella modificata e quella il cui multiplo è stato sommato alla prima, appartengono alla sottomatrice. Allora il determinante non varia per il risultato da lei dimostrato.
c')Soltanto la riga che viene modificata appartiene alla sottomatrice. Se la c) è stata dimostrata, allora possiamo applicare il teorema che dice che:

A,A' e A'' sono 3 matrici uguali in tutto tranne che per la riga i-esima e tali per cui la riga i-esima di A'' è ottenuta sommando le righe i-esime di A e di A'. Allora il determinante di A'' si può ottenere come somma del determinante di A e di A'.

Questo teorema ci aiuta a dimostrare c') poiché possiamo considerare la matrice A, la matrice B ottenuta dopo aver sommato $ lambda $Rj ad Ri ed una terza matrice ottenuta da A scambiando la riga che è stata sommata (Rj) con quella che ha subito la modifica (Ri) e poi moltiplicando Rj ( che ora è la riga i-esima) per lo scalare usato nell'operazione, matrice che chiamiamo C.
Con queste premesse, possiamo considerare la sottomatrice del punto c') come somma delle rispettive sottomatrici di A e di C, pertanto possiamo calcolare il determinante di tale sottomatrice sommando i determinanti delle altre 2.Allora, per quanto dimostrato in precedenza, deve accadere che le sottomatrici corrispondenti di A e di C o hanno determinante entrambe nullo, oppure hanno determinante non nullo ed uguale in modulo (il che significa che, poiché $ lambda $ è arbitrario, in generale la somma non si annulla).

Purtroppo il punto c) non riesco a dimostrarlo.

[ot]Mi dispiace di star facendo spendere così tanto tempo su quella che alla fine è una mera curiosità. Da un altro punto di vista, se tale dimostrazione non si rivelasse semplice, allora il libro di testo che sto utilizzando vedrebbe la sua "catena logica" spezzata, che mi sembra invece un problema abbastanza grave.[/ot]

axpgn
@GN00Fu
[ot]Sinceramente, vederti sprecare così tanto tempo, mi dispiace.
Nel primo link che ti ho postato, si dimostra l'equivalenza tra sistemi lineari trasformati mediante le operazioni di Gauss.
Nelle pagina successiva, si ripete la stessa dimostrazione per le matrici.
Dieci minuti al massimo per le due pagine e sei a posto.
IMHO[/ot]

Speedyiii
Vi ringrazio per l'aiuto, seguirò una delle strade alternative che mi avete proposto.

Speedyiii
"Sergio":

Ok, il dubbio va sciolto e ti propongo l'idea che mi sono fatto.

Ragionare di minori in materia di rango vuol dire applicare il teorema di Kronecker, detto anche teorema degli orlati. Questo teorema non considera solo i minori, ma i loro orlati.
Prima considerazione: i minori non servono se la matrice è a rango pieno. In questo caso ti devi basare sul fatto che scambiando due righe il determinante cambia segno e non si annulla. Ragioniamo quindi su una matrice di ordine $n$ e di rango $k Se $k=n-1$, devi considerare l'unico orlato di ordine $n$, cioè tutta la matrice. E anche in questo caso vale il fatto che se il determinante era zero tale rimane se scambi due righe.
Se $k=n-2$, devi trovare un minore di ordine $k$ diverso da zero (il determinante una sottomatrice di ordine $k$ a rango pieno). Due casi:
a) trovi una sottomatrice che non comprende le due righe scambiate: non cambia nulla, perché tutti i minori di ordine $k+1$ devono essere nulli, devi cioè aggiungere alla tua sottomatrice sia l'una che l'altra delle righe scambiate per applicare il teorema di Kronecker;
b) trovi una sottomatrice che ne comprende solo una: siamo sempre lì: tutti i minori di ordine $k+1$ devono essere nulli, devi aggiungere alla tua sottomatrice anche gli elementi dell'altra riga.
c) trovi una sottomatrice che comprende entrambe le righe scambiate: se il minore era diverso da zero nella matrice originaria, tale rimane dopo aver scambiato due righe; se gli orlati erano nulli/non nulli, tali rimangono per lo stesso motivo.
Alla fine, tutto si risolve in una noiosa ripetuta applicazione del teorema secondo cui scambiando due righe il determinante non cambia.


Non sono sicuro che le cose siano così semplici. Ad esempio considerando il caso k= n-1:

Con A indichiamo la matrice prima dello scambio e con B la matrice a scambio avvenuto. Poniamoci nella condizione in cui soltanto 1 delle 4 sottomatrici di ordine n-1 abbia determinante diverso da zero e che lo scambio coinvolge l'unica riga che tale sottomatrice esclude. Certamente è vero che, se prima dello scambio la matrice nella sua interezza avesse determinante pari a 0, allora anche dopo lo scambio la matrice ha ancora determinante nullo. D'altra parte questo ci dice soltanto che la matrice dopo lo scambio ha rango < n. Non sappiamo, d'altra parte, se dopo lo scambio la sottomatrice ha ancora determinante diverso da 0 e pertanto il rango potrebbe essere variato.

Oppure mi sbaglio?

Speedyiii
"Sergio":

Se ho capito bene vuoi dire che se prendo le prime due righe e colonne di $A$ ottengo un minore non nullo, ma se faccio la stessa cosa con $B$ ottengo un minore nullo. Vero, ma basta che "inseguo" (licenza poetica) la riga che si è mossa: da $B$ scelgo la prima e la terza riga, le prime due colonne e non cambia nulla.
In altri termini, è vero che non avevo considerato questo caso (faccio un po' fatica a seguire percorsi tortuosi quando esiste una dimostrazione maledettamente più semplice), ma scambiare due righe non pregiudica la possibilità di trovare l'unico minore di ordine $n-1$ non nullo.


Diamine se hai ragione, puoi sempre ricostruire una sottomatrice con le stesse righe. Continuavo a tentare con la "sottomatrice corrispondente", invece posso ricostruire quella che avevo in partenza. Fantastico. Grazie mille Sergio. :D :D

ferrino1
La dimostrazione va corretta sostituendo nel testo l la frase "ogni minore di B è un minore di A oppure è ottenuto permutando due righe della matrice di un minore di A" con la frase "ogni minore di B è un minore di A oppure è ottenuto con un numero finito di scambi di righe della matrice di un minore di A (a meno del segno)"

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.