Eliminazione di Gauss- matrice a scalini
ciao,
ho un dubbio sul metodo di eliminazione di Gauss applicato ad una matrice quadrata.
Supponiamo di esser arrivati al passo $k$ in cui gli elementi $a_{i,k}^((k))$ per $i>=k$ sono tutti nulli.
Come procede ora l'eliminazione ? Secondo alcune fonti si procede prendendo in considerazione la sottomatrice ottenuta eliminando la riga $k$ e la colonna $k$. In questo caso la matrice iniziale viene comunque ridotta a scalini ?
grazie
ho un dubbio sul metodo di eliminazione di Gauss applicato ad una matrice quadrata.
Supponiamo di esser arrivati al passo $k$ in cui gli elementi $a_{i,k}^((k))$ per $i>=k$ sono tutti nulli.
Come procede ora l'eliminazione ? Secondo alcune fonti si procede prendendo in considerazione la sottomatrice ottenuta eliminando la riga $k$ e la colonna $k$. In questo caso la matrice iniziale viene comunque ridotta a scalini ?
grazie

Risposte
Puoi fare un esempio concreto? Non mi è ben chiaro il problema ...
Il metodo è sempre quello, non riesco a comprendere perché dovrebbe cambiare ...
Il metodo è sempre quello, non riesco a comprendere perché dovrebbe cambiare ...
Prendi ad esempio:
$[[1,2,-1,1],[1,2,1,0], [3,6,0,1],[2,4,1,1]]$
Passo 1 (azzeramento elementi prima colonna):
$[[1,2,-1,1],[0,0,-2,1], [0,0,-3,2],[0,0,-3,1]]$
La matrice ottenuta ha gli elementi $a_{i,2}^((2)) $ per $ i=2,3,4$ tutti nulli. Ora se si procede considerando la sottomatrice ottenuta eliminando la seconda riga e la seconda colonna (e quindi prendiamo come pivot l'elemento $a_{3,3}^((2))=-3$) otterremo una matrice triangolare superiore ma non a scalini
$[[1,2,-1,1],[1,2,1,0], [3,6,0,1],[2,4,1,1]]$
Passo 1 (azzeramento elementi prima colonna):
$[[1,2,-1,1],[0,0,-2,1], [0,0,-3,2],[0,0,-3,1]]$
La matrice ottenuta ha gli elementi $a_{i,2}^((2)) $ per $ i=2,3,4$ tutti nulli. Ora se si procede considerando la sottomatrice ottenuta eliminando la seconda riga e la seconda colonna (e quindi prendiamo come pivot l'elemento $a_{3,3}^((2))=-3$) otterremo una matrice triangolare superiore ma non a scalini
"cianfa72":
Prendi ad esempio:
$ [[1,2,-1,1],[1,2,1,0], [3,6,0,1],[2,4,1,1]] $
Passo 1 (azzeramento elementi prima colonna):
$ [[1,2,-1,1],[0,0,-2,1], [0,0,-3,2],[0,0,-3,1]] $
La matrice ottenuta ha gli elementi $ a_{i,2}^((2)) $ per $ i=2,3,4 $ tutti nulli. Ora se si procede considerando la sottomatrice ottenuta eliminando la seconda riga e la seconda colonna (e quindi prendiamo come pivot l'elemento $ a_{3,3}^((2))=-3 $) otterremo una matrice triangolare superiore ma non a scalini
Ma come hai ottenuto quella matrice? Io ottengo
$ [[1,2,-1,1],[0,0,2,-1], [0,0,3,-2],[0,0,3,-1]] $
La seconda riga meno la prima riga,
la terza riga meno 3 volte la prima riga,
la quarta riga meno 2 volte la prima riga.
Poi continui semplicemente prendendo il come pivot \( a_{2,3}=2 \). E ottieni
$ [[1,2,-1,1],[0,0,1,-1/2], [0,0,0,-1/2],[0,0,0,1/2]] $
La seconda riga ho reso il pivot uguale ad 1 (puoi lasciare anche il 2)
La terza riga - 3 la seconda riga
La quarta riga - 3 la seconda riga
Poi continui prendendo come pivot \( a_{3,4} = -1/2 \). E ottieni continuando
$ [[1,2,-1,1],[0,0,1,-1/2], [0,0,0,1],[0,0,0,0]] $
Ed è a scalini.
"cianfa72":
otterremo una matrice triangolare superiore ma non a scalini
Una matrice triangolare superiore è ridotta a scalini.
\[ \begin{pmatrix}
a_{1,1} & a_{1,2} &\ldots & \ldots& a_{1,n} \\
0& a_{2,2} & \ldots & \ldots& a_{2,n} \\
0& 0 &a_{3,3}& \ldots& a_{3,n} \\
\vdots& \ddots & \ddots & \ddots& \vdots \\
0& 0 & \ldots & 0&a_{n,n}
\end{pmatrix} \]
È ridotta a scalini con pivot gli elementi sulla diagonale.
"3m0o":
Poi continui prendendo come pivot \( a_{3,4} = -1/2 \). E ottieni continuando
$ [[1,2,-1,1],[0,0,1,-1/2], [0,0,0,1],[0,0,0,0]] $
Ed è a scalini.
E' proprio qui il mio dubbio: dalla letteratura (vedi per es https://www.****.it/lezioni/algebra-lineare/matrici-e-vettori/831-eliminazione-di-gauss.html step 4 algoritmo di Gauss) al passo 2 visto che gli elementi $ a_{i,2}^((2)) $ per $ i=2,3,4 $ sono tutti nulli si dovrebbe procedere considerando la sottomatrice ottenuta eliminando la seconda riga e la seconda colonna: $ [[-3,2],[-3,1]] $ ovvero $ [[3,-2],[3,-1]] $ nel tuo caso
"3m0o":
Una matrice triangolare superiore è ridotta a scalini.
\[ \begin{pmatrix} a_{1,1} & a_{1,2} &\ldots & \ldots& a_{1,n} \\ 0& a_{2,2} & \ldots & \ldots& a_{2,n} \\ 0& 0 &a_{3,3}& \ldots& a_{3,n} \\ \vdots& \ddots & \ddots & \ddots& \vdots \\ 0& 0 & \ldots & 0&a_{n,n} \end{pmatrix} \]
È ridotta a scalini con pivot gli elementi sulla diagonale.
Non ne sono sicuro....per es prendi il caso in cui $a_{2,2}=0$ e $a_{3,3}!=0$
Scusami ma che definizione hai di "matrice ridotta a scalini" ?
Eccone una , cerca "Subsection RREF"
Eccone una , cerca "Subsection RREF"
"axpgn":
Scusami ma che definizione hai di "matrice ridotta a scalini" ?
Eccone una , cerca "Subsection RREF"
per matrice a scalini intendo REF (Row Echelon Form) e non RREF (Reduced Row-Echelon Form). Per la definizione di REF vedi per es qui
Cambia poco (per quanto riguarda la forma) nel senso che i pivot possono essere diversi da $1$ (tanto li puoi ridurre quando vuoi) e i termini sopra i pivot possono essere non nulli (per averli devi applicare Gauss anche "al ritorno" e l'utilità consiste nell'avere le soluzioni già belle e pronte).
Ma il modo di arrivarci è lo stesso … continuo a non capire bene quello che vuoi dire … potresti gentilmente mostrarci tutti i passaggi che fai così come ha fatto 3m0o ? Grazie.
Ma il modo di arrivarci è lo stesso … continuo a non capire bene quello che vuoi dire … potresti gentilmente mostrarci tutti i passaggi che fai così come ha fatto 3m0o ? Grazie.
"cianfa72":
[quote="3m0o"]
Poi continui prendendo come pivot \( a_{3,4} = -1/2 \). E ottieni continuando
$ [[1,2,-1,1],[0,0,1,-1/2], [0,0,0,1],[0,0,0,0]] $
Ed è a scalini.
E' proprio qui il mio dubbio: dalla letteratura (vedi per es https://www.****.it/lezioni/algebra-lineare/matrici-e-vettori/831-eliminazione-di-gauss.html step 4 algoritmo di Gauss) al passo 2 visto che gli elementi $ a_{i,2}^((2)) $ per $ i=2,3,4 $ sono tutti nulli si dovrebbe procedere considerando la sottomatrice ottenuta eliminando la seconda riga e la seconda colonna: $ [[-3,2],[-3,1]] $ ovvero $ [[3,-2],[3,-1]] $ nel tuo caso[/quote]
Allora l'algoritmo lì è sbagliato o quanto meno è differente da quello che hanno dato a me! Difatti seguendo l'algoritmo otteniamo
$ [[1,2,-1,1],[0,0,2,-1], [0,0,3,-2],[0,0,3,-1]] $
Poi il punto 4) effettivamente dice di considerare la sottomatrice
$ [[0,2,-1], [0,3,-2],[0,3,-1]] $
Poi il punto 1) dice di andare direttamente al punto 4) che a sua volta dice di consdierare la matrice
$ [[3,-2],[3,-1]] $
Poi ottieni
$ [[3,-2],[0,-3]] $
Ed in fine ottieni pertanto
$ [[1,2,-1,1],[0,0,2,-1], [0,0,3,-2],[0,0,0,-3]] $
Che NON è ridotta a scalini. L'algoritmo corretto è il seguente
Operazioni di tipo I: Scambiare due righe della matrice
Operazioni di tipo II: Moltiplicare una riga della matrice per uno scalare non nullo
Operazioni di tipo III: Addizionare una riga della matrice per un multiplo scalare di un altra riga della matrice
Sia \( K \) un campo e \( A \in K^{n \times m } \). Se \( A = 0 \) è ridotta a scalini, se \( A \neq 0 \)
1) Sia \( j_1 \) il più piccolo indice colonna per il quale un coefficiente di \( A \) è non nullo, diremo \( a_{i,j_1} \neq 0 \). Per un operazione di tipo I scambiare la riga \( i \) con la riga \( 1 \) in modo da ottenere \( a_{1,j_1} \neq 0 \).
(Il punto 2) è per rendere i pivot uguali a 1)
2) Per un operazione di tipo II moltiplicare la prima riga per \( a_{1,j_1}^{-1} \) e otteniamo \( a_{1,j_1}=1 \)
3) Per una successione finita di operazioni di tipo III annulliamo tutti i coefficienti della \( j_1\)-esima colonna. È sufficiente infatti aggiungere \( -a_{k,j_1} \times \) la prima riga alla riga \(k \). In modo da ottenere una matrice della forma \[ A'= \begin{pmatrix}
0 & \ldots & 0 &1 & \star & \ldots & \star \\
0 & \ldots & 0 &0 & \star & \ldots & \star \\
\vdots & \vdots & \vdots &\vdots & \vdots & \vdots & \vdots \\
0 & \ldots & 0 &0 & \star & \ldots & \star \\
\end{pmatrix} \]
4) Porre \( B \) la matrice consistente della righe 2 alla riga \( n \) di \[ A' = \begin{pmatrix}
0 & \ldots & 0 &1 & \star & \ldots & \star \\
& & & & & & \\
& & & B & & & \\
& & & & & &
\end{pmatrix} \] (praticamente elimini la prima riga).
5) Sia \( j_2 \) il più piccolo indice colonna per la quale \( B \) possiede un coefficiente non nullo. Abbiamo certamente \( j_2 > j_1 \), effettuare la procedura da 1) a 3) alla matrice \(B\) per ottenere \( B' \) e sostituire \( B' \) al posto di \( B \) nella matrice \( A' \) per ottenere una matrice \( A'' \) della forma
\[ A'' = \begin{pmatrix}
0 & \ldots & 0 &1 & \star & \ldots & \star \\
& & & & & & \\
& & & B' & & & \\
& & & & & &
\end{pmatrix}=\begin{pmatrix}
0 & \ldots & 0 &1 & \star & \star & \star & \star& \ldots& \star\\
0 & \ldots & 0 &0 & \ldots & 0 & 1& \star&\ldots &\star \\
0 & \ldots & 0&0 & \ldots & 0 & 0&\star &\ldots &\star \\
\vdots & \ldots & \vdots &0 & \ldots & 0 & 0& \star& \ldots&\star \\
\end{pmatrix} \]
(Il punto 6) annulli i coefficiente sopra il pivot, ma non è necessario per una riduzione a scalini).
6) Con un operazione di tipo III annuliamo il coefficiente \( a_{1,j_2} \) alla riga 1. Questa operazione non modifica tutti gli elementi della prima riga di \( A'' \) precedenti della colonna \( j_2 \).
7) Ripetere la procedura fino a ottenere una matrice a scalini.
Credo che l'algoritmo del link che hai dato è valido aggiustando il loro punto 1) con il mio punto 1).
"cianfa72":
[quote="3m0o"]Una matrice triangolare superiore è ridotta a scalini.
\[ \begin{pmatrix} a_{1,1} & a_{1,2} &\ldots & \ldots& a_{1,n} \\ 0& a_{2,2} & \ldots & \ldots& a_{2,n} \\ 0& 0 &a_{3,3}& \ldots& a_{3,n} \\ \vdots& \ddots & \ddots & \ddots& \vdots \\ 0& 0 & \ldots & 0&a_{n,n} \end{pmatrix} \]
È ridotta a scalini con pivot gli elementi sulla diagonale.
Non ne sono sicuro....per es prendi il caso in cui $a_{2,2}=0$ e $a_{3,3}!=0$[/quote]
Hai ragione, ma devi aggiungere la condizione \( a_{2,3} \neq 0 \)
@3m0o
Se l'OP legge il link che gli ho scritto non dovrebbe avere problemi
Se l'OP legge il link che gli ho scritto non dovrebbe avere problemi

ok mi torna, grazie 3m0o.
In realta' l'algoritmo a cui facevo riferimento dovrebbe ritornare una matrice triangolare superiore (anche se non è detto a scalini). In effetti la matrice prima calcolata da 3m0o:
$ [[1,2,-1,1],[0,0,2,-1], [0,0,3,-2],[0,0,0,-3]] $
è triangolare superiore con elemento diagonale $a_{2,2}=0$
Il mio dubbio si lega alla fattorizzazione LU in cui la matrice U (triangolare superiore) si calcola mediante l'algoritmo di Gauss. In quel caso penso sia sufficiente anche la versione che ritorna appunto una matrice triangolare superiore non necessariamente a scalini.
Come la vedete ?
In realta' l'algoritmo a cui facevo riferimento dovrebbe ritornare una matrice triangolare superiore (anche se non è detto a scalini). In effetti la matrice prima calcolata da 3m0o:
$ [[1,2,-1,1],[0,0,2,-1], [0,0,3,-2],[0,0,0,-3]] $
è triangolare superiore con elemento diagonale $a_{2,2}=0$
Il mio dubbio si lega alla fattorizzazione LU in cui la matrice U (triangolare superiore) si calcola mediante l'algoritmo di Gauss. In quel caso penso sia sufficiente anche la versione che ritorna appunto una matrice triangolare superiore non necessariamente a scalini.
Come la vedete ?
Sinceramente non vedo il motivo di usare un algoritmo "diverso" che non dà nessun vantaggio pratico ma può introdurre errori … IMHO
"axpgn":
Sinceramente non vedo il motivo di usare un algoritmo "diverso" che non dà nessun vantaggio pratico ma può introdurre errori … IMHO
Mi trovi d'accordo....il punto che mi ha portato 'fuori strada' - che onestamente mi suona strano - è che diverse sorgenti definiscono l'algoritmo di Gauss come al primo link postato (vedi anche il link Wikipedia sull'argomento)

Probabile esista un algoritmo per la decomposizione \( LU \), con \( L \) triangolare inferiore e \( U \) triangolare superiore, in ogni caso supponi che la matrice \( A \) si riduce a scalini senza utilizzare operazioni di tipo I. Infatti
Sia \( K \) un corpo e siano \( E_1, \ldots, E_t \in K^{n \times n} \) le matrici elementari corrispondenti alle mosse di Gauss.
\( E_i \) è uguale \( D_r(\lambda) \) per un certo \( 1 \leq r \leq n \) e \( \lambda \in K \) oppure \( L_{rs}(\lambda) \) per \( \lambda \in K \) e per \( 1 \leq s < r \leq n \). Dove \( D_r(\lambda) \) è la matrice corrispondente all operazione di tipo II e, ovvero moltiplichi la riga \( r \) per \( \lambda \), mentre \( L_{rs}(\lambda) \) è la matrice corrsipondente al operazione di tipo III, ovvero aggiungi \( \lambda \) volte la riga \( s \) alla riga \( r \).
Inoltre abbiamo che \( E_1 \ldots E_t A \) è ridotta a scalini e dunque triangolare superiore.
Abbiamo inoltre che \( E_i \) è triangolare inferiore così come le loro inverse. Inoltre il prodotto di matrici triangolari inferiori è ancora una matrice triangolare inferiore. Pertanto \( A = (E_t^{-1} \ldots E_1^{-1})(E_1\ldots E_tA) \) dunque \( L:= E_t^{-1} \ldots E_1^{-1} \) e \( U:=E_1\ldots E_tA \) ci da la decomposizione \( LU \). Fondamentalmente puoi fare Gauss e segnarti di fianco le matrici ad ogni passo. Poi le moltriplichi, calcoli l'inversa e ottieni \( L \), mentre la riduzione a scalini di \( A \) è \( U \). Visto che l'algoritmo al punto 1) utilizza un operazione di tipo I, e qui per ipotesi le operazioni di tipo I non vengono utilizzate allora significa che gli elementi sulla diagonale di \( A \) non sono nulli e non è possibile ottenere un caso in cui hai tutta una colonna nulla.
Se invece per ridurre a scalini la matrice \(A \) utilizzi delle operazioni di tipo I non sono sicuro che tu possa fare la decomposizione \( LU \). Ma puoi decomporla in \( A= P LU \) dove \( P \) è il prodotto delle matrici di permutazione dell operazione I.
Edit: In ogni caso l'algoritmo del link è errato, se anche su wikipedia è segnato così (non ho controllato) vuol dire che è errato anche quello, apri una discussione su wikipedia e vedi un po' cosa ti dicono.
Sia \( K \) un corpo e siano \( E_1, \ldots, E_t \in K^{n \times n} \) le matrici elementari corrispondenti alle mosse di Gauss.
\( E_i \) è uguale \( D_r(\lambda) \) per un certo \( 1 \leq r \leq n \) e \( \lambda \in K \) oppure \( L_{rs}(\lambda) \) per \( \lambda \in K \) e per \( 1 \leq s < r \leq n \). Dove \( D_r(\lambda) \) è la matrice corrispondente all operazione di tipo II e, ovvero moltiplichi la riga \( r \) per \( \lambda \), mentre \( L_{rs}(\lambda) \) è la matrice corrsipondente al operazione di tipo III, ovvero aggiungi \( \lambda \) volte la riga \( s \) alla riga \( r \).
Inoltre abbiamo che \( E_1 \ldots E_t A \) è ridotta a scalini e dunque triangolare superiore.
Abbiamo inoltre che \( E_i \) è triangolare inferiore così come le loro inverse. Inoltre il prodotto di matrici triangolari inferiori è ancora una matrice triangolare inferiore. Pertanto \( A = (E_t^{-1} \ldots E_1^{-1})(E_1\ldots E_tA) \) dunque \( L:= E_t^{-1} \ldots E_1^{-1} \) e \( U:=E_1\ldots E_tA \) ci da la decomposizione \( LU \). Fondamentalmente puoi fare Gauss e segnarti di fianco le matrici ad ogni passo. Poi le moltriplichi, calcoli l'inversa e ottieni \( L \), mentre la riduzione a scalini di \( A \) è \( U \). Visto che l'algoritmo al punto 1) utilizza un operazione di tipo I, e qui per ipotesi le operazioni di tipo I non vengono utilizzate allora significa che gli elementi sulla diagonale di \( A \) non sono nulli e non è possibile ottenere un caso in cui hai tutta una colonna nulla.
Se invece per ridurre a scalini la matrice \(A \) utilizzi delle operazioni di tipo I non sono sicuro che tu possa fare la decomposizione \( LU \). Ma puoi decomporla in \( A= P LU \) dove \( P \) è il prodotto delle matrici di permutazione dell operazione I.
Edit: In ogni caso l'algoritmo del link è errato, se anche su wikipedia è segnato così (non ho controllato) vuol dire che è errato anche quello, apri una discussione su wikipedia e vedi un po' cosa ti dicono.
"3m0o":
Visto che l'algoritmo al punto 1) utilizza un operazione di tipo I, e qui per ipotesi le operazioni di tipo I non vengono utilizzate allora significa che gli elementi sulla diagonale di \( A \) non sono nulli e non è possibile ottenere un caso in cui hai tutta una colonna nulla.
Qui immagino intendi gli elementi diagonali \( a_{k,k}^{(k)} \) delle varie \( A^{(k)} \) che devono ovviamente risultare non nulli affinche' l'algoritmo di eliminazione possa procedere senza richiedere scambio di righe. Tra l'altro se la matrice \( A \) ha rango \( k \) la richiesta sopra dovrebbe applicarsi per i soli primi \( k \) step dell'algoritmo.
Ad esempio per la seguente matrice con rango 2
\( \begin{bmatrix}
1 & 2 & 0 \\
-1 & 1 & 0 \\
1 & -1 & 0
\end{bmatrix} \rightarrow
\begin{bmatrix}
1 & 2 & 0 \\
0 & 3 & 0 \\
0 & -3 & 0
\end{bmatrix} \rightarrow
\begin{bmatrix}
1 & 2 & 0 \\
0 & 3 & 0 \\
0 & 0 & 0
\end{bmatrix} \)
ps. a beneficio di tutti posto il link di un riferimento in rete che mi sembra molto ben fatto

Si intendevo quello. E credo tu abbia ragione sulla matrice di rango \(k \).
Comunque prendendo il tuo esempio, puoi decomporla in \( LU \) ponendo \( U = \begin{bmatrix} 1 & 2 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 0 \end{bmatrix} =L_{23}(1) \cdot L_{13}(-1) L_{12}(1) A \), dove \( A \) è la matrice di partenza, e le operazioni che hai effettuato sono \( L_{12}(1) \), \( L_{13}(-1) \) e \( L_{23}(1) \) inoltre le matrici inverse sono rispettivamente \( L_{12}(-1) \), \( L_{13}(1) \), \( L_{23}(-1) \), allora per trovare la matrice \( L \) è sufficiente moltiplicare
\[ L= L_{12}(-1) \cdot L_{13}(1) \cdot L_{23}(-1) = \begin{bmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 1 & 0 & 1 \end{bmatrix}\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & -1 & 1 \end{bmatrix} = \begin{bmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 1 & -1 & 1 \end{bmatrix} \]
E difatti
\[ A = \begin{bmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 1 & -1 & 1 \end{bmatrix} \begin{bmatrix} 1 & 2 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 0 \end{bmatrix} = \begin{bmatrix} 1 & 2 & 0 \\ -1 & 1 & 0 \\ 1 & -1 & 0 \end{bmatrix} \]
Comunque prendendo il tuo esempio, puoi decomporla in \( LU \) ponendo \( U = \begin{bmatrix} 1 & 2 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 0 \end{bmatrix} =L_{23}(1) \cdot L_{13}(-1) L_{12}(1) A \), dove \( A \) è la matrice di partenza, e le operazioni che hai effettuato sono \( L_{12}(1) \), \( L_{13}(-1) \) e \( L_{23}(1) \) inoltre le matrici inverse sono rispettivamente \( L_{12}(-1) \), \( L_{13}(1) \), \( L_{23}(-1) \), allora per trovare la matrice \( L \) è sufficiente moltiplicare
\[ L= L_{12}(-1) \cdot L_{13}(1) \cdot L_{23}(-1) = \begin{bmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 1 & 0 & 1 \end{bmatrix}\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & -1 & 1 \end{bmatrix} = \begin{bmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 1 & -1 & 1 \end{bmatrix} \]
E difatti
\[ A = \begin{bmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 1 & -1 & 1 \end{bmatrix} \begin{bmatrix} 1 & 2 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 0 \end{bmatrix} = \begin{bmatrix} 1 & 2 & 0 \\ -1 & 1 & 0 \\ 1 & -1 & 0 \end{bmatrix} \]
"3m0o":
Si intendevo quello. E credo tu abbia ragione sulla matrice di rango \( k \).
Comunque prendendo il tuo esempio, puoi decomporla in \( LU \) ponendo \( U = \begin{bmatrix} 1 & 2 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 0 \end{bmatrix} =L_{23}(1) \cdot L_{13}(-1) L_{12}(1) A \), dove \( A \) è la matrice di partenza, e le operazioni che hai effettuato sono \( L_{12}(1) \), \( L_{13}(-1) \) e \( L_{23}(1) \) inoltre le matrici inverse sono rispettivamente \( L_{12}(-1) \), \( L_{13}(1) \), \( L_{23}(-1) \)
Chiedo scusa, nella tua notazione le matrici \( L_{rs}(p) \) dovrebbero essere le 'elementary matrices' di tipo \( L_i \) descritte al link impiegate per addizionare un multiplo della riga $r$ alla riga $s$ sottostante.
Ad esempio \( L_{13}(-1) \) la matrice elementare che addiziona la prima riga moltiplicata per $-1$ alla terza riga, corretto ?
"3m0o":
\( L_{rs}(\lambda) \) è la matrice corrsipondente al operazione di tipo III, ovvero aggiungi \( \lambda \) volte la riga \( s \) alla riga \( r \).
Ops... si scusami ho invertito \( s \) ed \( r \),
\( L_{rs}(\lambda) \) è la matrice corrsipondente al operazione di tipo III, ovvero aggiungi \( \lambda \) volte la riga \( r \) alla riga \( s \). Ho sempre fatto confusione con questa notazione su quale ruolo avesse la \( r \) e la \( s \), però a guardare la matrice \( L_{12}(\lambda) = \begin{pmatrix}
1& 0 & 0 \\
\lambda & 1 & 0\\
0& 0 &1
\end{pmatrix} \) mi risulta chiarissimo che è la riga \( 1 \) ad essere moltiplicata per \( \lambda \) ed aggiunta alla riga 2.