Applicare l'eliminazione di Gauss per determinare se.....
Applicare l'eliminazione di Gauss per determinare se il seguente sistema ammette o meno un'unica soluzione:
$\{(3x_2 - 4x_3 + x_4 = 1),(x_1 - x_2 - x_3 + x_4 = 0),(2x_1 - 2x_2 - 2x_3 + 2x_4 = 0),(x_1 - x_2 + 4x_3 - x_4 = 1):}$
Ovviamente la terza riga si può eliminare. Comunque io so solamente che un sistema quadrato
ammette un'unica soluzione se e solo se la sua matrice dei coefficienti è non singolare, cioè se i suoi pivots sono non nulli. Vale lo stesso per matrici rettangolari?
Grazie
$\{(3x_2 - 4x_3 + x_4 = 1),(x_1 - x_2 - x_3 + x_4 = 0),(2x_1 - 2x_2 - 2x_3 + 2x_4 = 0),(x_1 - x_2 + 4x_3 - x_4 = 1):}$
Ovviamente la terza riga si può eliminare. Comunque io so solamente che un sistema quadrato
ammette un'unica soluzione se e solo se la sua matrice dei coefficienti è non singolare, cioè se i suoi pivots sono non nulli. Vale lo stesso per matrici rettangolari?
Grazie
Risposte
Il sistema lineare \(\displaystyle \Sigma: Ax=b \), con \(\displaystyle A \) matrice \(\displaystyle m \times n \) a coefficienti nel campo \(\displaystyle C \) e \(\displaystyle b \in C^{m} \), ha soluzione se, e solo se, \(\displaystyle \mbox{rk}(A|b)=\mbox{rk}A \). In tal caso l'insieme \(\displaystyle \mbox{Sol}(A|b) \) delle sue soluzioni si ottiene sommando a una soluzione particolare del sistema, \(\displaystyle x_{0} \), una soluzione del sistema omogeneo associato \(\displaystyle \Sigma \;' : Ax=0 \). Le soluzioni di \(\displaystyle \Sigma \; ' \) formano uno spazio vettoriale di dimensione \(\displaystyle n- \mbox{rk}A \).
Trai le adeguate conclusioni.
Trai le adeguate conclusioni.
"smaug":
Applicare l'eliminazione di Gauss per determinare se il seguente sistema ammette o meno un'unica soluzione
Tra l'altro questo procedimento è alla base della dimostrazione che ho studiato del risultato citato da Delirium. Infatti, procedendo con l'eliminazione di Gauss, se si pervenisse ad una situazione del tipo $rank( A ) < rank( A|b)$, si troverebbe un'identità falsa, poiché l'ultima riga di $(A|b)$ sarebbe una cosa del tipo $ 0 0 ... 0 0 0 | c != 0$; da cui ovviamente si deduce che il sistema non ha soluzioni.
"Delirium":
Il sistema lineare \(\displaystyle \Sigma: Ax=b \), con \(\displaystyle A \) matrice \(\displaystyle m \times n \) a coefficienti nel campo \(\displaystyle C \) e \(\displaystyle b \in C^{m} \), ha soluzione se, e solo se, \(\displaystyle \mbox{rk}(A|b)=\mbox{rk}A \). In tal caso l'insieme \(\displaystyle \mbox{Sol}(A|b) \) delle sue soluzioni si ottiene sommando a una soluzione particolare del sistema, \(\displaystyle x_{0} \), una soluzione del sistema omogeneo associato \(\displaystyle \Sigma \;' : Ax=0 \). Le soluzioni di \(\displaystyle \Sigma \; ' \) formano uno spazio vettoriale di dimensione \(\displaystyle n- \mbox{rk}A \).
Trai le adeguate conclusioni.
Scusami sai... faccio una piccola correzione solo per non creare inutili confusioni in chi legge: (sperando di non dire una fesseria)
In tal caso l'insieme \(\displaystyle \mbox{Sol}(A|b) \) delle sue soluzioni si ottiene sommando a una soluzione particolare del sistema, \(\displaystyle x_{0} \), l'insieme delle soluzioni del sistema omogeneo associato \(\displaystyle \Sigma \;' : Ax=0 \).
E perché mai questa correzione? Non vedo dove sia il problema. In base alla dimensione dello spazio delle soluzioni del sistema omogeneo, una soluzione è una n-upla ordinata di vettori linearmente indipendenti che ne verifica le equazioni. E basta quella per generare tutto lo spazio, a cui poi è sufficiente sommare una soluzione particolare \(\displaystyle x_{0} \).
Tra l'altro questa non è farina del mio sacco quanto del sacco del mio professore di Algebra lineare (e del suo libro).
Tra l'altro questa non è farina del mio sacco quanto del sacco del mio professore di Algebra lineare (e del suo libro).
Beh, ma è chiaro che alla soluzione particolare si va a sommare una soluzione generica del sistema omogeneo associato (quindi, in fin dei conti, si ottiene che le soluzioni sono un sottospazio affine del tipo $x_0 + Sol(A)$ (notazione)).
Stessa cosa.
Stessa cosa.
Quindi posso scrivere:
$((0,3,-4,1,1),(1,-1,-1,1,0),(1,-1,4,-1,1)) = ((1,-1,-1,1,0),(1,-1,4,-1,1),(0,3,-4,1,1)) = ((1,-1,-1,1,0),(0,0,5,-2,1),(0,3,-4,1,1)) $
avrei gia un pivot nullo? ragazzi con la matrici non quadrate vado gia in confusione
$((0,3,-4,1,1),(1,-1,-1,1,0),(1,-1,4,-1,1)) = ((1,-1,-1,1,0),(1,-1,4,-1,1),(0,3,-4,1,1)) = ((1,-1,-1,1,0),(0,0,5,-2,1),(0,3,-4,1,1)) $
avrei gia un pivot nullo? ragazzi con la matrici non quadrate vado gia in confusione

Hai letto quello che ho scritto? Qual è il rango di quella matrice?
Lascia perdere per un attimo i pivot.
Lascia perdere per un attimo i pivot.
"Delirium":
Hai letto quello che ho scritto? Qual è il rango di quella matrice?
Lascia perdere per un attimo i pivot.
Ma il rango di una matrice non è il numero di pivots? Comunque non sono sicuro di aver capito i vostri suggerimenti...
Va bene, ma è sempre meglio pensarla in termini di applicazioni lineari. Il rango di una matrice è il numero di colonne o righe linearmente indipendenti; quella matrice ha tre righe, quindi al massimo può avere rango 3.
Questo ti basta per concludere.
Questo ti basta per concludere.
La matrice (A|b) ha sempre rango 3 perchè sono tre le righe linearmente indipendenti?
In una matrice il numero di colonne linearmente indipendenti è sempre uguale al numero di righe linearmente indipendenti ( - e mi pare che sul Lang ci sia una dimostrazione di questo fatto). Ora, la tua matrice ha tre righe, quindi il suo rango sarà al massimo tre. Più sopra ho anche detto che le soluzioni del sistema omogeneo associato formano uno spazio vettoriale di dimensione \(\displaystyle n - \mbox{rk}A \), che nel nostro caso è un intero \(\displaystyle \ge 2 \). Ne segue che la soluzione non può essere unica perché ad una soluzione particolare sommeresti un intero sottospazio di dimensione almeno due!
Fermo restando quanto ha scritto Delirium, credo che qui ci sia da mettere un punto e a capo, visto che il problema non è l'esercizio in sè ma sembrerebbe essere la teoria...
Il procedimento di Gauss ad ogni passo ti dà matrici palesemente diverse (quindi è formalmente sbagliato "connetterle" come hai fatto con un simbolo di uguaglianza). Ciò che sai, tuttavia, è che le trasformazioni elementari, cioè quelle eseguite durante l'eliminazione, fatte (p.es.) sulle righe di $A$ non modificano il rango (per righe) di $A$; in particolare resta inalterato il sottospazio lineare generato dai vettori riga (la cui dimensione è il rango per righe).
Questo ti permette di triangolarizzare una matrice e cioè ricondurti ad una matrice "semplice" il cui sottospazio generato dalle righe è lo stesso di quello della matrice di partenza.
Il procedimento di Gauss ad ogni passo ti dà matrici palesemente diverse (quindi è formalmente sbagliato "connetterle" come hai fatto con un simbolo di uguaglianza). Ciò che sai, tuttavia, è che le trasformazioni elementari, cioè quelle eseguite durante l'eliminazione, fatte (p.es.) sulle righe di $A$ non modificano il rango (per righe) di $A$; in particolare resta inalterato il sottospazio lineare generato dai vettori riga (la cui dimensione è il rango per righe).
Questo ti permette di triangolarizzare una matrice e cioè ricondurti ad una matrice "semplice" il cui sottospazio generato dalle righe è lo stesso di quello della matrice di partenza.
grazie mille,
\(\displaystyle n - \mbox{rk}A \) sarebbe il numero di variabili libere? è come se avessimo $oo^2$ soluzioni?
\(\displaystyle n - \mbox{rk}A \) sarebbe il numero di variabili libere? è come se avessimo $oo^2$ soluzioni?
Sì, esatto (anche se quella delle soluzioni è una scrittura impropria, ne converrai).
Ho insistito molto perché l'Algebra Lineare mi appare ora più che prima molto più ricca di quanto non sembri in apparenza, e piena di risvolti meravigliosi ed inaspettati. Ed è giusto che anche chi studia ingegneria impari a non strumentalizzare matrici et similia, e guardare un poco più in profondità.
Ho insistito molto perché l'Algebra Lineare mi appare ora più che prima molto più ricca di quanto non sembri in apparenza, e piena di risvolti meravigliosi ed inaspettati. Ed è giusto che anche chi studia ingegneria impari a non strumentalizzare matrici et similia, e guardare un poco più in profondità.
Grazie mille Delirium!