Applicare l'eliminazione di Gauss per determinare se.....

smaug1
Applicare l'eliminazione di Gauss per determinare se il seguente sistema ammette o meno un'unica soluzione:

$\{(3x_2 - 4x_3 + x_4 = 1),(x_1 - x_2 - x_3 + x_4 = 0),(2x_1 - 2x_2 - 2x_3 + 2x_4 = 0),(x_1 - x_2 + 4x_3 - x_4 = 1):}$

Ovviamente la terza riga si può eliminare. Comunque io so solamente che un sistema quadrato
ammette un'unica soluzione se e solo se la sua matrice dei coefficienti è non singolare, cioè se i suoi pivots sono non nulli. Vale lo stesso per matrici rettangolari?

Grazie

Risposte
Sk_Anonymous
Il sistema lineare \(\displaystyle \Sigma: Ax=b \), con \(\displaystyle A \) matrice \(\displaystyle m \times n \) a coefficienti nel campo \(\displaystyle C \) e \(\displaystyle b \in C^{m} \), ha soluzione se, e solo se, \(\displaystyle \mbox{rk}(A|b)=\mbox{rk}A \). In tal caso l'insieme \(\displaystyle \mbox{Sol}(A|b) \) delle sue soluzioni si ottiene sommando a una soluzione particolare del sistema, \(\displaystyle x_{0} \), una soluzione del sistema omogeneo associato \(\displaystyle \Sigma \;' : Ax=0 \). Le soluzioni di \(\displaystyle \Sigma \; ' \) formano uno spazio vettoriale di dimensione \(\displaystyle n- \mbox{rk}A \).

Trai le adeguate conclusioni.

Seneca1
"smaug":
Applicare l'eliminazione di Gauss per determinare se il seguente sistema ammette o meno un'unica soluzione


Tra l'altro questo procedimento è alla base della dimostrazione che ho studiato del risultato citato da Delirium. Infatti, procedendo con l'eliminazione di Gauss, se si pervenisse ad una situazione del tipo $rank( A ) < rank( A|b)$, si troverebbe un'identità falsa, poiché l'ultima riga di $(A|b)$ sarebbe una cosa del tipo $ 0 0 ... 0 0 0 | c != 0$; da cui ovviamente si deduce che il sistema non ha soluzioni.

Quinzio
"Delirium":
Il sistema lineare \(\displaystyle \Sigma: Ax=b \), con \(\displaystyle A \) matrice \(\displaystyle m \times n \) a coefficienti nel campo \(\displaystyle C \) e \(\displaystyle b \in C^{m} \), ha soluzione se, e solo se, \(\displaystyle \mbox{rk}(A|b)=\mbox{rk}A \). In tal caso l'insieme \(\displaystyle \mbox{Sol}(A|b) \) delle sue soluzioni si ottiene sommando a una soluzione particolare del sistema, \(\displaystyle x_{0} \), una soluzione del sistema omogeneo associato \(\displaystyle \Sigma \;' : Ax=0 \). Le soluzioni di \(\displaystyle \Sigma \; ' \) formano uno spazio vettoriale di dimensione \(\displaystyle n- \mbox{rk}A \).

Trai le adeguate conclusioni.


Scusami sai... faccio una piccola correzione solo per non creare inutili confusioni in chi legge: (sperando di non dire una fesseria)

In tal caso l'insieme \(\displaystyle \mbox{Sol}(A|b) \) delle sue soluzioni si ottiene sommando a una soluzione particolare del sistema, \(\displaystyle x_{0} \), l'insieme delle soluzioni del sistema omogeneo associato \(\displaystyle \Sigma \;' : Ax=0 \).

Sk_Anonymous
E perché mai questa correzione? Non vedo dove sia il problema. In base alla dimensione dello spazio delle soluzioni del sistema omogeneo, una soluzione è una n-upla ordinata di vettori linearmente indipendenti che ne verifica le equazioni. E basta quella per generare tutto lo spazio, a cui poi è sufficiente sommare una soluzione particolare \(\displaystyle x_{0} \).

Tra l'altro questa non è farina del mio sacco quanto del sacco del mio professore di Algebra lineare (e del suo libro).

Seneca1
Beh, ma è chiaro che alla soluzione particolare si va a sommare una soluzione generica del sistema omogeneo associato (quindi, in fin dei conti, si ottiene che le soluzioni sono un sottospazio affine del tipo $x_0 + Sol(A)$ (notazione)).

Stessa cosa.

smaug1
Quindi posso scrivere:

$((0,3,-4,1,1),(1,-1,-1,1,0),(1,-1,4,-1,1)) = ((1,-1,-1,1,0),(1,-1,4,-1,1),(0,3,-4,1,1)) = ((1,-1,-1,1,0),(0,0,5,-2,1),(0,3,-4,1,1)) $

avrei gia un pivot nullo? ragazzi con la matrici non quadrate vado gia in confusione :cry:

Sk_Anonymous
Hai letto quello che ho scritto? Qual è il rango di quella matrice?
Lascia perdere per un attimo i pivot.

smaug1
"Delirium":
Hai letto quello che ho scritto? Qual è il rango di quella matrice?
Lascia perdere per un attimo i pivot.


Ma il rango di una matrice non è il numero di pivots? Comunque non sono sicuro di aver capito i vostri suggerimenti...

Sk_Anonymous
Va bene, ma è sempre meglio pensarla in termini di applicazioni lineari. Il rango di una matrice è il numero di colonne o righe linearmente indipendenti; quella matrice ha tre righe, quindi al massimo può avere rango 3.
Questo ti basta per concludere.

smaug1
La matrice (A|b) ha sempre rango 3 perchè sono tre le righe linearmente indipendenti?

Sk_Anonymous
In una matrice il numero di colonne linearmente indipendenti è sempre uguale al numero di righe linearmente indipendenti ( - e mi pare che sul Lang ci sia una dimostrazione di questo fatto). Ora, la tua matrice ha tre righe, quindi il suo rango sarà al massimo tre. Più sopra ho anche detto che le soluzioni del sistema omogeneo associato formano uno spazio vettoriale di dimensione \(\displaystyle n - \mbox{rk}A \), che nel nostro caso è un intero \(\displaystyle \ge 2 \). Ne segue che la soluzione non può essere unica perché ad una soluzione particolare sommeresti un intero sottospazio di dimensione almeno due!

Seneca1
Fermo restando quanto ha scritto Delirium, credo che qui ci sia da mettere un punto e a capo, visto che il problema non è l'esercizio in sè ma sembrerebbe essere la teoria...

Il procedimento di Gauss ad ogni passo ti dà matrici palesemente diverse (quindi è formalmente sbagliato "connetterle" come hai fatto con un simbolo di uguaglianza). Ciò che sai, tuttavia, è che le trasformazioni elementari, cioè quelle eseguite durante l'eliminazione, fatte (p.es.) sulle righe di $A$ non modificano il rango (per righe) di $A$; in particolare resta inalterato il sottospazio lineare generato dai vettori riga (la cui dimensione è il rango per righe).

Questo ti permette di triangolarizzare una matrice e cioè ricondurti ad una matrice "semplice" il cui sottospazio generato dalle righe è lo stesso di quello della matrice di partenza.

smaug1
grazie mille,

\(\displaystyle n - \mbox{rk}A \) sarebbe il numero di variabili libere? è come se avessimo $oo^2$ soluzioni?

Sk_Anonymous
Sì, esatto (anche se quella delle soluzioni è una scrittura impropria, ne converrai).

Ho insistito molto perché l'Algebra Lineare mi appare ora più che prima molto più ricca di quanto non sembri in apparenza, e piena di risvolti meravigliosi ed inaspettati. Ed è giusto che anche chi studia ingegneria impari a non strumentalizzare matrici et similia, e guardare un poco più in profondità.

smaug1
Grazie mille Delirium!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.