Questione sulla dipendenza lineare?
Data la matrice 5x5 $ ( ( 1 , 2 ,3, 4, 5 ),(0 , 7 , 8 , 9 ,10 ),( 0 ,0 ,0 , 20 , 21 ),( 0 , 0 , 0 , 17 , 77 ),( 0 , 0 , 0 , 22 , 23 ) ) $
,valutiamo adesso l'elemento in posizione A(3,3), vedendo che dalla terza riga in poi nella colonna 3 ci sono tutti elementi nulli ,cioè al di sotto dell'elemento considerato vi sono tutti elementi nulli,io posso dire che 2 righe sono linearmente dipendenti perchè?? pleasse help me, ovvero che la matrice è singolare.
,valutiamo adesso l'elemento in posizione A(3,3), vedendo che dalla terza riga in poi nella colonna 3 ci sono tutti elementi nulli ,cioè al di sotto dell'elemento considerato vi sono tutti elementi nulli,io posso dire che 2 righe sono linearmente dipendenti perchè?? pleasse help me, ovvero che la matrice è singolare.
Risposte
specifico meglio posso dire che le ultime 3 righe sono linearmente dipendenti, ovvero il rango della matrice è 4, e io posso esprimere una delle ultime 3 righe in funzione delle altre 2. Questo l'ho verificato risolvendo un sistema lineare. Adesso vorrei solo capire ,in base a cosa io posso dire guardando gli zeri sotto il terzo elemento della terza riga(terzo elemento incluso ) che se questi 3 elementi sono 3 zeri , allora le ultime 3 righe sono linearmente dipendenti??
no tutte e tre no,basta che fai un passaggio dell'eliminazione di gauss per vederlo
mi puoi spiegare meglio per piacere!!
allora intanto ti consiglio non guardare le righe,ma le colonne non sò a me torna meglio.. detto ciò la matrice ha rango 4 calcoli alla mano quindi non può avere 3 righe dipendenti ciò ammetterebbe rango 2,che se ci pensi è impossibile basta che prendi le prime due colonne e una delle ultime due e vedi immediatamente che ha almeno rango 3,ti ricordo che il rango è il numero di vettori linearmente indipendenti detto ciò se vuoi calcolarti il rango in questi casi(senza parametro) usi l'eliminazione di gauss e cerchi di ricondurti alla forma triangolare superiore e attraverso l'eliminazione di gauss capisci quali e quanti vettori sono lin ind. ciao!
mmm praticamente io pongo questa domanda perchè in un metodo numerico basato sulla strategia del pivoting parziale per la triangolarizzazione di gauss, quando va a determianre il moltiplicatore , cerca prima il pivot massimo al di sotto dell'elemento considerato come ho detto sopra nel mio caso il massimo elemento sotto il numero 8, se il massimo pivot ottenibile è 0 per la terza riga e siamo al passo k=3 , allora il prof dice che le restanti n-k righe sono linearmente dipendenti e quindi la matrice dei coefficienti è singolare. Nel nostro caso n=5 e k=3, quindi ci sono 2 righe linearmente dipendenti e la matrice dei coefficienti è singolare. questo il prof lo deduce dalla matrice senza effettuare alcuna riduzione ma bensì mentre sta applicando l'algoritmo di gauss per effettuare la riduzione.. in base a cosa lo fa??
"fuce93":
no tutte e tre no,basta che fai un passaggio dell'eliminazione di gauss per vederlo
E invece è proprio così: le ultime tre righe sono linearmente dipendenti.
non guardare le righe ma le colonneQuestione di convenienza. Qui è più conveniente guardare le righe.
Guardate ragazzi è molto semplice. La sottomatrice
\[\begin{bmatrix} 20 &21 \\ 17 & 77 \\ 22 & 23 \end{bmatrix}\]
ha 3 righe e 2 colonne, quindi ha le righe linearmente dipendenti. Siccome le ultime tre righe della matrice madre sono ottenute da questa semplicemente aggiungendo zeri, queste tre righe sono linearmente dipendenti.
Sono colpi d'occhio che si acquisiscono con la pratica.
io quando dico 3 colonne linearmente dipendenti in una matrice di ordine 3 intendo rango 0 quindi quando dicevi 3 righe linearmente dipendenti io penso a 3 righe multiple ognuna dell'altra cioè appunto una matrice di rango 1,ho abusato del termine ma io intendo dipendente un vettore che non vale niente che non aggiunge informazioni in questo caso sarai d'accordo ce n'è uno solo come dicevo prima,ho capito cosa dici in effetti hai ragione cmq in genere preferisco fare guardare le colonne semplicemente perchè mi viene più intuitivo pensare a vettori piani e penso se un vettore ha una componente che gli altri vettori non hanno ok è linearmente indipendente
Non si capisce niente di quanto hai scritto. Rileggi mettendoti nei nostri panni e te ne renderai conto.
allora dissonance 2 cose , la matrice ha tre righe e 2 colonne e non il contrario, vabè penso sia un errore, inoltre quello che volevo dire io e che comunque il tuo ragionamento è esatto ma da un punto di vista del metodo, egli non sà cosa c'è dopo quindi penso che esso dica che la matrice è singolare semplicemente perchè il pivot della terza riga è nullo e poichè una matrice non singolare non ha pivot nulli, allora la matrice è singolare io l'unica cosa che non capisco ,e che il fatto delle n-k righe linearmente dipendenti il prof lo dice senza nessuna matrice di riferimento. questa l'ho messa io per fare l'esempio. Inoltre devono essere 2 le linearmente dipendenti e non 3, ma mi chiedo anche com'è possibile questo se il rango della matrice è 4 ed esso indica il massimo numero di righe linearmente indipendenti?? grazie in anticipo..
2 righe perchè essendo k=3 e n=5, il prof dice n-k righe linearmente dipendenti , quindi 5-3=2..
2 righe perchè essendo k=3 e n=5, il prof dice n-k righe linearmente dipendenti , quindi 5-3=2..
Anche qua non è che si capisca tanto. Io consiglio di curare di più il linguaggio e anche l'italiano vero e proprio: grammatica, ortografia e uso della punteggiatura.
Ok sul numero di righe e colonne, una svista. Tutto il resto del post è per me incomprensibile. Io penso che il professore si sia accorto che le ultime tre righe sono linearmente dipendenti e che quindi abbia concluso "ad occhio" che la matrice è singolare, usando il seguente teorema.
Teorema Se uno spazio vettoriale \(V\) ha dimensione \(n\) ogni insieme di \(n+1\) o più vettori di \(V\) è linearmente dipendente.
Le ultime tre righe di questa matrice appartengono a \(\mathbb{R}^5\), uno spazio vettoriale di dimensione 5. Ma in realtà le loro prime tre entrate sono zeri, quindi possono essere considerate vettori di uno spazio di dimensione \(2\), e di conseguenza sono linearmente dipendenti. Questo è tutto.
Ok sul numero di righe e colonne, una svista. Tutto il resto del post è per me incomprensibile. Io penso che il professore si sia accorto che le ultime tre righe sono linearmente dipendenti e che quindi abbia concluso "ad occhio" che la matrice è singolare, usando il seguente teorema.
Teorema Se uno spazio vettoriale \(V\) ha dimensione \(n\) ogni insieme di \(n+1\) o più vettori di \(V\) è linearmente dipendente.
Le ultime tre righe di questa matrice appartengono a \(\mathbb{R}^5\), uno spazio vettoriale di dimensione 5. Ma in realtà le loro prime tre entrate sono zeri, quindi possono essere considerate vettori di uno spazio di dimensione \(2\), e di conseguenza sono linearmente dipendenti. Questo è tutto.
Ti chiedo scusa e mi spiego meglio. Allora la matrice che ho inserito nel primo post l'ho inventata io , per spigare quello che volevo sapere. Il mio prof. mentre spiega l'algoritmo di Gauss, con strategia del pivoting parziale, dice che se al passo k dell'alogritmo, effettuiamo il pivoting parziale e il pivot è uguale a 0 , allora la matrice è singolare e le restanti n-k righe sono linearmente dipendenti. Facendo questa affermazione il mio prof. non utilizza nessuna matrice di esempio , ma lo dice semplicemente spiegando l'algoritmo . Io vorrei sapere in base a cosa lui fa questa affermazione? E ho usato un esempio per capire. Ora mi potresti aiutare senza quell'esempio a dire in base a cosa lui dice che le n-k righe sono linearmente dipendenti?
PS senza riferirci alla matrice del primo post!!
Ti ringrazio in anticipo, e spero che si capisca!!
PS senza riferirci alla matrice del primo post!!
Ti ringrazio in anticipo, e spero che si capisca!!
"dissonance":
Io consiglio di curare di più il linguaggio e anche l'italiano vero e proprio: grammatica, ortografia e uso della punteggiatura.


@Pasqualinux: Si, certo, ho capito. Il concetto è lo stesso della matrice di esempio. Se il \(k\)-esimo pivot è nullo allora tutte le \(n-k\) righe successive avranno le prime \(k\) entrate nulle e quindi apparterranno ad uno spazio vettoriale di dimensione al più pari a \(n-k-1\). Quindi dovranno per forza essere linearmente dipendenti.
Scusami dissonance se ti rompo , ma non mi è chiara una cosa, perpiacere aiutami!!
Questa è la cosa che non mi è chiara:
Il fatto che le prime k entrate saranno nulle mi è chiaro . Ma non capisco perchè se queste entrate sono nulle lo spazio ha quella dimensione . E di conseguenza non capisco perchè sono linearmente dipendenti!! Per piacere aiutami.. L'algebra lineare è un concetto abbastanza nuovo per me . Non voglio dire che sono un somaro, le nozioni le conosco, mi mancano dei dettagli!! Ti ringrazio in anticipo!!
Questa è la cosa che non mi è chiara:
"dissonance":
le \(n-k\) righe successive avranno le prime \(k\) entrate nulle e quindi apparterranno ad uno spazio vettoriale di dimensione al più pari a \(n-k-1\). Quindi dovranno per forza essere linearmente dipendenti.
Il fatto che le prime k entrate saranno nulle mi è chiaro . Ma non capisco perchè se queste entrate sono nulle lo spazio ha quella dimensione . E di conseguenza non capisco perchè sono linearmente dipendenti!! Per piacere aiutami.. L'algebra lineare è un concetto abbastanza nuovo per me . Non voglio dire che sono un somaro, le nozioni le conosco, mi mancano dei dettagli!! Ti ringrazio in anticipo!!
Formalmente perché il sottospazio
\[\{ (x_1\ldots x_k, 0 \ldots 0)\ :\ x_{1}\ldots x_k \in \mathbb{R}\}\]
ha dimensione \(k\). Questo è facile da dimostrare, basta rendersi conto che \((1, 0 \ldots 0), \ldots (0, \ldots, 1, 0, \ldots0)\) ne è una base. Essenzialmente questo è lo spazio \(\mathbb{R}^k\): le componenti aggiuntive sono vuote.
Ora le ultime \(n-k\) righe della nostra matrice appartengono al sottospazio
\[\{ (0\ldots 0, x_{k+1} \ldots x_n)\ :\ x_{k+1}\ldots x_n \in \mathbb{R}\}, \]
che, analogamente a quanto appena visto, ha dimensione \(n-k-1\). Perciò scatta il teorema di qualche post fa.
\[\{ (x_1\ldots x_k, 0 \ldots 0)\ :\ x_{1}\ldots x_k \in \mathbb{R}\}\]
ha dimensione \(k\). Questo è facile da dimostrare, basta rendersi conto che \((1, 0 \ldots 0), \ldots (0, \ldots, 1, 0, \ldots0)\) ne è una base. Essenzialmente questo è lo spazio \(\mathbb{R}^k\): le componenti aggiuntive sono vuote.
Ora le ultime \(n-k\) righe della nostra matrice appartengono al sottospazio
\[\{ (0\ldots 0, x_{k+1} \ldots x_n)\ :\ x_{k+1}\ldots x_n \in \mathbb{R}\}, \]
che, analogamente a quanto appena visto, ha dimensione \(n-k-1\). Perciò scatta il teorema di qualche post fa.
"dissonance":
Formalmente perché il sottospazio
\[\{ (x_1\ldots x_k, 0 \ldots 0)\ :\ x_{1}\ldots x_k \in \mathbb{R}\}\]
ha dimensione \(k\). Questo è facile da dimostrare, basta rendersi conto che \((1, 0 \ldots 0), \ldots (0, \ldots, 1, 0, \ldots0)\) ne è una base. Essenzialmente questo è lo spazio \(\mathbb{R}^k\): le componenti aggiuntive sono vuote.
Ora le ultime \(n-k\) righe della nostra matrice appartengono al sottospazio
\[\{ (0\ldots 0, x_{k+1} \ldots x_n)\ :\ x_{k+1}\ldots x_n \in \mathbb{R}\}, \]
che, analogamente a quanto appena visto, ha dimensione \(n-k-1\). Perciò scatta il teorema di qualche post fa.
Non dovrebbe essere n-k la dimensione del sottospazio ? Inoltre a tale sottospazio apparterrebbe anche la riga k-sima e non solo le ultime n-k. Quindi sarebbero n-k+1, le righe che appartengono al sottospazio \[\{ (0\ldots 0, x_{k+1} \ldots x_n)\ :\ x_{k+1}\ldots x_n \in \mathbb{R}\}, \]. Dopo di chè possiamo applicare il teorema che hai postato! Giusto ??
Tu dici che ho sbagliato a contare? Si, può essere benissimo, figurati. Comunque in tutti e due i casi il concetto è quello: c'è una riga in più della dimensione del sottospazio, e quindi per forza sono linearmente dipendenti.
No ma figurati , che cosa conta l'errore di calcolo, l'importante è il succo delle cose!! Io ho solo chiesto per essere sicuro di non dire sciocchezze in sede di esame! Anzi ti ringrazio moltissimo per avermi spiegato la cosa !!
"dissonance":
Tu dici che ho sbagliato a contare? Si, può essere benissimo, figurati. Comunque in tutti e due i casi il concetto è quello: c'è una riga in più della dimensione del sottospazio, e quindi per forza sono linearmente dipendenti.
Sono d'accordo , e il discorso quadra perfettamente , solo che il prof. dice che ci sono n-k righe linearmente dipendenti , invece in base al nostro ragionamento anche la riga k-sima lo è, quindi dovrebbero essere n-k+1 le righe linearmente dipendenti . Che significa dire che soltanto le ultime n-k sono linearmente dipendenti? In base al nostro ragionamento lo è solo una!
Teorema Se uno spazio vettoriale V ha dimensione n ogni insieme di n+1 o più vettori di V è linearmente dipendente.
Nel nostro caso il sottospazio ha dimensione n-k, quindi l'insieme n-k+1 è linearmente dipendente , ma per il prof solo le n-k righe sono linearmente dipendenti !! cosa sbaglio??
A me sembra giusto: nel tuo esempio il \(k=3\)-esimo pivot è nullo e le ultime \(3\) righe sono l.d.; siccome \(n=5\) abbiamo quindi \(3=5-3+1=n-k+1\) righe linearmente dipendenti.