Algebra lineare for dummies

Sk_Anonymous
"Sergio":
(omissis)
Tralascio questa matrice e mi rimane il vettore colonna dei coefficienti della combinazione lineare, quindi:
$(T(b_1)" "T(b_2)" "..." T(b_j) "..." "T(b_n))=((a_{11},a_{12},...,a_{1j},...,a_{1m}),(a_{21},a_{22},...,a_{2j},...,a_{2m}),(...,...,...,...,...,...),(a_{m1},a_{m2},...,a_{mj},...,a_{nm}))$
Ecco la nosta matrice!
Ma quel "tralasciare" ha un prezzo
(omissis)


Secondo me l'ultima colonna di quella matrice è sbagliata. Dovrebbe essere:

$((a_{11},a_{12},...,a_{1j},...,a_{1n}),(a_{21},a_{22},...,a_{2j},...,a_{2n}),(...,...,...,...,...,...),(a_{m1},a_{m2},...,a_{mj},...,a_{mn}))$

Infatti la matrice associata ha $n$ colonne: la dimensione del dominio ($V$) (come indicato nella definizione a inizio post). Comunque ti ringrazio molto per queste ottime (almeno per me) spiegazioni: mi hanno chiarito le idee su molte cose. In particolare sul perchè la matrice associata ha quella forma, cosa che il mio testo non spiega minimamente.

Risposte
hamming_burst
Segnalo alcuni errori :-)

"Indipendenza lineare e basi":

Che vuol dire? Immaginiamo che $k_1$ sia diverso da $0$ e che si abbia:
$k_1v_1+k_2v_2+...+k_nv_n=0_v$
Essendo (errore manca 1 a pedice) $k_1 != 0$ posso dividere per $k$ ottenendo:
$v_1=-(k_2)/(k_1)v_2-(k_3)/(k_1)v_3...-(k_n)/(k_1)v_n$
cioè potrei esprimere $v_1$ come combinazione lineare degli altri. In questo senso $v_1$ viene detto linearmente dipendente dagli altri: non aggiunge nulla, è "solo" una combinazione lineare di altri vettori (quindi non serve come generatore: se gli altri generano $v_1$, possono generare tranquillamente qualsiasi altro vettore nella cui generazione $v_1$ intervenga; lo possono sostituire).
Se invece posso ottenere (mancano puntini) $k_1v_1+k_2v_2+...+k_nv_n=0_v$ solo con scalari tutti nulli, non posso dividere per nessuno e quindi non posso esprimere nessuno dei vettori come combinazione lineare degli altri; in questo senso ciascun vettore è linearmente indipendente dagli altri (che non lo possono sostituire nella generazione di altri vettori; è un generatore necessario).



"Nucleo e immagine di un'applicazione lineare (1)":
Assumiamo ora che il nucleo abbia dimensione 0, cioè che contenga il solo vettore nullo, e prendiamo due vettori qualsiasi di $V$, $v_1$ e $v_2$, tali che $T(v_1)=T(v_2)$ (se pensiamo che l'applicazone non è iniettiva, dobbiamo poterli trovare).


secondo me dovrebbe essere "se pensiamo che l'applicazione è iniettiva", dipende se ci si riferisce all'immagine dei vettori o ai vettori qualsiasi.

"Matrici associate ad applicazioni lineari":
Ma quel "tralasciare" ha un prezzo: per ottenere davvero l'immagine di $w$, devo moltiplicare quello che ottengo per la matrice degli elementi di $C$; questo vuol dire che $Ax$ non mi dà un elemento di $W$, ma solo le sue coordinate rispetto alla base $C$!.


dovrebbe essere "l'immagine di $v$", se no non ha molto senso a mio avviso.


"Nucleo e immagine di un'applicazione lineare (2)":
Soluzioni:
a) si può ridurre la matrice $A$ per colonne: meglio evitare perché, essendo abituati a ridurre per righe, si rischiano errori tanto banali quanto probabili;
b) si riduce la matrice per righe e poi si possono prendere le colonne di $A$ corrispondenti ai pivot della matrice ridotta; da ricordare che non si possono prendere le colonne della ridotta;
c) si traspone la matrice (facile) e si riduce per righe la trasposta; in questo caso, si possono prendere tranquillamente le righe non nulle della ridotta che, rimesse in colonna, costituiscono le coordinate degli elementi di una base dell'immagine anche se non sono uguali alle colonne di $A$.


"Teorema della nullità e del rango":
1) una volta trovato il rango $r$ della matrice, la dimensione del nucleo dell'applicazione è $n-r$;
2) se una matrice ha rango pieno, cioè rango uguale al numero delle colonne (ancora: se le sue colonne sono linearmente indipendenti), allora ha nullità $0$, quindi l'applicazione è iniettiva;
3) quando dominio e codominio hanno la stessa dimensione, dunque quando la matrice associata è quadrata, se questa ha rango pieno allora è invertibile, quindi è tale anche l'applicazione (esiste l'applicazione inversa). E' infatti anche suriettiva, perché la dimensione dell'immagine è uguale a quella del codominio.


"Matrici simili (primi cenni)":
Consideriamo un caso semplice: ho un'applicazione $T:RR^3 to RR^3$ con base $B$ sia per il dominio che per il codominio e cerco la relativa matrice associata. Conosco però la matrice associata rispetto alla basa canonica, magari perché l'applicazione viene definita in quella che altrove ho chiamato "forma generale".
Ad esempio, se l'applicazione è definita così: $T((x),(y),(z))=((x+y-z),(y+z),(2x))$,


formule dove manca un dollaro, perciò si vedono scritte incomprensibili:

"Autovalori/vettori/spazi: le definizioni ed il loro senso":
Autovalori, autovettori, autospazi: dato un operatore lineare $T:V to V$, un vettore non nullo $v$ di $V$ viene detto autovettore per $T$ se esiste uno scalare $lambda$ tale che:
$T(v)=lambda v$
$lambda$ viene detto
autovalore relativo a $v$. Si dice inoltre autospazio relativo a $lambda$ il sottospazio;
$V_(lambda)=\{v in V" : "T(v)=lambda v\}$
(manca un dollaro alla fine)


"Autovalori e polinomi caratteristici":
$" "="det"(A-lambda I_n)$ (manca un dollaro alla fine)
Lo sviluppo sulla prima riga si basa sul fatto che la matrice identità è simile a se stessa: $N^(-1)I_nN=N^(-1)N=I_n$.
Lo sviluppo sulla seconda si basa sul fatto che il determinante del prodotto di due o più matrici è uguale al prodotto dei relativi determinanti.
La conclusione di basa sul fatto che il determinante di una matrice e quello della sua inversa sono l'uno il reciproco dell'altro, quindi $"det"(N^{-1})"det"(N)=1$. (manca un " alla fine di det)


Controllate, ho segnalato possibili errori. :-)

Sk_Anonymous
Io pensavo fossi sparito :D
Comunque grazie a te per le spiegazioni, mi hanno permesso di capire molti concetti poco chiari e superare l'esame con il massimo dei voti (te lo dico perché penso ti faccia piacere, non per vantarmi, anche perché avrei poco di cui vantarmi con una persona che esami di geometria ne avrà dati decine più di me ;) ). Come dici tu (posso darti del tu vero?), è vero che molte semplificazioni alla fine rendono la materia ancora più incomprensibile ;)

Comunque, dopo le opere di restauro del forum, i link del primo post non funzionano più :D

hamming_burst
"Sergio":
Questa non l'ho capita. Se pensiamo che l'applicazione non è iniettiva, allora posso trovare due vettori qualsiasi (cioè anche distinti) che abbiano la stessa immagine, altrimenti no.

hai ragione, ho capito male io quando lessi quella frase. :-)


Per il resto, ho corretto le sviste segnalate da te e da raffamaiden. Grazie!

grazie a te per queste dispense :-)

emaz92
sento il dovere di ringraziare per queste dispense.....sul mio libro certe cose non sono chiare ma grazie a queste diventano limpide

hamming_burst
fantastico Sergio, ottima idea l'esportazione in PDF :-)

Solo un consiglio: metti un qualche tipo di licenza sul tuo lavoro.
Una volta mi scrivesti: "tutta la libertà che vuoi", ma al giorno d'oggi esistono Licenze fatte apposta per queste belle iniziative, ed esiste anche chi ne approfitta su prodotti non-licenziati; perciò meglio prevenire, secondo me.

Comunque, fai come meglio tu ritenga giusto :smt006

fab_mar9093
"Sergio":
Che dire... certi messaggi fanno proprio piacere.
Tanto che ho deciso di ascoltare quelli che chiedevano una versione su un unico file di queste quattro chiacchiere.
Sta quindi per venire alla luce AlgebraLineareForDummies.pdf. Manca poco...

EDIT: Fatto. Il file è qui:
http://web.mclink.it/MC1166/Matematica/ ... ummies.pdf


Urrà! anche per me sono state utilissime le tue parole, più di ogni altro testo.
Trovo questo modo di esporre molto efficace, chiaro e che stimoli a pensare;
se fosse adottato in un corso si potrebbe fare molto di più negli stessi tempi.

vict85
"Sergio":
Guarda, ho preparato il pdf perché mi era stato chiesto, ma per il resto la "vera" algebra lineare for dummies è quella che si legge nel forum e... "appartiene" al forum.
Vale quindi la regola 3.12: «I contenuti dei messaggi si intendono non protetti da copyright».


Io penso che in tal caso andrebbe segnalato che la versione originale è sul forum con il link alla pagina sul forum.

wmatte
Premetto ringraziando tutti per questa introduzione breve ma assolutamente chiara e illuminante sull'argomento: sono uno studente universitario di Reggio Emilia, e senza questo articolo non saprei come prepare l'esame di Algebra Lineare.

Inolte volevo farvi notare un errore (almeno mi pare!) di calcolo nella parte dove si introducono le Basi: (4,8)=2(2,0)+4(0,1), non dovrebbe essere 4(0,2)?

Buona giornata a tutti! :)

"Sergio":


Importante! Si dice sempre una base, mai la base, perché le basi uno spazio vettoriale sono infinite.

Esempio 2. Torniamo a $RR^2$, spazio vettoriale rappresentabile come un normale piano cartesiano. I vettori $(1,0)$ e $(0,1)$ ne costituiscono una base, perché, come visto, qualsiasi vettore $(x,y)$ può essere espresso come loro combinazione lineare. Ad esempio:
$(4,8)=4(1,0)+8(0,1)$
Ma non è certo l'unica base: se prendo i vettori $(2,0)$ e $(0,2)$, avrò:
$(4,8)=2(2,0)+4(0,1)$
Cambiano i coefficienti, ma $(4,8)$ è combinazione lineare anche degli elementi della nuova base. E così via: possono essere basi $(12,0)$ e $(0,-3)$, $(\pi,0)$ e $(0,e)$ ecc. Non solo: se due vettori $v_1,v_2$ costituiscono una base, cambiando il loro ordine si ottiene una base diversa (ricordiamolo: una base è un insieme ordinato di vettori).

Perché mai i vettori che sono elementi di una base devono essere linearmente indipendenti? Per capirlo, si deve introdurre un'altra definizione.

EDIT: Apportate piccole, ma non trascurabili, correzioni grazie a ham_burst, che ringrazio.

el principe
Devo ringraziarti tantissimo perchè ho capito in modo chiaro e semplice l'algebra lineare che a causa del libro di testo incomprensibile e il professore che non sa spiegare molto bene stava diventando un esame che non riuscivo a superare perchè studiavo e facevo gli esercizi ma non avendo chiaro tutto il quadro della situazione alla fine non riuscivo a collegare le varie cose e soprattutto non sapevo applicarle negli esercizi e quindi molto spesso mi riducevo a copiarli cercando di capirci qualcosa...con questi tuoi appunti invece mi è stato tutto chiaro e sono riuscito a passare l'esame...è un lavoro ben fatto in quanto spiega i concetti in modo elementare e il suo obbiettivo e quello di dare un quadro generale tralasciando dimostrazioni che si trovano sui libri di testo...leggendo il tuo testo è stato come fare una chiaccherata piacevole e non impegnativa ma al tempo stesso chiara e che mi ha fatto capire tutto e credo che sia proprio questo il problema dell'università perchè gli studenti si trovano ad aver a che fare con professori che spiegano con un linguaggio ostico e libri di testo incomprensibili quando invece molte volte prima di spiegare un argomento basterebbe fare una piccola introduzione e spiegare in modo elementare e a grandi linee l'argomento come hai fatto tu in modo impeccabile...complimenti davvero e se farai una cosa del genere con altre materie lo leggerò sicuramente ;)

magda1789
la formula di grassmann è sbagliata.
Saluti

Quinzio
"magda1789":
la formula di grassmann è sbagliata.
Saluti


Perchè sbagliata ? Mi sembra che sia tutto corretto. (O è stato corretto nel frattempo... ?) :?:

FedeComa
Grazie mille!! fantastico questo pdf!! Delucida perfettamente i concetti che nel libro sono spiegati in modo troppo stitico o generalizzato! Bel lavoro! Grandi!

Lehor
grazie mille davvero Sergio e tutti coloro, se ve ne sono, che vi hanno partecipato! Magari esistesse anche un' Analisi Matematica for dummies :D

Fogato
Ho studiato algebra lineare su queste dispense e sono riuscito a passare l'esame finalmente !
Grazie Sergio !

Il mio libro è più che incomprensibile, è criptico ! E da nessuna parte ti dice che le matrici sono coordinate !

vict85
Complimenti, comunque sinceramente non direi che le matrici sono coordinate.

vict85
Certo, intendevo solo dire che è meglio che non lo dica in quel modo di fronte ad un professore. :D Comunque trovo che spesso venga spiegata poco la differenza tra vettore e la sua "immagine" in \(\mathbb{R}^n\) definita dalle coordinate, seppur è evidente che una volta compresa a pieno sia comune semplificare la notazione e procedere come se non ci fosse differenza.

Fogato
Si chiedo scusa per l'espressione "volgare" xD Ho scritto davvero di fretta prima di scappare a studiare con dei miei colleghi per l'esame di sistemi operativi che c'è stato stamattina xP

Cmq sul serio queste dispense sono oro, il libro che ho spiega le stesse cose in linguaggio matematico quindi correttissimo ma all'atto pratico di un esame fanno perdere tempo. Avevo gia dato l'esame una volta studiando sul libro ma non l'avevo passato.

Ho anche rivalutato la materia dell'algebra lineare, da peste nera è diventata acerrimo rivale xD
Dovrò approfondirla quando farò elaborazione di immagini xP

Ariz93
Ciao Sergio volevo chiederti se sull'indipendenza lineare potevi darne anche una delucidazione geometrica ,cioè un vettore è linearmente indipendente rispetto agli altri allora non appartiene allo spazio generato da essi (2 vettori non collimari o tre vettori non complanari). Inoltre volevo porti una domanda :eguagliare una combinazione lineare di vettori a zero per verificarne l'indipendenza lineare ,cosa significa geometricamente parlando?
Ho pensato a ad una risposta ma mi sembra un po' troppo contorta e complicata.

megaempire
Ciao Sergio,
prima di tutto grazie perché grazie a te l'algebra lineare mi sembra un po' più comprensibile, vorrei farti una domanda :
Nel capitolo 2.3 spieghi le matrici associate a delle funzioni lineari, e spieghi che $AX$ sono le coordinate di $w$ rispetto la base dell'insieme di arrivo. Mentre la matrice $X$ rappresenta le coordinate di $v$ rispetto alla base dell'insieme di partenza. Che interpretazione dai alla matrice $A$?

Ariz93
"megaempire":
Ciao Sergio,
prima di tutto grazie perché grazie a te l'algebra lineare mi sembra un po' più comprensibile, vorrei farti una domanda :
Nel capitolo 2.3 spieghi le matrici associate a delle funzioni lineari, e spieghi che $AX$ sono le coordinate di $w$ rispetto la base dell'insieme di arrivo. Mentre la matrice $X$ rappresenta le coordinate di $v$ rispetto alla base dell'insieme di partenza. Che interpretazione dai alla matrice $A$?

Provo a risponderti io( poi dimmi se non hai capito cosa non hai capito) : A è anch'essa un'applicazione lineare che va da $K^n->K^p$( se non capisci questa cosa riguardati come agisce A sulle n-uple e soprattutto cerca di capire il legame tra le dimensioni del campo di partenza e arrivo in relazione con il numero di colonne e righe) detto questo a semplicemente trasforma n-uple in n-uple ( non polinomi in matrici ad esempio) ora se fissi 2 basi come dice Sergio le coordinate sono unichee quindi anche A è univocamente determinata,ora quindi: che fa A? Semplicemente A trasforma delle coordinate in altre coordinate ,vedrai(puoi verificarlo già da ora) che è più semplice lavorare in coordinate cioè in matrici rispetto alle applicazioni lineari(se hai già fatto gli endomorfismi prova a trovarne uno non diagonalizzabile,non surgettivo e che trasfmi un sottospazio dello spazio di partenza in sé stesso senza usare la matrice associata e passare poi all'applicazione, già se va da $RR^4 a RR^4 hai un sistema a 16 equazioni e 16 incognite!), d'altronde le matrici sono delle applicazioni lineare e se trovi una matrice trovi un'applicazione lineare e viceversa , sostanzialmente sono due facce della stessa medaglia.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.