Applicazioni lineari - lemma

zio_mangrovia
Data un'applicazione lineare $A:X->Y$ su uno spazio di dimensione finita ed il seguente lemma:

siano $y_1, y_2, ... , y_k$ vettori linearmente indipendenti in $Y$ e
siano $x_1, x_2, ... , x_k$ vettori $in X$ tali che $A(x_i)=y_i, AAi=1..k$, ossia $x_i in A^(-1)(y_i)$
allora $x_1, x_2, ... , x_k$ sono linearmente indipendenti

non mi torna questa cosa $x_i in A^(-1)(y_i)$ NON DOVREBBE ESSERE $x_i in A^(-1)(Y)$
Se non sbaglio $A^(-1)(y_i)=x_i$ per cui si scrive il simbolo $in$ con a destra un elemento anziché un insieme?

Grazie

Risposte
anto_zoolander
Se $A$ è una matrice allora con quelle ipotesi non puoi concludere nulla.
Di fatto non sai se $A$ si possa invertire. Pertanto la scrittura $A^(-1)$ perderebbe di senso.

Se $A$ è semplicemente un operatore lineare tra gli spazi $X,Y$ allora possiamo parlarne.
Per comodità prendo $f=A$

1) la scrittura $x_i in f^(-1)(y_i)$ secondo me è un po’ un abuso di linguaggio della più formale $x_i inf^(<-)({y_i})$ ovvero che $x_i$ appartiene alla fibra dell’insieme ${y_i}$.
Tale fibra è ${x in X: f(x) in{y_i}}={x in X:f(x)=y_i}$ poiché quell’insieme contiene solo $y_i$.
Quindi quella scrittura ti dice solamente che $x_i$ appartiene a tale insieme.

2) Un’altra nota. Per come sono scritte le ipotesi possono sorgere alcuni dubbi.
Prima di ti dice che $y_1,...,y_k$ sono vettori indipendenti di $Y$ e poi che appartengono all’immagine.
Per renderla più pulita la direi così:

siano $X,Y$ due spazi vettoriali di dimensione finita e sia $f:X->Y$ un operatore lineare e $x_1,...,x_k inX$ vettori di $X$, allora: $f(x_1),...,f(x_k)$ indipendenti $=>$ $x_1,...,x_k$ indipendenti.

Puoi notare subito che le due asserzioni sono equivalenti e che così a mio avviso è molto più concisa.
Il motivo di vederla così è dato dal fatto che puoi dimostrare facilmente la proposizione per contronominale.

Ovvero che se $x_1,...,x_k$ sono dipendenti allora $f(x_1),...,f(x_k)$ sono dipendenti.

Si fatto se $x_1,...,x_k$ sono dipendenti allora esistono $a_1,...,a_k$ scalari non nulli tali che $sum_(j=1)^(k)a_jx_j=0$
Dunque ovviamente si ha $0=f(0)=f(sum_(j=1)^(k)a_jx_j)=sum_(j=1)^(k)a_jf(x_j)$

Ovvero $a_1f(x_1)+...+a_kf(x_k)=0$ con scalari non tutti nulli, pertanto sono dipendenti.

Una piccola osservazione.
Abbiamo mostrato quindi che $f(x_1),...,f(x_k)$ indipendenti implica $x_1,...,x_k$ indipendenti.
Però c’è una conseguenza che deriva proprio da $k$
Supponiamo che $dimX=n$ e $dimY=m$

Se quei vettori sono indipendenti allora significa che $kleqm$ ma anche $x_1,...,x_k$ lo sono dunque si ha $kleqn$.
Ovvero $kleqmin{m,n}$

Dunque è bene ricordarsi che se vale quella proposizione allora deve essere necessariamente $kleq min{n,m}$.

Spero di esserti stato d’aiuto :-D

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.