Nucleo e immagine

Uomo Grasso
Ciao a tutti, nel familiarizzarmi con nuclei e immagini mi sono imbattuto nei seguenti esercizi a cui mi piacerebbe deste uno sguardo.

i) Siano \(\displaystyle \mathbf{v},\mathbf{w} \in \mathbb{R}^2 \) linearmente indipendenti e \(\displaystyle L:\mathbb{R}^2\rightarrow\mathbb{R}^n\). Mostrare che o \(\displaystyle L(\mathbf{v}), L(\mathbf{w}) \) sono l.i., o l'immagine di \(\displaystyle L \) ha al più dimensione $1$.

Supponiamo \(\displaystyle L(\mathbf{v}), L(\mathbf{w}) \) l.i.; sappiamo che \(\displaystyle \dim \mathbb{R}^n=n=\dim \Im L+ \dim\ker L \). Possiamo affermare che \(\displaystyle L \), essendo un'applicazione lineare che manda vettori l.i. in vettori l.i. ha nucleo banale (\(\displaystyle \ker L=\mathbf{0} \))? Se sì, si avrebbe \(\displaystyle \dim \Im L=n\in \mathbb{N} \) qualunque.

D'altro canto se le immagini non sono l.i. allora \(\displaystyle \dim\Im L=n-\dim\ker L=2-\dim\ker L < 2 \) poiché \(\displaystyle \dim\ker L\ne 0 \). Quindi si avrebbe la tesi. Non sono sicuro della prima implicazione però!

ii) Sia \(\displaystyle \mathbf{v}\in\mathbb{R^2} \) non nullo e \(\displaystyle L:\mathbb{R}^2\rightarrow W \)t.c. \(\displaystyle F(\mathbf{v})=\mathbf{0} \). Mostrare che o l'immagine di \(\displaystyle L \) è una retta, o coincide con \(\displaystyle \{\mathbf{0}\} \).

Allora, penso di procedere in questo modo: scelgo come base di \(\displaystyle \mathbb{R}^2 \) la coppia \(\displaystyle \{\mathbf{v},\mathbf{w}\} \) un qualunque vettore \(\displaystyle \mathbf{w} \) l.i.
Si ha quindi che il generico vettore di \(\displaystyle \mathbb{R}^2 \) è \(\displaystyle \alpha\mathbf{v}+\beta\mathbf{w} \), e quindi la sua immagine è \(\displaystyle L(\alpha\mathbf{v}+\beta\mathbf{w})=\mathbf{0}+\beta\mathbf{w} \) che è proprio una retta nel caso \(\displaystyle \beta\ne 0 \). Nel caso \(\displaystyle \beta=0 \) invece evidentemente \(\displaystyle \Im L=\{\mathbf{0}\} \).

iii) Sia \(\displaystyle L:V\rightarrow U \) un'applicazione lineare, \(\displaystyle \mathbf{u}\in U \), \(\displaystyle \mathbf{v}_0 \) un elemento di $V$ tale che \(\displaystyle L(\mathbf{v}_0)=\mathbf{u} \). Mostrare che ogni soluzione dell'equazione \(\displaystyle L(\mathbf{x})=\mathbf{u} \) è del tipo \(\displaystyle \mathbf{v}_0+\mathbf{w} \) con \(\displaystyle \mathbf{w}\in\ker L \).

Ok, in realtà l'affermazione mi sembra abbastanza scontata. Per mostrarlo rigorosamente basta osservare che \(\displaystyle L(\mathbf{x})=\mathbf{u}=\mathbf{u}+\mathbf{0}=L(\mathbf{v}_0)+L(\mathbf{w})=L(\mathbf{v}_0+\mathbf{w}) \) e usare la proprietà transitiva dell'uguaglianza per concludere che \(\displaystyle \mathbf{x}=\mathbf{v}_0+\mathbf{w} \)?

Risposte
anto_zoolander
1) in generale la tua affermazione è falsa e ti spiego pure il motivo.

sia $L:V->W$ applicazione lineare con $V,W$ spazi vettoriali sul campo $K$.
se ${v_1,...,v_k}$ è un sistema dipendente di $V$ allora ${L(v_1),...,L(v_k)}$ è un sistema dipendente di $W$


il motivo è semplice, se $L$ è applicazione lineare
Supponiamo che $v_1,...,v_k$ siano linearmente dipendenti, allora $exists lambda_1,...,lambda_k$ non tutti nulli tali che $sum_(n=1)^(k)lambda_nv_n=0_V$ ma allora ricordando che in una applicazione lineare $L(0_V)=0_W$

$0_W=L(0_V)=L(sum_(n=1)^(k)lamda_nv_n)=sum_(n=1)^(k)lambda_nL(v_n)$

quindi sono linearmente dipendenti.

Quanto dici tu vale in ipotesi più restrittive, ovvero in cui $L$ sia un monomorfismo(app. lineare iniettiva).
Di fatto se aggiungo a quanto detto prima l'ipotesi che $Ker(L)= <<0_V>>$ allora prendiamo ${v_1,...,v_k}$ sistema indipendente e mostriamo che ${L(v_1),...,L(v_k)}$ è indipendente anch'esso.

siano $lambda_1,...,lambda_k inK$

$sum_(n=1)^(k)lambda_nL(v_n)=0_V => L(sum_(n=1)^(k)lambda_nv_n)=0_W => sum_(n=1)^(k)lambda_nv_n inKer(L)$

$Ker(L)= <<0_V>> => sum_(n=1)^(k)lambda_nv_n=0_V => lambda_n=0,forall n=1,...,k$


quindi otteniamo la tesi.
Per essere vero quello che dici, le ipotesi possono essere le seguenti:

sia $L:V->W$ applicazione lineare con $dimV=n$
se $existsv_1,...,v_n inV$ indipendenti tali che $L(v_1),...,L(v_n)$ sono indipendenti allora $Ker(L)= <<0_V>>$


in poche parole se esiste una base di $V$ la cui immagine del sistema sia indipendente, allora il nucleo è banale.
La dimostrazione è una semplice conseguenza del fatto che se $L(v_1),...,L(v_n)$ sono indipendenti allora essendo che $<> = Im(L)$ il fatto che siano linearmente indipendenti mi assicura che:

$dim Im(L) =dimV => dimKer(L)=0$


Tornando al punto uno tu non puoi supporre che $L(v),L(w)$ siano linearmente indipendenti, perché quello sta nella tua tesi :-D

sai che $2=dimRR^2=dimKer(L)+dim Im(L)$ e ora puoi spezzare il problema in due punti

- se $dimKer(L)=0$ allora $L(v),L(w)$ sono linearmente indipendenti.
- se $2geqdimKer(L)geq1$ allora abbiamo altri due casi:

$dimKer(L)=1 => dim Im(L)=1$
$dimKer(L)=2 => dim Im(L)=0$

in entrambi i casi possiamo affermare che o l'applicazione è iniettiva, oppure l'immagine ha dimensione al più uno.

2) ti chiede praticamente la stessa cosa di prima, con l'unico accorgimento che il supporre che esista un vettore non nullo appartenente al nucleo ti dice che $2geqdimKer(L)geq1$ quindi l'immagine avrà al più dimensione uno.

3) bisogna mostrare due cose. Supponiamo intanto che dato $u inU, existsv_0 inV: L(v_0)=u$
dobbiamo mostrare che $A={v inV:L(v)=u}$ coincide con $v_0+Ker(L):={v_0+w inV:w inKer(L)}$

chiaramente $forallw inKer(L) => L(v_0+w)=L(v_0)+L(w)=u+0_W=u$ segue che $v_0+w inA$
mentre $forall v inA, L(v)=u$ ma allora $0_W=u-u=L(v)-L(v_0)=L(v-v_0) => v-v_0 in Ker(L)$
quindi $exists w inKer(L):v-v_0=w => v=v_0+w => v inv_0+Ker(L)$

pertanto possiamo concludere che $v_0+Ker(L)=A$

Uomo Grasso
Ciao anto. Va bene, ho capito qual è il problema con il primo punto. Ho supposto vera la tesi ancora prima di cominciare!
Nel secondo, quello che ho scritto è tutto da buttare? A me sembra filare bene o male!
Nel terzo ho capito i tuoi passaggi. Mi rendo conto che invece quello che ho detto io è certamente incompleto, ma si potrebbe sistemare? Essenzialmente sono arrivato a dire che \(\displaystyle L(\mathbf{x})=L(\mathbf{v}_0+\mathbf{w}) \)...

anto_zoolander
Ciao fatman :-D

nel primo non capisco perché dovrebbe essere $L(alphav+betaw)=betaw$ semmai $L(alphav+betaw)=L(betaw)=betaL(w)$ chiaramente $Im(L)= <> = << L(w) >>$ quindi dipende dal fatto che $L(w)$ sia il vettore nullo o meno.

la sua immagine è chiaramente generata da $alphaL(v)+betaL(w)$, ma la dimensione dell'immagine non dipende dal fatto che beta sia o meno uguale a zero, bensì dal fatto che $L(w)$ sia o meno il vettore nullo.
Se mi spieghi perché hai scelto proprio di lavorare sugli scalari e non sui vettori, cerchiamo di dissipare il dubbio.

esatto, nell'ultimo hai solo mostrato una delle due e precisamente hai mostrato che se un vettore è di quel tipo, allora fa parte dell'insieme delle soluzioni di quella equazione, ma ti rimane la domanda opposta a cui rispondere ovvero: ma se $v$ è soluzione, $v$ ha qualche proprietà nota? beh si, quella di essere del tipo $v=v_0+w, w inKer(L)$

Uomo Grasso
Ah, all'inizio non capivo perché parlassi di dimensione dell'immagine. Tu dici quindi che l'immagine è una retta se \(\displaystyle \dim\Im=1 \), mentre è un punto se \(\displaystyle \dim\Im=0 \)? Effettivamente ha senso. Io ho pensato: \(\displaystyle L(\alpha \mathbf{v}+\beta \mathbf{w})=\alpha L(\mathbf{v})+\beta L(\mathbf{w})=\mathbf{0}+\beta\mathbf{w} \), e dal momento che una retta è della forma \(\displaystyle \mathbf{v}_1+t\mathbf{v}_2 \) con \(\displaystyle t\in\mathbb{R} \), segue che se \(\displaystyle \beta\ne 0 \) l'immagine è una retta, altrimenti un punto!

anto_zoolander
Perché si parla di dimensione dell’immagine :-D

Ma perché ti ostini a dire che $L(w)=w$ non lo capisco.

Si ma tu non puoi lavorare sugli scalari per determinate la dimensione di un sottospazio, ma sui vettori.
La dimensione di un sottospazio dipende dai vettori e non dagli scalari
Ricorda che un sottoinsieme di vettori forma una base dello spazio se è un sistema di vettori linearmente indipendente e questo dipende unicamente dai vettori.

Uomo Grasso
Ok, pardon, è un errore mio, intendo dire \(\displaystyle \mathbf{0}+\beta L(\mathbf{w}) \). Comunque il succo non cambia. Il punto è questo: se prendo l'insieme \(\displaystyle \mathbf{v}_1+t\mathbf{v}_2 \) è chiaro che ho una retta al variare del parametro \(\displaystyle t \). Gli unici casi in cui la retta degenera in un punto sono quelli in cui o i vettori sono nulli, o il primo vettore è nullo e $t=0$. L'ultimo caso è quello a ci faccio riferimento; effettivamente potrebbe anche essere \(\displaystyle L(\mathbf{w})=\mathbf{0} \) perché nessuno mi dice che $L$ sia iniettiva. Quindi considerando entrambe queste eventualità dovremmo essere a posto! Anche senza fare menzione della dimensione dell'immagine, ma solo confrontandone la forma con quella della retta generica. Sbaglio?

anto_zoolander
Due cose che dovrebbero scuoterti un po’:

1) si definisce ‘retta vettoriale’ un qualsiasi spazio vettoriale di dimensione uno.

2) l’insieme $U={v_1+tv_2 in V:t inRR}$ NON è uno spazio vettoriale se $v_1,v_2$ sono linearmente indipendenti.

Di fatto $0_V notinU$ poiché se per assurdo $existsw inU:w=0_V => 0_V=w=v_1+tv_2=>v_1=(-t)v_2$
Quindi penso che tu abbia una definizione impropria di 'retta vettoriale'

Quando vedrai gli spazi affini ti renderai conto di molte cose riguardo a questione geometriche più ampie trattate con i vettori.

In genere potresti definire il traslato di uno spazio vettoriale come il seguente insieme.
Dato uno spazio vettoriale $V$ e un sotto spazio vettoriale $WleqV$ si definisce 'traslato di $W$ del vettore $v_0$'

$v_0+W:={u inV: u-v_0 inW}$


Ma in genere questo non è detto che sia un sotto spazio vettoriale di $V$

Uomo Grasso
Non mi sento molto scosso! Più che altro non capisco la ragione del tuo secondo punto, nel mio caso ho uno spazio vettoriale perché i vettori sono sicuramente l.d.. Per quanto riguarda la definizione di retta vettoriale, ci sta, anche se non l'avevo mai sentita. Mi sono abituato a pensarla nei termini che ho usato prima :D

anto_zoolander
scuoterti in senso positivo ovviamente :-D

se non sbaglio sul Lang dovrebbe definire gli spazi vettoriali di dimensione $0$ i punti vettoriali, gli spazi vettoriali di dimensione $1$ le rette vettoriali, gli spazi vettoriali di dimensione $2$ i piani vettoriali e poi da $3$ in poi gli iperpiani vettoriali, se non ricordo male.

Nel secondo mostrare che l'immagine di $L$ sia una retta o il vettore nullo equivale a dire che l'immagine abbia dimensione uno o zero.
Un modo te l'ho mostrato, ora analizziamo passo per passo quello che chiedi tu.

prendiamo una base di $RR^2$, sia essa $B={v,w}$
allora sappiamo che $Im(L)= <>$ no? nel senso che l'immagine dei vettori della base $B$ genera il sotto spazio immagine dell'applicazione lineare.

ora sappiamo per ipotesi che $L(v)=0_V$ quindi possiamo affermare che $<> = <>$
questo poiché

[size=90] $u in <> <=> u=alphaL(v)+betaL(w)=0_V+betaL(w)=betaL(w) <=> u in<>$[/size]

quindi l'immagine dipende esclusivamente dal vettore $L(w)$ e non dallo scalare che lo accompagna.
di fatto se $w in Ker(L) => L(w)=0_W => Im(L)= <<0_W>>$
invece se $w notinKer(L) => L(w) ne 0_W$ da cui l'immagine ha dimensione $1$.

quando diciamo che $u in <> => exists lambda inK: u=lambdaL(w)$
se $lambda=0 => u=0_W$ ma questo non ci dice nulla su $L(w)$

al più puoi dire che se $existslambda inKsetminus{0}: lambdaL(w)=0_W => L(w)=0_W$ e puoi dire che la dimensione dell'immagine sia $0$.

Diciamo che il tuo errore è il seguente.
Il sistema ${v,w}$ è una base di $RR^2$ e fino a qui ci siamo, così possiamo affermare che $forallu inRR^2existsalpha,beta inRR:u=alphav+betaw$ ed anche fin qui è tutto corretto.

Quindi avremo che $L(u)=L(alphav+betaw)=betaL(w)$

Ora tu dici: se $beta=0$ allora $L(u)=0_W$ ma questo non ti dice nulla circa $L(w)$ poiché di fatto sarebbe come affermare che $u=alphav$. Tu devi mostrare che l’immagine o è generata da un vettore, oppure l’immagine contiene il solo vettore nullo.

Di fatto imponendo che sia $beta=0$ stai imponendo indirettamente che $u in<>$ ed è chiaro che, grazie alle ipotesi, i vettori che stanno là dentro hanno tutti la proprietà di essere mandati nel vettore nullo.

In genere quando hai $L:V->W$ applicazione lineare, fissata una base $B={v_1,...,v_n}$ di $V$ sai che

$L(V):=Im(L)= <>$


Pertanto la dimensione dell’immagine consiste nel numero di vettori linearmente indipendenti di quello spazio.
Nel tuo caso $L(V)= <> = <>$ e quindi da questo concludi che:

- se $L(w)=0_W$ allora l’immagine ha dimensione zero.
- se $L(w)ne0_W$ allora l’immagine ha dimensione uno.

Uomo Grasso
Ooops, hai ragione anto, mi sono accorto di aver macellato la definizione di immagine :-D adesso torna tutto, grazie!

anto_zoolander
Figurati :-D

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.