Matrice associata ad un'applicazione lineare
ciao,
data un'applicazione lineare $f:V\rightarrow W$ sono in grado di determinarne la matrice associata rispetto ad una base di $V$ ed una base di $W$; non sono in grado però di effettuare l'operazione inversa, vale a dire trovare l'espressione analitica di un'applicazione lineare conoscendone la matrice associata.
ad esempio, data la matrice associata $[[1,0,0],[0,0,0],[0,1,0]]$ e la base canonica di $\mathbb{R}^3$, come posso fare a determinare la relativa applicazione lineare (che vista la soluzione del problema so essere $f(a,b,c)=(a,0,b)$)?
le uniche informazioni che sono in grado di dedurre sono che $f(1,0,0)=(1,0,0)$, $f(0,1,0)=(0,0,1)$, $f(0,0,1)=(0,0,0)$, ma da queste non sono in grado di capire come recuperare l'espressione analitica di $f$. come posso fare?
grazie.
data un'applicazione lineare $f:V\rightarrow W$ sono in grado di determinarne la matrice associata rispetto ad una base di $V$ ed una base di $W$; non sono in grado però di effettuare l'operazione inversa, vale a dire trovare l'espressione analitica di un'applicazione lineare conoscendone la matrice associata.
ad esempio, data la matrice associata $[[1,0,0],[0,0,0],[0,1,0]]$ e la base canonica di $\mathbb{R}^3$, come posso fare a determinare la relativa applicazione lineare (che vista la soluzione del problema so essere $f(a,b,c)=(a,0,b)$)?
le uniche informazioni che sono in grado di dedurre sono che $f(1,0,0)=(1,0,0)$, $f(0,1,0)=(0,0,1)$, $f(0,0,1)=(0,0,0)$, ma da queste non sono in grado di capire come recuperare l'espressione analitica di $f$. come posso fare?
grazie.
Risposte
Hei ciao non ti ricordi? te l'avevo detto...devi moltiplicare la matrice per (x y z) scritti in colonna. troverai un altro vettore colonna con 3 elementi e gli uguagli a 0. risolvi il sistema e ti esce...
dimmi se ci si sei riuscito
dimmi se ci si sei riuscito
Se $((a),(b),(c))$ sono le coordinate di un generico vettore rispetto alla base canonica, abbiamo:
$f(((a),(b),(c)))=((1,0,0),(0,0,0),(0,1,0))((a),(b),(c))=((a),(0),(b))$.
$f(((a),(b),(c)))=((1,0,0),(0,0,0),(0,1,0))((a),(b),(c))=((a),(0),(b))$.
allora se ho ben capito dovrei fare $[[1,0,0],[0,0,0],[0,1,0]][[x],[y],[z]]=[[0],[0],[0]]$ ovvero $[[x],[0],[y]]=[[0],[0],[0]]$ e cioè $\{(x=0),(y=0),(z=\alpha):}$, ma questo è un risultato che non saprei come interpretare...
grazie Dorian ora ho capito

"fctk":
allora se ho ben capito dovrei fare $[[1,0,0],[0,0,0],[0,1,0]][[x],[y],[z]]=[[0],[0],[0]]$ ovvero $[[x],[0],[y]]=[[0],[0],[0]]$ e cioè $\{(x=0),(y=0),(z=\alpha):}$, ma questo è un risultato che non saprei come interpretare...
No: come ti ha detto Dorian, per sapere dove va il generico vettore $v=((a),(b),(c))$ moltiplichi la matrice data $A$ per il vettore $v$ ottenendo $f(v)=Av$. Prova a leggere quello che ti ha detto Dorian.
ecco ora avrei un'altra domanda inerente la matrice associata di un'applicazione lineare (non so se aprire un altro topic o restare su questo...): cosa bisogna osservare della matrice associata per stabilire che la relativa applicazione lineare è iniettiva o suriettiva? si possono dedurre facilmente altre informazioni? grazie ancora.
si scusa...facendo come dicevo io ti trovi il vettore generico ke sta nell'Im(f) no? cioè (0,0,a)...dico bene?
salsa88, dovrebbe essere il generico vettore che sta nel kernel dell'applicazione... infatti $f(0,0,z)=(0,0,0)$.
"fctk":
ecco ora avrei un'altra domanda inerente la matrice associata di un'applicazione lineare (non so se aprire un altro topic o restare su questo...): cosa bisogna osservare della matrice associata per stabilire che la relativa applicazione lineare è iniettiva o suriettiva? si possono dedurre facilmente altre informazioni? grazie ancora.
Un metodo può essere questo: ricorda che data una funzione lineare $phi:V to W$ hai che $dim(ker(phi))+dim(phi(V)) = dim(V)$ (*).
Trova una base per $ker(phi)$. Questo non è difficile: risolvi il sistema $Av=0$ e trovi così i $v$ nel nucleo, che è un sottospazio vettoriale di $V$. Estrai una base di tale sottospazio ed ecco fatto.
Ora la $phi$ è iniettiva se e solo se $ker(phi)=0$, e quindi questo problema l'hai risolto: se nel ker c'è anche solo un vettore non nullo allora la $phi$ non è iniettiva.
Perché la $phi$ sia suriettiva si deve avere $dim(phi(V))=dim(W)$. Ma tu $dim(phi(V))$ lo conosci grazie a (*), quindi non resta che confrontarlo con $dim(W)$.
@salsa88: no facendo come dici tu trovi un generico vettore nel nucleo.
Martino ma non c'e' un metodo analogo tramite il quale invece si analizza il rango/determinante della matrice associata? mi pare di aver letto qualcosa del genere da qualche parte...
"fctk":
salsa88, dovrebbe essere il generico vettore che sta nel kernel dell'applicazione... infatti $f(0,0,z)=(0,0,0)$.
Si scusa, volevo dire nel nucleo, non nell'immagine.... sto fondendo

Questi fatti equivalgono all'iniettività di $phi:V->W$
(1) $Ker(phi)=0_V$;
(2) $phi$ ammette un'inversa sinistra;
(3) Se $S sube V$ è linearmente indipendente, allora $phi(S)$ è linearmente indipendente;
(4) $phi$ manda basi di $V$ in insiemi linearmente indipendenti di $W$;
e quindi il verificarsi \ non verificarsi di uno di questi fatti implica l'iniettività \ non iniettività di $phi$. Similmente, $phi$ è suriettiva se:
(1) $Im(phi)=W$;
(2) $phi$ ammette un'inversa destra;
(3) $phi$ manda basi di $V$ in insiemi generatori di $W$;
(1) $Ker(phi)=0_V$;
(2) $phi$ ammette un'inversa sinistra;
(3) Se $S sube V$ è linearmente indipendente, allora $phi(S)$ è linearmente indipendente;
(4) $phi$ manda basi di $V$ in insiemi linearmente indipendenti di $W$;
e quindi il verificarsi \ non verificarsi di uno di questi fatti implica l'iniettività \ non iniettività di $phi$. Similmente, $phi$ è suriettiva se:
(1) $Im(phi)=W$;
(2) $phi$ ammette un'inversa destra;
(3) $phi$ manda basi di $V$ in insiemi generatori di $W$;
"fctk":
Martino ma non c'e' un metodo analogo tramite il quale invece si analizza il rango/determinante della matrice associata? mi pare di aver letto qualcosa del genere da qualche parte...
Se la matrice associata è quadrata (e questo è un caso molto particolare, in generale dominio e codominio hanno dimensioni diverse) allora l'iniettività e la suriettività sono concetti equivalenti e valgono se e solo se il determinante è diverso da zero.
Il rango di una matrice associata ad una funzione lineare $f$ è uguale alla dimensione dell'immagine di $f$, quindi come vedi per quanto riguarda questioni di rango ci si riconduce al discorso che ho fatto nell'intervento precedente.
quindi data la matrice (quadrata) associata ad un'applicazione lineare del tipo $f:V\rightarrow V$, se il suo determinante è diverso da zero allora l'applicazione è sia iniettiva che suriettiva (cioè è biunivoca). e se il determinante è zero cosa si può dire?
se il determinante è 0 vuol dire ke la dimensione dell'immagine non concide con la dimensione del codominio. quindi non è suriettiva e nemmeno iniettiva.
Ciao, forse sbaglio nell'aggiungere un messaggio in questo argomento(per le regole del sito, non so...), ma ho pensato che dato che il mio dubbio è inerente a quello che c'è già scritto, non ci dovrebbero essere problemi.
Siano: V, W spazi vettoriali su $RR$. d=dim(V), e=dim(W).
B=($v_1$,...,$v_d$) base di V e D=($w_1$,...,$w_e$) base di W.
$f: V \to W$ lineare. A=$M_D^B (f)$.
Teorema: $Ker(f)=M_B^-1(Ker(A))$.
Quello che non mi è chiaro, è: $M_B^-1(Ker(A))$ cosa rappresenta praticamente?
Perchè negli esercizi di solito per trovare il Ker di un'applicazione lineare, cerco quello della matrice associata.
Io credo che questo teorema voglia dire proprio questo, ma non ne sono sicura. Ciò che mi confonde particolarmente è proprio quella notazione($M_B^-1(Ker(A))$).
Grazie.
Siano: V, W spazi vettoriali su $RR$. d=dim(V), e=dim(W).
B=($v_1$,...,$v_d$) base di V e D=($w_1$,...,$w_e$) base di W.
$f: V \to W$ lineare. A=$M_D^B (f)$.
Teorema: $Ker(f)=M_B^-1(Ker(A))$.
Quello che non mi è chiaro, è: $M_B^-1(Ker(A))$ cosa rappresenta praticamente?
Perchè negli esercizi di solito per trovare il Ker di un'applicazione lineare, cerco quello della matrice associata.
Io credo che questo teorema voglia dire proprio questo, ma non ne sono sicura. Ciò che mi confonde particolarmente è proprio quella notazione($M_B^-1(Ker(A))$).
Grazie.
