Domande su alcune piccole dimostrazioni
ciao, ho dei dubbi su un po di cose, spero che qualcuno possa rispondermi:
1) come si giustifica o dimostra che il prodotto di 2 matrici si fa moltiplicando le righe per le colonne?
2) Vettori ortonormali sono linearmente indipendenti. Dimostrazione: sia $u_1........u_k$ un insieme ortonormale. Posto $a_1u_1+.....+a_ku_k=0$ si ha
$0=(a_1u_1+.....+a_ku_kxu_j)=a_j$ per $j=1,2,3....k$. Non capisco perche ci sia $a_j$ a secondo membro dell uguaglianza, da dove arriva?
3) Vorrei chiedere come vanno messi i pedici nella dimostrazione che riporto perche nn capisco se sono giusti. Enunciato: In uno spazio vettoriale V di dimensione n, qualunque insieme di m>n vettori e l.i. Dimostrazione sia $v_1.....v_(n+1)$ la base V e siano $u_1.....u_(m+1)$, $m>n$ vettori che per assurdo supporremmo l.i. Si ha: $u_1=a_1v_1+a2_v2+....+a_mv_m$ dove le $a_i$ nn sono tutte nulle (in caso contrario $u_1=0$) il che nn puo essere perche $u_1$ e parte di una base. Senza restrizioni possiamo assumere che sia $a_1!=0$. Cio implica $v_1=1/a_1u_1-a_2/a_1v_2-...-a_m/a_1v_m$. Questo dimostra che $u_1,v_2...v_m$ sono un sistema completo in V. Continuando fino ad esaurimento di $v_1,v_2,.....v_n$ si ottiene che $u_(n+1),u_(n+2)...u_m$ sono l.d. il che contraddice l assunto che $u_1......a_m$ siano l.i.". Sapete anche dirmi se e corretta?nn capisco quando dice "...Si ha: $u_1=a_1v_1+a_2v_2+....+a_mv_m$ dove le $a_i$ nn sono tutte nulle (in caso contrario $u_1=0$) il che nn puo essere perche $u_1$ e parte di una base". Appunto perche $u_1$ e parte di una base nn dovrebbero essere le a tutte nulle?
Grazie ciao!
1) come si giustifica o dimostra che il prodotto di 2 matrici si fa moltiplicando le righe per le colonne?
2) Vettori ortonormali sono linearmente indipendenti. Dimostrazione: sia $u_1........u_k$ un insieme ortonormale. Posto $a_1u_1+.....+a_ku_k=0$ si ha
$0=(a_1u_1+.....+a_ku_kxu_j)=a_j$ per $j=1,2,3....k$. Non capisco perche ci sia $a_j$ a secondo membro dell uguaglianza, da dove arriva?
3) Vorrei chiedere come vanno messi i pedici nella dimostrazione che riporto perche nn capisco se sono giusti. Enunciato: In uno spazio vettoriale V di dimensione n, qualunque insieme di m>n vettori e l.i. Dimostrazione sia $v_1.....v_(n+1)$ la base V e siano $u_1.....u_(m+1)$, $m>n$ vettori che per assurdo supporremmo l.i. Si ha: $u_1=a_1v_1+a2_v2+....+a_mv_m$ dove le $a_i$ nn sono tutte nulle (in caso contrario $u_1=0$) il che nn puo essere perche $u_1$ e parte di una base. Senza restrizioni possiamo assumere che sia $a_1!=0$. Cio implica $v_1=1/a_1u_1-a_2/a_1v_2-...-a_m/a_1v_m$. Questo dimostra che $u_1,v_2...v_m$ sono un sistema completo in V. Continuando fino ad esaurimento di $v_1,v_2,.....v_n$ si ottiene che $u_(n+1),u_(n+2)...u_m$ sono l.d. il che contraddice l assunto che $u_1......a_m$ siano l.i.". Sapete anche dirmi se e corretta?nn capisco quando dice "...Si ha: $u_1=a_1v_1+a_2v_2+....+a_mv_m$ dove le $a_i$ nn sono tutte nulle (in caso contrario $u_1=0$) il che nn puo essere perche $u_1$ e parte di una base". Appunto perche $u_1$ e parte di una base nn dovrebbero essere le a tutte nulle?
Grazie ciao!
Risposte
"richard84":
1) come si giustifica o dimostra che il prodotto di 2 matrici si fa moltiplicando le righe per le colonne?
Non c'è nulla da dimostrare, è una definizione.
Ci sono alcuni casi, non mi ricordo quali né in quali ambiti, in cui il prodotto fra matrici viene eseguito elemento per elemento.
nn c entra la proprieta associativa? Se si esegue riga per riga o colonna per colonna nn viene piu rispettata?avevo sentito questa voce...
"Tipper":
Ci sono alcuni casi, non mi ricordo quali né in quali ambiti, in cui il prodotto fra matrici viene eseguito elemento per elemento.
Ho visto anchio questa operazione
A.*A che fa il prodotto elemento per elemento come in una somma
Io so che il prodotto fra matrici è definito righe-colonne perché in questo modo è possibile rappresentare applicazioni lineari attraverso matrici.
La proprietà associativa sarebbe rispettata anche nel caso di prodotto elemento per elemento.
La proprietà associativa sarebbe rispettata anche nel caso di prodotto elemento per elemento.
va bene grazie per il chiarimento...e sulle altre domande sapete dirmi qualcosa?
Per il secondo punto, ma $x$ chi è?
io penso sia il prodotto scalare...sulle disp nn c e la x ma c e un punto nero grosso
Allora forse intendevi questo?
$< a_1 u_1 + a_2 u_2 + \ldots a_k u_k, " "u_j > = a_j$
Cioè, il prodotto scalare fra $a_1 u_1 + a_2 u_2 + \ldots a_k u_k$ e $u_j$?
$< a_1 u_1 + a_2 u_2 + \ldots a_k u_k, " "u_j > = a_j$
Cioè, il prodotto scalare fra $a_1 u_1 + a_2 u_2 + \ldots a_k u_k$ e $u_j$?
si penso che intenda quello....ma cio che nn capisco e perche tutta quella roba e $=a_j$
Perché se la base è ortonormale, allora $a_j$ è proprio la proiezione lungo la direzione di $u_j$.
ancora nn mi e chiaro...lo so che il prodotto scalare e la proioezione di un vettore sulla retta in cui giace l altro vettore...pero quando nella dim. trovo scritto $a_1v_1$ , $a_1$ nn e al proiezione lungo la direzione di $v_1$....
e $a_j$ era il coefficente del vettore $u_j$?
e $a_j$ era il coefficente del vettore $u_j$?
"richard84":
e $a_j$ era il coefficente del vettore $u_j$?
Sì.
ma allora nn dovrebbe venire $a_1v_1/u_j....a_nv_n/u_j=a_j$??
Non capisco questa scrittura, non ha senso dividere per vettori.
Per i vettori..
E' sbagliato. Devi dimostrare che in uno spazio vettoriale di dimensione $n$, qualunque $m$-upla di vettori con $m>n$ è linearmente dipendente...
I $v_i$ sono $n$, non $n+1$...
Per la dimostrazione:
E' sbagliato. Tu prendi $u_1=a_1v_1+a_2v_2+....+a_nv_n$ Questo perchè i $v_i$formano una base.
Gli $a_i$ sono tutti diversi da zero poichè hai assunto gli $u_i$ linearmente indipendenti. E $0$ non è l.i.
Così hai che $v_1=1/a_1u_1-a_2/a_1v_2-...-a_n/a_1v_n$. (non n+1...)
Così $u_1$,$v_2$..$v_n$ sono ancora una base..
Procedi fino a esaurire i $v_i$ e trovi che $u_1$..$u_n$ generano V e sono l.i. Ti restano fuori quindi $m-n$ vettori linearmente dipendenti($u_(n+1)$...$u_m$), contro l'ipotesi iniziale che tutti gli $u_i$ siano l.i.
Ciao ciao
"richard84":
In uno spazio vettoriale V di dimensione n, qualunque insieme di m>n vettori e l.i.
E' sbagliato. Devi dimostrare che in uno spazio vettoriale di dimensione $n$, qualunque $m$-upla di vettori con $m>n$ è linearmente dipendente...
I $v_i$ sono $n$, non $n+1$...
Per la dimostrazione:
"richard84":
Si ha: $u_1=a_1v_1+a2_v2+....+a_mv_m$
E' sbagliato. Tu prendi $u_1=a_1v_1+a_2v_2+....+a_nv_n$ Questo perchè i $v_i$formano una base.
Gli $a_i$ sono tutti diversi da zero poichè hai assunto gli $u_i$ linearmente indipendenti. E $0$ non è l.i.
Così hai che $v_1=1/a_1u_1-a_2/a_1v_2-...-a_n/a_1v_n$. (non n+1...)
Così $u_1$,$v_2$..$v_n$ sono ancora una base..
Procedi fino a esaurire i $v_i$ e trovi che $u_1$..$u_n$ generano V e sono l.i. Ti restano fuori quindi $m-n$ vettori linearmente dipendenti($u_(n+1)$...$u_m$), contro l'ipotesi iniziale che tutti gli $u_i$ siano l.i.
Ciao ciao
3) quindi al posto di $v_1.......v_(n+1)$ metto alla fine $v_n$ e al posto di $u_1....u_(m+1)$ metto $u_m$. Al posto di$v_1=1/a_1u_1-a_2/a_1v_2-...-a_m/a_1v_m$. metto $v_1=1/a_1u_1-a_2/a_1v_2-...-a_n/a_1v_n$.?
ho un problemino in un teorema sulle trasformazioni inverse...
Il testo dice:
"sia f una trasformazione lineare da uno spazio U di dimensione n ad uno spazio V di dimensione n rappresentati da una matrice $A_(nxn)$ rispetto ad una base di U e V. La trasformazione f ha inversa se e solo se A e invertibile. La rappresentazione matriciale di $f^(-1)$ è $A^(-1)$ rispetto alle basi U e V assegnate.
Dimostrazione: sia $f:U->V$ se u appartiene a U e v appartiente a V si ha $v=f(u)=Au$ con $A_(nxn)$. Se f e invertibile ($f^(-1)$ esiste) cio implica che lo spazio nullo e dato dal solo vettore 0. Quindi f e invertibile se e solo se l unica soluzione del sistema $Au=0$ e u=0 e questo è vero (e viceversa) se $|A|!=0$....."
perche dev essere u=0?e perche dice "...e questo è vero"??
grazie mille ciao!
Il testo dice:
"sia f una trasformazione lineare da uno spazio U di dimensione n ad uno spazio V di dimensione n rappresentati da una matrice $A_(nxn)$ rispetto ad una base di U e V. La trasformazione f ha inversa se e solo se A e invertibile. La rappresentazione matriciale di $f^(-1)$ è $A^(-1)$ rispetto alle basi U e V assegnate.
Dimostrazione: sia $f:U->V$ se u appartiene a U e v appartiente a V si ha $v=f(u)=Au$ con $A_(nxn)$. Se f e invertibile ($f^(-1)$ esiste) cio implica che lo spazio nullo e dato dal solo vettore 0. Quindi f e invertibile se e solo se l unica soluzione del sistema $Au=0$ e u=0 e questo è vero (e viceversa) se $|A|!=0$....."
perche dev essere u=0?e perche dice "...e questo è vero"??
grazie mille ciao!
Calcolando $Au=O$ calcoli il ker, e l'applicazione è iniettiva se e solo se il ker coincide con lo spazio nullo, ovvero se l'equazione precedente è soddisfatta dal solo vettore nullo. Attraverso il teorema di nullità + rango si vede che l'applicazione è iniettiva allora è anche suriettiva, e quindi invertibile.
Quando dici: se f e invertibile cio implica che lo spazio nullo e dato dal solo vettore 0, forse volevi dire che se $f$ è invertibile allora è anche iniettiva, quindi il ker deve necessariamente coincidere con lo spazio nullo.
Quando dici: se f e invertibile cio implica che lo spazio nullo e dato dal solo vettore 0, forse volevi dire che se $f$ è invertibile allora è anche iniettiva, quindi il ker deve necessariamente coincidere con lo spazio nullo.
grazie....ma cos e il ker?
È il nucleo, cioè il sottospazio lineare del dominio che ha come immagine il vettore nullo del codominio.