Base del radicale di un prodotto scalare
Stavo cercando alcuni esercizi svolti e per trovare la base del radicale di un prodotto scalare ho trovato come metodo risolutivo quello di:
1) Calcolare una matrice rappresentativa $M$ del prodotto scalare rispetto a una base $B$
2) prendere un vettore qualsiasi $vecx$ e scrivere il vettore componenti $vecx_c$ rispetto alla base B
3) Trovare le soluzioni di $M\vecx_c=\vec0_c$
4) Trovo la base dello spazio delle soluzioni $B_s$ di tale sistema omogeneo e le riespirmo rispetto a $B$, questo è una base del radicale del prodotto scalare.
Il mio dubbbio è il seguente, di solito il radicale o kernel del prodotto scalare è definito come l'insieme ${vecy in v|vecx*vecy=0, AA vecx in V}$ quindi in forma matriciale: ${vecy_c in v|vecx_cMvecy_c=0, AA vecx_c in V}$.
Rimaniamo nello spazio delle componenti da qui in avanti (così alleggerisco la notazione $x_c$), mi domando perché basta ridursi a cercare la soluzione solo di $M\vecy=\vec0$ e non di $vecxMvecy=0$?
E' infatti abbastanza evidente che se $M\vecy=\vec0_c$ => $vecx(Mvecy)=vecx*vec0=0$ (quindi per ogni x si annulla quando moltiplicato scalarmente per y).
Ora se chiamo $veck_c=Mvecy_c$ noto che in generale quando calcolo in componenti: $vecx_c*veck_c$ ci sono casi in cui tale prodotto può essere zero anche se $veck!=vec0$, un esempio stupido: $(a,b)*(-b,a)=0$, quindi trovare gli y t.c $M\vecy=\vec0_c$ esaurire tutti i casi in cui y può stare nel radicale.
Insomma devo capire perché a conti fatti $veca in {vecy in v|vecxMvecy=0, AA vecx in V} <=> vecxMveca=0 <=> Mveca=vec0$
1) Calcolare una matrice rappresentativa $M$ del prodotto scalare rispetto a una base $B$
2) prendere un vettore qualsiasi $vecx$ e scrivere il vettore componenti $vecx_c$ rispetto alla base B
3) Trovare le soluzioni di $M\vecx_c=\vec0_c$
4) Trovo la base dello spazio delle soluzioni $B_s$ di tale sistema omogeneo e le riespirmo rispetto a $B$, questo è una base del radicale del prodotto scalare.
Il mio dubbbio è il seguente, di solito il radicale o kernel del prodotto scalare è definito come l'insieme ${vecy in v|vecx*vecy=0, AA vecx in V}$ quindi in forma matriciale: ${vecy_c in v|vecx_cMvecy_c=0, AA vecx_c in V}$.
Rimaniamo nello spazio delle componenti da qui in avanti (così alleggerisco la notazione $x_c$), mi domando perché basta ridursi a cercare la soluzione solo di $M\vecy=\vec0$ e non di $vecxMvecy=0$?
E' infatti abbastanza evidente che se $M\vecy=\vec0_c$ => $vecx(Mvecy)=vecx*vec0=0$ (quindi per ogni x si annulla quando moltiplicato scalarmente per y).
Ora se chiamo $veck_c=Mvecy_c$ noto che in generale quando calcolo in componenti: $vecx_c*veck_c$ ci sono casi in cui tale prodotto può essere zero anche se $veck!=vec0$, un esempio stupido: $(a,b)*(-b,a)=0$, quindi trovare gli y t.c $M\vecy=\vec0_c$ esaurire tutti i casi in cui y può stare nel radicale.
Insomma devo capire perché a conti fatti $veca in {vecy in v|vecxMvecy=0, AA vecx in V} <=> vecxMveca=0 <=> Mveca=vec0$
Risposte
In attesa di qualcuno interessato al quesito provo a rispondermi:
Forse la risposta risiede nel fatto che $x⃗_c *(My⃗ _c)= x⃗_c⋅k⃗_c$ ci sta dicendo che $k_c=My_c$ + a tutti gli effetti un vettore ortogonale a ogni vettore $x$ di $R^n$, con il prodotto standard di Rn riga per colonna. E l'unico vettore in Rn con tale proprietà è proprio il vettore nullo => $Mvecy_c=vec0_c$.
Potrebbe esser corretto? Che ne dite?
Forse la risposta risiede nel fatto che $x⃗_c *(My⃗ _c)= x⃗_c⋅k⃗_c$ ci sta dicendo che $k_c=My_c$ + a tutti gli effetti un vettore ortogonale a ogni vettore $x$ di $R^n$, con il prodotto standard di Rn riga per colonna. E l'unico vettore in Rn con tale proprietà è proprio il vettore nullo => $Mvecy_c=vec0_c$.
Potrebbe esser corretto? Che ne dite?
Solo per fare l'esempio più semplice, determinare:
tale che:
si abbia:
implica richiedere che l'equazione sottostante:
sia soddisfatta:
cioè:
Inutile ribadire, come hai già sottolineato, che l'implicazione inversa è praticamente immediata:
$[[x_1],[x_2]] in RR^2$
tale che:
$AA [[y_1],[y_2]] in RR^2$
si abbia:
$[[y_1,y_2]]*[[a_(11),a_(12)],[a_(21),a_(22)]]*[[x_1],[x_2]]=0$
implica richiedere che l'equazione sottostante:
$(a_(11)*x_1+a_(12)*x_2)*y_1+(a_(21)*x_1+a_(22)*x_2)*y_2=0$
sia soddisfatta:
$AA [[y_1],[y_2]] in RR^2$
cioè:
$\{(a_(11)*x_1+a_(12)*x_2=0),(a_(21)*x_1+a_(22)*x_2=0):} rarr [[a_(11),a_(12)],[a_(21),a_(22)]]*[[x_1],[x_2]]=0$
Inutile ribadire, come hai già sottolineato, che l'implicazione inversa è praticamente immediata:
$[[a_(11),a_(12)],[a_(21),a_(22)]]*[[x_1],[x_2]]=0 rarr [[y_1,y_2]]*[[a_(11),a_(12)],[a_(21),a_(22)]]*[[x_1],[x_2]]=0$
Garantisco che partorisco solo domande idiote, come premessa...
Ora, potrei chiederti come mostrare:
$(a_(11)*x_1+a_(12)*x_2)*y_1+(a_(21)*x_1+a_(22)*x_2)*y_2=0$, $AA [[y_1],[y_2]] in RR^2$
$<=>$
$\{(a_(11)*x_1+a_(12)*x_2=0),(a_(21)*x_1+a_(22)*x_2=0):} rarr [[a_(11),a_(12)],[a_(21),a_(22)]]*[[x_1],[x_2]]=0$
beh un lato è facile:
<=ovvio,
non capisco però => come dedurlo.
Ora, potrei chiederti come mostrare:
$(a_(11)*x_1+a_(12)*x_2)*y_1+(a_(21)*x_1+a_(22)*x_2)*y_2=0$, $AA [[y_1],[y_2]] in RR^2$
$<=>$
$\{(a_(11)*x_1+a_(12)*x_2=0),(a_(21)*x_1+a_(22)*x_2=0):} rarr [[a_(11),a_(12)],[a_(21),a_(22)]]*[[x_1],[x_2]]=0$
beh un lato è facile:
<=ovvio,
non capisco però => come dedurlo.
In generale, affinchè:
per:
l'unico modo è che sia:
$a_1*y_1+a_2*y_2=0$
per:
$AA [[y_1],[y_2]] in RR^2$
l'unico modo è che sia:
$0*y_1+0*y_2=0$
Sì quella imposizione mi è chiara in realtà. Piuttosto volevo capire come dimostrare che se hp: a1⋅y1+a2⋅y2=0 per ogni (y1,y2) in $R^2$ =(allora deve essere)=> 0⋅y1+0⋅y2=0.
Se ho capito bene, vuoi dimostrare formalmente l'implicazione sottostante:
Puoi ragionare per assurdo:
Vero è che, a mio parere, avresti dovuto concludere da solo.
Ipotesi
$AA (y_1,y_2) in RR^2$
$a_1*y_1+a_2*y_2=0$
Tesi
$\{(a_1=0),(a_2=0):}$
Puoi ragionare per assurdo:
$[a_1 ne 0] ^^ [a_1*y_1+a_2*y_2=0] rarr [y_1=-a_2/a_1y_2] rarr oo^1$ soluzioni
Vero è che, a mio parere, avresti dovuto concludere da solo.
Ti do anche ragione, ma il problema è che non ci ero arrivato su come dimostrarlo
.
O meglio ero arrivato a $oo^1$ e mi ero arenato dicendo stupidamente: sono infinite quindi non funziona. Ma il punto è che ho in effetto un vincolo tra y1 e y2 quando scrivo $y_1=−a_2/a_1y^2$, non mi quindi ero accorto che non sarebbe funzionata come domostrazione se fosse uscito $oo^2$, infatti dire $[y_1,y_2] in R^2$ equivale dire $oo^2$.
Sperando di non aver detto cavolate.
Grazie mille

O meglio ero arrivato a $oo^1$ e mi ero arenato dicendo stupidamente: sono infinite quindi non funziona. Ma il punto è che ho in effetto un vincolo tra y1 e y2 quando scrivo $y_1=−a_2/a_1y^2$, non mi quindi ero accorto che non sarebbe funzionata come domostrazione se fosse uscito $oo^2$, infatti dire $[y_1,y_2] in R^2$ equivale dire $oo^2$.
Sperando di non aver detto cavolate.
Grazie mille

Non hai detto cavolate. Insomma, direi che ci siamo.
Davvero molto gentile, ti ringrazio per il tuo aiuto prezioso!