Proiezioni ortogonali
Salve!
Mi sto cimentando con un paio di esercizi sulle proiezioni ortogonali, e purtroppo ho dei dubbi che non riesco proprio a risolvere
Per cominciare, la proiezione ortogonale di un generico vettore $v$ su di un sottospazio $W$, ovvero $P_(W)(v)$ è a tutti gli effetti un'applicazione lineare, avente un'immagine e un nucleo (giusto?); detto ciò, non mi è chiaro innanzitutto perchè $W^(_|_) = ker (P_(W))$ e contemporaneamente $Im(P_(W)) = W$.
Fatta questa premessa, è chiaro che non ho la comprensione teorica necessaria a risolvere il seguente esercizio:
Sia $U = span(| ( 1 ),( 0 ),( 2 ) |, | ( 2 ),( 0 ),( 3 ) |)$ . Determinare se le seguenti affermazioni sono vere o false, dandone accurata motivazione:
(a) Esiste un solo vettore $v$ di $R^3$ la cui proiezione ortogonale su U sia $ | ( 1 ),( 0 ),( 1 ) | $
(b) Esistono infiniti vettori di $U$ la cui proiezione ortogonale sul sottospazio $W=span( | ( 1 ),( 0 ),( 2 ) |) $ sia il vettore $ | ( -1 ),( 0 ),( -2 ) | $
Ringrazio sentitamente in anticipo
SOLUZIONI:

Mi sto cimentando con un paio di esercizi sulle proiezioni ortogonali, e purtroppo ho dei dubbi che non riesco proprio a risolvere

Per cominciare, la proiezione ortogonale di un generico vettore $v$ su di un sottospazio $W$, ovvero $P_(W)(v)$ è a tutti gli effetti un'applicazione lineare, avente un'immagine e un nucleo (giusto?); detto ciò, non mi è chiaro innanzitutto perchè $W^(_|_) = ker (P_(W))$ e contemporaneamente $Im(P_(W)) = W$.
Fatta questa premessa, è chiaro che non ho la comprensione teorica necessaria a risolvere il seguente esercizio:
Sia $U = span(| ( 1 ),( 0 ),( 2 ) |, | ( 2 ),( 0 ),( 3 ) |)$ . Determinare se le seguenti affermazioni sono vere o false, dandone accurata motivazione:
(a) Esiste un solo vettore $v$ di $R^3$ la cui proiezione ortogonale su U sia $ | ( 1 ),( 0 ),( 1 ) | $
(b) Esistono infiniti vettori di $U$ la cui proiezione ortogonale sul sottospazio $W=span( | ( 1 ),( 0 ),( 2 ) |) $ sia il vettore $ | ( -1 ),( 0 ),( -2 ) | $
Ringrazio sentitamente in anticipo

SOLUZIONI:
Risposte
Intuitivamente, trattandosi di un operatore di proiezione:
$[W^(_|_)=Ker(P_W)]$ perché i vettori $in RR^3$ la cui immagine è il vettore nullo sono quelli ortogonali a $W$
$[W=Im(P_W)]$ perché ogni vettore $in RR^3$ ha un'immagine che appartiene a $W$
Ad ogni modo, per non procedere intuitivamente e determinare l'operatore di proiezione anche in casi più complessi, dopo aver ortonormalizzato i seguenti due vettori:
$((1),(0),(2)) ^^ ((2),(0),(3))$
ricavando, per esempio:
$((sqrt5/5),(0),((2sqrt5)/5)) ^^ (((2sqrt5)/5),(0),(-sqrt5/5))$
si può svolgere la seguente somma di prodotti matriciali:
$((sqrt5/5),(0),((2sqrt5)/5))((sqrt5/5,0,(2sqrt5)/5))+(((2sqrt5)/5),(0),(-sqrt5/5))(((2sqrt5)/5,0,-sqrt5/5))=((1,0,0),(0,0,0),(0,0,1))$
A questo punto, per quanto riguarda il punto (a), è evidente che il seguente sistema è indeterminato:
$((1),(0),(1))=((1,0,0),(0,0,0),(0,0,1))((x),(y),(z))$
$[W^(_|_)=Ker(P_W)]$ perché i vettori $in RR^3$ la cui immagine è il vettore nullo sono quelli ortogonali a $W$
$[W=Im(P_W)]$ perché ogni vettore $in RR^3$ ha un'immagine che appartiene a $W$
Ad ogni modo, per non procedere intuitivamente e determinare l'operatore di proiezione anche in casi più complessi, dopo aver ortonormalizzato i seguenti due vettori:
$((1),(0),(2)) ^^ ((2),(0),(3))$
ricavando, per esempio:
$((sqrt5/5),(0),((2sqrt5)/5)) ^^ (((2sqrt5)/5),(0),(-sqrt5/5))$
si può svolgere la seguente somma di prodotti matriciali:
$((sqrt5/5),(0),((2sqrt5)/5))((sqrt5/5,0,(2sqrt5)/5))+(((2sqrt5)/5),(0),(-sqrt5/5))(((2sqrt5)/5,0,-sqrt5/5))=((1,0,0),(0,0,0),(0,0,1))$
A questo punto, per quanto riguarda il punto (a), è evidente che il seguente sistema è indeterminato:
$((1),(0),(1))=((1,0,0),(0,0,0),(0,0,1))((x),(y),(z))$
Ciao, grazie per la risposta!
Non mi è chiaro però perchè tu abbia fatto il prodotto matriciale tra i vettori ortonormalizzati
Mi è nuovo come procedimento...
Non mi è chiaro però perchè tu abbia fatto il prodotto matriciale tra i vettori ortonormalizzati

Mi è nuovo come procedimento...
Se, di un generico vettore:
$[((x),(y),(z)) in RR^3]$
si vuol determinare il vettore proiezione lungo una direzione assegnata, definita univocamente dal seguente versore:
$[((x_d),(y_d),(z_d)) in RR^3] ^^ [sqrt(x_d^2+y_d^2+z_d^2)=1]$
solitamente si scrive:
$(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))$
Alternativamente, proprio perché la seguente matrice:
$((x_d),(y_d),(z_d))((x_d,y_d,z_d))=((x_d^2,x_d y_d,x_d z_d),(x_d y_d,y_d^2,y_d z_d),(x_d z_d,y_d z_d,z_d^2))$
gode della proprietà:
$((x_d^2,x_d y_d,x_d z_d),(x_d y_d,y_d^2,y_d z_d),(x_d z_d,y_d z_d,z_d^2))((x),(y),(z))=((x_d^2x+x_d y_d y+x_d z_d z),(x_d y_d x+y_d^2y+y_d z_d z),(x_d y_d x+y_d z_d y+z_d^2z))=(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))$
essa definisce l'operatore di proiezione lungo la direzione assegnata. Si può dimostrare che si tratta di una matrice simmetrica avente, come da intuizione, un autovalore $[\lambda=1]$, di molteplicità algebrica $1$, il cui autospazio è generato dal versore medesimo, e un autovalore $[\lambda=0]$, di molteplicità algebrica $2$, il cui autospazio è il complemento ortogonale del primo. Si potrebbero semplificare le notazioni adottando il formalismo di Dirac della meccanica quantistica, ma questo è un altro discorso.
$[((x),(y),(z)) in RR^3]$
si vuol determinare il vettore proiezione lungo una direzione assegnata, definita univocamente dal seguente versore:
$[((x_d),(y_d),(z_d)) in RR^3] ^^ [sqrt(x_d^2+y_d^2+z_d^2)=1]$
solitamente si scrive:
$(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))$
Alternativamente, proprio perché la seguente matrice:
$((x_d),(y_d),(z_d))((x_d,y_d,z_d))=((x_d^2,x_d y_d,x_d z_d),(x_d y_d,y_d^2,y_d z_d),(x_d z_d,y_d z_d,z_d^2))$
gode della proprietà:
$((x_d^2,x_d y_d,x_d z_d),(x_d y_d,y_d^2,y_d z_d),(x_d z_d,y_d z_d,z_d^2))((x),(y),(z))=((x_d^2x+x_d y_d y+x_d z_d z),(x_d y_d x+y_d^2y+y_d z_d z),(x_d y_d x+y_d z_d y+z_d^2z))=(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))$
essa definisce l'operatore di proiezione lungo la direzione assegnata. Si può dimostrare che si tratta di una matrice simmetrica avente, come da intuizione, un autovalore $[\lambda=1]$, di molteplicità algebrica $1$, il cui autospazio è generato dal versore medesimo, e un autovalore $[\lambda=0]$, di molteplicità algebrica $2$, il cui autospazio è il complemento ortogonale del primo. Si potrebbero semplificare le notazioni adottando il formalismo di Dirac della meccanica quantistica, ma questo è un altro discorso.
Ah, capisco, grazie mille!
Per il punto (b) qualche idea?

Intanto, dovresti scrivere l'operatore di proiezione lungo la direzione di $(1,0,2)$. Veramente, è il primo addendo della somma di operatori del mio primo messaggio:
$((sqrt5/5),(0),((2sqrt5)/5))((sqrt5/5,0,(2sqrt5)/5))=((1/5,0,2/5),(0,0,0),(2/5,0,4/5))$
Quindi, a patto di considerare che $(x,y,z)$ appartiene al sottospazio della consegna:
$y=0$
dovresti procedere come prima:
$((-1),(0),(-2))=((1/5,0,2/5),(0,0,0),(2/5,0,4/5))((x),(y),(z)) rarr \{(1/5x+2/5z=-1),(2/5x+4/5z=-2):}$
Insomma, si tratta di risolvere il seguente sistema:
$\{(1/5x+2/5z=-1),(2/5x+4/5z=-2),(y=0):}$
evidentemente indeterminato.
$((sqrt5/5),(0),((2sqrt5)/5))((sqrt5/5,0,(2sqrt5)/5))=((1/5,0,2/5),(0,0,0),(2/5,0,4/5))$
Quindi, a patto di considerare che $(x,y,z)$ appartiene al sottospazio della consegna:
$y=0$
dovresti procedere come prima:
$((-1),(0),(-2))=((1/5,0,2/5),(0,0,0),(2/5,0,4/5))((x),(y),(z)) rarr \{(1/5x+2/5z=-1),(2/5x+4/5z=-2):}$
Insomma, si tratta di risolvere il seguente sistema:
$\{(1/5x+2/5z=-1),(2/5x+4/5z=-2),(y=0):}$
evidentemente indeterminato.
Allora...
La proiezione di un generico $v$ su un altrettanto generico sottospazio $W = span(w)$ è data (che io sappia) da:
$P_(W)(v) = ()/() w$ ; chiaro che il termine al denominatore, nel caso in cui $w$ sia stato precedentemente
normalizzato, non è più necessario.
Il mio dubbio sta nel fatto che, ponendo $w = ||w||$ , ottengo: $P_(W)(v) = w$;
ciò però non mi sembra dia un prodotto matriciale poichè, come anche hai scritto tu, $$ è un prodotto scalare di due vettori già noti.
Volevo quindi capire come riesci ad ottenere la matrice associata all'applicazione proiezione.
[nota]In realtà, una volta che mi rendo conto del fatto che il ker dell'applicazione proiezione è l'ortogonale del sottospazio su cui voglio fare tale proiezione, vedo subito che $ker< | ( 1 ),( 0 ),( 2 ) |> $ ha dimensione due
e quindi che esistono $oo^(2)$ vettori tali che la loro proiezione su tale sottospazio sia $| ( -1 ),( 0 ),( -2 ) |$ ... O sbaglio?
[/nota]
Chiedo scusa, so di essere abbastanza "de coccio" e ti ringrazio infnitamente per la disponibilità
La proiezione di un generico $v$ su un altrettanto generico sottospazio $W = span(w)$ è data (che io sappia) da:
$P_(W)(v) = (
normalizzato, non è più necessario.
Il mio dubbio sta nel fatto che, ponendo $w = ||w||$ , ottengo: $P_(W)(v) =
ciò però non mi sembra dia un prodotto matriciale poichè, come anche hai scritto tu, $
Volevo quindi capire come riesci ad ottenere la matrice associata all'applicazione proiezione.
[nota]In realtà, una volta che mi rendo conto del fatto che il ker dell'applicazione proiezione è l'ortogonale del sottospazio su cui voglio fare tale proiezione, vedo subito che $ker< | ( 1 ),( 0 ),( 2 ) |> $ ha dimensione due
e quindi che esistono $oo^(2)$ vettori tali che la loro proiezione su tale sottospazio sia $| ( -1 ),( 0 ),( -2 ) |$ ... O sbaglio?

Chiedo scusa, so di essere abbastanza "de coccio" e ti ringrazio infnitamente per la disponibilità

Help please

Hai ragione, $[P_W(v)=w]$ può solo corrispondere a $[(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))]$. Tuttavia, il prodotto matriciale $[((x_d),(y_d),(z_d))((x_d,y_d,z_d))((x),(y),(z))]$ può essere svolto in due modi:
Modo 1. Se il primo prodotto che esegui coinvolge le due matrici più a destra, ricavi il risultato secondo la notazione da te proposta: $[P_W(v)=w]$
Modo 2. Se il primo prodotto che esegui coinvolge le due matrici più a sinistra, ricavi il medesimo risultato nel modo che ti ho già mostrato: $[((x_d^2,x_d y_d,x_d z_d),(x_d y_d,y_d^2,y_d z_d),(x_d z_d,y_d z_d,z_d^2))((x),(y),(z))=(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))]$
Insomma, il prodotto tra un vettore colonna e un vettore riga, con il vettore colonna a sinistra, può essere considerato a tutti gli effetti un operatore.
Ok. Nell'esercizio ha dimensione $1$ perché si proiettava un sottospazio di dimensione $2$.
Modo 1. Se il primo prodotto che esegui coinvolge le due matrici più a destra, ricavi il risultato secondo la notazione da te proposta: $[P_W(v)=
Modo 2. Se il primo prodotto che esegui coinvolge le due matrici più a sinistra, ricavi il medesimo risultato nel modo che ti ho già mostrato: $[((x_d^2,x_d y_d,x_d z_d),(x_d y_d,y_d^2,y_d z_d),(x_d z_d,y_d z_d,z_d^2))((x),(y),(z))=(x_d x+y_d y+z_d z)((x_d),(y_d),(z_d))]$
Insomma, il prodotto tra un vettore colonna e un vettore riga, con il vettore colonna a sinistra, può essere considerato a tutti gli effetti un operatore.
"Henry!":
In realtà, una volta che mi rendo conto del fatto che...
Ok. Nell'esercizio ha dimensione $1$ perché si proiettava un sottospazio di dimensione $2$.