Esercizi sugli spazi di Hilbert.
Ciao a tutti.
\(\displaystyle \bullet \) Sia \(\displaystyle \mathcal{H} \) uno spazio di Hilbert, \(\displaystyle M\subset \mathcal{H} \) un sottoinsieme convesso, e \(\displaystyle \{x_n\}\in M \) tale che \(\|x_n\|\to d=\inf_{x\in M}\Vert x\Vert \). Dimostrare che \(\displaystyle x_n \) converge in \(\displaystyle \mathcal{H} \).
Usando l'uguaglianza del parallelogrammo e la convessità di $M$, si ha: \[\displaystyle \Vert x_n-x_m\Vert^2=2\Vert x_n\Vert^2+2\Vert x_m\Vert^2-\Vert x_n+x_m\Vert^2= 4\left(\frac{1}{2}\Vert x_n\Vert^2+\frac{1}{2}\Vert x_m\Vert^2-\left\Vert \frac{x_n+x_m}{2}\right\Vert^2\right)= \ 4\left(\frac{1}{2}\Vert x_n\Vert^2+\frac{1}{2}\Vert x_m\Vert^2-\left\Vert {{\text{successione punti medi}}}\right\Vert^2\right)\to 2d^2+2d^2-4d^2=0, \] dunque $x_n$ è di Cauchy e pertanto convergente in \(\displaystyle \mathcal{H} \).
____________________________________________________________________________________________________________
\(\displaystyle \bullet \) Sia \(\displaystyle T:X\to X \) un operatore limitato su uno spazio prehilbertiano complesso $X$. Se per ogni \(\displaystyle z\in X \) si ha \(\displaystyle \langle Tz, z\rangle=0 \), allora \(\displaystyle T=0 \). Mostrare con un controesempio che questo è falso per $X$ reale.
Per la prima parte dell'esercizio: ponendo \(\displaystyle X\ni z=x+\alpha y \)[nota]Questo non mi sarebbe venuto in mente, è un suggerimento del testo... ma non capisco perché sia lecito farlo![/nota], si ha \[\displaystyle \langle Tx,x\rangle=\langle T(x+\alpha y),x+\alpha y\rangle=\alpha\langle Tx,y\rangle+\alpha^*\langle Ty,x\rangle; \]ponendo prima \(\displaystyle \alpha=1 \),poi \(\displaystyle \alpha=i \) segue necessariamente \(\displaystyle T=0 \). Per la seconda, considero la rotazione \(\displaystyle R_{\theta}:\mathbb{R}^2\to\mathbb{R}^2 \), con \(\displaystyle \theta=\pi/2 \). Ovviamente \(\displaystyle \langle Tx,x\rangle=0 \) per ogni \(\displaystyle x\in X \), tuttavia \(\displaystyle T\ne 0 \). Insomma, per far uscire il teorema è fondamentale la sesquilinearità del prodotto scalare...
____________________________________________________________________________________________________________
\(\displaystyle \bullet \) \(M=\{y=\{\eta_j\}:\sum_j^k \eta_j=1\}\subset \mathbb{C}^k \) è completo e convesso; determinare il vettore con norma minima in $M$.
Sia $y_n in M$ una successione di vettori di \(\displaystyle \mathbb{C}^n \). Forse è una stupidata quella che sto per dire, ma ci provo. La condizione data su $M$ è "costante", cioè per ogni indice $n$ vale \(\sum\eta^{(n)}_j=1 \). Quindi almeno intuitivamente il sottoinsieme deve essere chiuso (e quindi completo) perché ciò vale sicuramente anche per il limite $y$ della successione... spiegandomi meglio, la somma dei $k$ elementi nella prima posizione deve essere $1$, la somma di quelli nella seconda deve essere ancora $1$, e così via all'infinito. So che non è molto rigoroso...
\(\displaystyle \bullet \) Sia \(\displaystyle \mathcal{H} \) uno spazio di Hilbert, \(\displaystyle M\subset \mathcal{H} \) un sottoinsieme convesso, e \(\displaystyle \{x_n\}\in M \) tale che \(\|x_n\|\to d=\inf_{x\in M}\Vert x\Vert \). Dimostrare che \(\displaystyle x_n \) converge in \(\displaystyle \mathcal{H} \).
Usando l'uguaglianza del parallelogrammo e la convessità di $M$, si ha: \[\displaystyle \Vert x_n-x_m\Vert^2=2\Vert x_n\Vert^2+2\Vert x_m\Vert^2-\Vert x_n+x_m\Vert^2= 4\left(\frac{1}{2}\Vert x_n\Vert^2+\frac{1}{2}\Vert x_m\Vert^2-\left\Vert \frac{x_n+x_m}{2}\right\Vert^2\right)= \ 4\left(\frac{1}{2}\Vert x_n\Vert^2+\frac{1}{2}\Vert x_m\Vert^2-\left\Vert {{\text{successione punti medi}}}\right\Vert^2\right)\to 2d^2+2d^2-4d^2=0, \] dunque $x_n$ è di Cauchy e pertanto convergente in \(\displaystyle \mathcal{H} \).
____________________________________________________________________________________________________________
\(\displaystyle \bullet \) Sia \(\displaystyle T:X\to X \) un operatore limitato su uno spazio prehilbertiano complesso $X$. Se per ogni \(\displaystyle z\in X \) si ha \(\displaystyle \langle Tz, z\rangle=0 \), allora \(\displaystyle T=0 \). Mostrare con un controesempio che questo è falso per $X$ reale.
Per la prima parte dell'esercizio: ponendo \(\displaystyle X\ni z=x+\alpha y \)[nota]Questo non mi sarebbe venuto in mente, è un suggerimento del testo... ma non capisco perché sia lecito farlo![/nota], si ha \[\displaystyle \langle Tx,x\rangle=\langle T(x+\alpha y),x+\alpha y\rangle=\alpha\langle Tx,y\rangle+\alpha^*\langle Ty,x\rangle; \]ponendo prima \(\displaystyle \alpha=1 \),poi \(\displaystyle \alpha=i \) segue necessariamente \(\displaystyle T=0 \). Per la seconda, considero la rotazione \(\displaystyle R_{\theta}:\mathbb{R}^2\to\mathbb{R}^2 \), con \(\displaystyle \theta=\pi/2 \). Ovviamente \(\displaystyle \langle Tx,x\rangle=0 \) per ogni \(\displaystyle x\in X \), tuttavia \(\displaystyle T\ne 0 \). Insomma, per far uscire il teorema è fondamentale la sesquilinearità del prodotto scalare...
____________________________________________________________________________________________________________
\(\displaystyle \bullet \) \(M=\{y=\{\eta_j\}:\sum_j^k \eta_j=1\}\subset \mathbb{C}^k \) è completo e convesso; determinare il vettore con norma minima in $M$.
Sia $y_n in M$ una successione di vettori di \(\displaystyle \mathbb{C}^n \). Forse è una stupidata quella che sto per dire, ma ci provo. La condizione data su $M$ è "costante", cioè per ogni indice $n$ vale \(\sum\eta^{(n)}_j=1 \). Quindi almeno intuitivamente il sottoinsieme deve essere chiuso (e quindi completo) perché ciò vale sicuramente anche per il limite $y$ della successione... spiegandomi meglio, la somma dei $k$ elementi nella prima posizione deve essere $1$, la somma di quelli nella seconda deve essere ancora $1$, e così via all'infinito. So che non è molto rigoroso...
Risposte
Scusa un attimo. Punto 1. Ti stai chiedendo se \(M\) è **chiuso** oppure no, non completo. Questa è una buona domanda, ma non te ne importa niente, tu devi solo mostrare che l'inf è raggiunto, non ti si chiede di dimostrare che sia raggiunto su \(M\).
Inoltre, se non hai usato la convessità, allora staresti dimostrando che tutte le successioni \(x_n\) la cui norma \(\|x_n\|\) è una successione convergente sono esse stesse successioni convergenti. E questa chiaramente è una cavolata.
Quindi rivedi bene quella dimostrazione e vedi di usare la convessità. Fai apparire il punto medio di \(x_n, x_m\). E cancella quella cosa che hai scritto, non si può proprio guardare
(dove va a finire il quadrato al membro sinistro?).
(Quanto a "l'ipotesi di convessità è davvero necessaria"? Se vuoi un esempio interessante, considera la successione \(e_n=(0,0,\ldots, 0,1,0,\ldots)\) nello spazio \(\ell^2\), e considera l'insieme \(M=\{e_n\ :\ n\in\mathbb N\}\)).
Inoltre, se non hai usato la convessità, allora staresti dimostrando che tutte le successioni \(x_n\) la cui norma \(\|x_n\|\) è una successione convergente sono esse stesse successioni convergenti. E questa chiaramente è una cavolata.
Quindi rivedi bene quella dimostrazione e vedi di usare la convessità. Fai apparire il punto medio di \(x_n, x_m\). E cancella quella cosa che hai scritto, non si può proprio guardare

(Quanto a "l'ipotesi di convessità è davvero necessaria"? Se vuoi un esempio interessante, considera la successione \(e_n=(0,0,\ldots, 0,1,0,\ldots)\) nello spazio \(\ell^2\), e considera l'insieme \(M=\{e_n\ :\ n\in\mathbb N\}\)).
Ah, ora ho capito (credo). Ho modificato il post
non so perché prima $x_n$ e $x_m$ si sono trasformati in $x$ e $y$...

Oooh, adesso si.
Comunque, il secondo esercizio va bene, il terzo invece non si capisce molto, neanche la traccia. Se \(\eta_j\) sono vettori di numeri complessi, cosa significa che la loro somma vale \(1\)?
Ah forse ho capito. Vuoi dire che la somma delle componenti vale uno. In pratica è il sottospazio affine individuato dall'equazione
\[
\eta_1 + \eta_2 +\dots + \eta_k=1, \]
dove \((\eta_1, \eta_2,\ldots, \eta_k)\in \mathbb C^k\). Il fatto che questo insieme sia convesso e chiuso è praticamente ovvio, la cosa interessante secondo me è determinare l'elemento o gli elementi di norma minima.
Questo è praticamente un esercizio di geometria, ma lo puoi vedere pure come un esercizio di ottimizzazione (ricerca di massimi e minimi). O imponi l'ortogonalità oppure calcoli qualche derivata.
Ah forse ho capito. Vuoi dire che la somma delle componenti vale uno. In pratica è il sottospazio affine individuato dall'equazione
\[
\eta_1 + \eta_2 +\dots + \eta_k=1, \]
dove \((\eta_1, \eta_2,\ldots, \eta_k)\in \mathbb C^k\). Il fatto che questo insieme sia convesso e chiuso è praticamente ovvio, la cosa interessante secondo me è determinare l'elemento o gli elementi di norma minima.
Questo è praticamente un esercizio di geometria, ma lo puoi vedere pure come un esercizio di ottimizzazione (ricerca di massimi e minimi). O imponi l'ortogonalità oppure calcoli qualche derivata.
Mi piacerebbe provare l'approccio di ottimizzazione, ma ho bisogno di una mano. In pratica, c'è da derivare la funzione norma \(\displaystyle g(\mathbf{x})=\Vert \mathbf{x}\Vert:\mathbb{C}^k\to\mathbb{R}^+ \) rispetto ad ogni possibile vettore \(\displaystyle \mathbf{x}=(x_1,x_2,...,x_k)\in\mathbb{C}^k \) tale che \(\sum_i^k x_i=1\). Cioè, devo porre \(\displaystyle \nabla g(\mathbf{x})=0 \) e vedere cosa succede.
Tuttavia ho difficoltà a calcolare l'ennesima derivata \[\partial_n g(\mathbf{x})=\partial_n\left(\sum_i^k|x_i|^2\right)^{\frac{1}{2}}, \] o almeno, mi viene un risultato assurdo, quindi penso ci sia qualcosa che non vada nell'impostazione...
Tuttavia ho difficoltà a calcolare l'ennesima derivata \[\partial_n g(\mathbf{x})=\partial_n\left(\sum_i^k|x_i|^2\right)^{\frac{1}{2}}, \] o almeno, mi viene un risultato assurdo, quindi penso ci sia qualcosa che non vada nell'impostazione...
No, no e no. Devi essere MOLTO più preciso, a volte le spari letteralmente.
Comincia a risolvere il modello giocattolo in \(\mathbb R^2\): trova il punto di minima distanza dall'origine nell'insieme
\[
A:= \left\{ (x, y)\in \mathbb R^2\ :\ x+y=1\right\}.\]
La distanza dall'origine al quadrato è la funzione \(f(x, y)=x^2+y^2\); chiaramente è equivalente minimizzare questa o la sua radice quadrata, e quindi prendiamo questa per semplificare i conti.
La minimizzazione va fatta su \(A\), non su tutto \(\mathbb R^2\), quindi non dobbiamo calcolare \(\nabla f\), ma risolvere il problema di moltiplicatori di Lagrange \(\nabla f(x, y)=\mu \nabla g(x, y)\), dove \(g(x, y)=x+y-1\). Questo ti dà i punti critici del problema vincolato e se ce n'è più d'uno devi trovare il minimo.
Questo è un modo, ma ce ne sono altri. Vedi un po' se ti convince
Comincia a risolvere il modello giocattolo in \(\mathbb R^2\): trova il punto di minima distanza dall'origine nell'insieme
\[
A:= \left\{ (x, y)\in \mathbb R^2\ :\ x+y=1\right\}.\]
La distanza dall'origine al quadrato è la funzione \(f(x, y)=x^2+y^2\); chiaramente è equivalente minimizzare questa o la sua radice quadrata, e quindi prendiamo questa per semplificare i conti.
La minimizzazione va fatta su \(A\), non su tutto \(\mathbb R^2\), quindi non dobbiamo calcolare \(\nabla f\), ma risolvere il problema di moltiplicatori di Lagrange \(\nabla f(x, y)=\mu \nabla g(x, y)\), dove \(g(x, y)=x+y-1\). Questo ti dà i punti critici del problema vincolato e se ce n'è più d'uno devi trovare il minimo.
Questo è un modo, ma ce ne sono altri. Vedi un po' se ti convince
Ah giusto, ovviamente non posso comportarmi come se dovessi ottimizzare su un aperto...
Nel caso giocattolo dovrebbe esserci un minimo nel punto \(\displaystyle (1/2,1/2) \), dove \(\displaystyle f(x,y)=1/\sqrt 2 \). Tornando al caso generale, lasciando perdere per ora la radice quadrata devo quindi risolvere \[\displaystyle \nabla\left(\sum_{i=1}|x_i|^2\right)=\mu\nabla\left(\sum_{i=1}^k x_i-1\right). \] Scomponendo, si ha \(\displaystyle \forall n \) l'uguaglianza seguente: \[\displaystyle \partial_n\left(\sum_{i=1}|x_i|^2\right)=2x_n=\mu=\partial_n\left(\sum_{i=1}^k x_i-1\right), \\ \Rightarrow x_n=\frac{\mu}{2}; \] quindi siccome dal vincolo \(\sum_i^k x_i-1=0 \) otteniamo \(k\mu/2=1 \), si ha \(\displaystyle \mu=2/k \) e \(\displaystyle x_i=1/k, \ \forall i=1,...,k \).
Reinstaurando la radice quadrata, il vettore che minimizza la norma è dunque \[\displaystyle \mathbf{x}=\left(\frac{1}{{k}},\frac{1}{{k}},\frac{1}{{k}},...\right). \]

Nel caso giocattolo dovrebbe esserci un minimo nel punto \(\displaystyle (1/2,1/2) \), dove \(\displaystyle f(x,y)=1/\sqrt 2 \). Tornando al caso generale, lasciando perdere per ora la radice quadrata devo quindi risolvere \[\displaystyle \nabla\left(\sum_{i=1}|x_i|^2\right)=\mu\nabla\left(\sum_{i=1}^k x_i-1\right). \] Scomponendo, si ha \(\displaystyle \forall n \) l'uguaglianza seguente: \[\displaystyle \partial_n\left(\sum_{i=1}|x_i|^2\right)=2x_n=\mu=\partial_n\left(\sum_{i=1}^k x_i-1\right), \\ \Rightarrow x_n=\frac{\mu}{2}; \] quindi siccome dal vincolo \(\sum_i^k x_i-1=0 \) otteniamo \(k\mu/2=1 \), si ha \(\displaystyle \mu=2/k \) e \(\displaystyle x_i=1/k, \ \forall i=1,...,k \).
Reinstaurando la radice quadrata, il vettore che minimizza la norma è dunque \[\displaystyle \mathbf{x}=\left(\frac{1}{{k}},\frac{1}{{k}},\frac{1}{{k}},...\right). \]
ATTENZIONE! Stai facendo tutto su \(\mathbb R^k\), comunque va bene per capire, poi vediamo il caso complesso.
Nota che il tuo post è auto-contraddittorio: in \(\mathbb R^2\) trovi come minimizzante \((1/2, 1/2)\) mentre in \(\mathbb R^k\) trovi \((1/\sqrt k, 1/\sqrt k,\ldots ,1/\sqrt k)\), che per \(k=2\) diventa \((1/\sqrt 2, 1/\sqrt2)\). Mettiti d'accordo con te stesso su quale sia la risposta corretta.
Non ti imbranare con le radici quadrate. Chiaramente è lo stesso minimizzare \(\|\mathbf x\|\) o \(\|\mathbf x \|^2\), nel senso che i minimizzanti sono gli stessi...
Nota che il tuo post è auto-contraddittorio: in \(\mathbb R^2\) trovi come minimizzante \((1/2, 1/2)\) mentre in \(\mathbb R^k\) trovi \((1/\sqrt k, 1/\sqrt k,\ldots ,1/\sqrt k)\), che per \(k=2\) diventa \((1/\sqrt 2, 1/\sqrt2)\). Mettiti d'accordo con te stesso su quale sia la risposta corretta.

Non ti imbranare con le radici quadrate. Chiaramente è lo stesso minimizzare \(\|\mathbf x\|\) o \(\|\mathbf x \|^2\), nel senso che i minimizzanti sono gli stessi...
Sono consapevole di star lavorando in \(\displaystyle \mathbb{R}^k \), mentre vabbè ho fatto un po' la solita confusione tra i punti di minimo e il valore della norma (giuro che buona parte viene dalla trascrizione foglio-forum
)... ho modificato.

Stavo pensando a cosa cambia nel passaggio a \(\displaystyle \mathbb{C}^k\). Per quanto sia poco ferrato in analisi complessa, mi sembra ci sia questo ostacolo: la funzione modulo è olomorfa solo nell'origine. Quindi mi crea disagio il passaggio \( \nabla\left(\sum_{i=1}|z_i|^2\right) \). Come lo sbrigo?
Lo sbrighi facendo attenzione a quello che fai: le derivate qui sono reali, come tu stesso hai sottolineato. Infatti, se ci fai caso, il metodo dei moltiplicatori di Lagrange è un metodo reale. Quindi la prima cosa da fare è riscrivere tutto in termini di parte reale e parte immaginaria (\(z_i=x_i+iy_i\)), mettendosi in \(\mathbb R^{2k}\).
Allora dato \(\displaystyle \mathbf{z}=\mathbf{x}+i\mathbf{y} \) provo così: \[ \displaystyle \nabla\left(\sum_{i=1}|z_i|^2\right)= \mu\nabla\left(\sum_{i=1}^k (x_i^2+y_i^2)\right)=\mu\nabla\left(\sum_{i=1}^k ((x_i-1)+iy_i)\right)=\mu\nabla\left(\sum_{i=1}^k z_i-1\right), \] di cui considero prima la parte reale, poi la parte immaginaria. Facendo le derivate rispetto a $x_n$ mi riconduco al caso reale; facendo le derivate rispetto a $y_n$ ottengo invece \[\displaystyle y_n=\frac{\mu k}{2}=1. \] Quindi non essendoci nessuna condizione sulle \(\displaystyle y_i \) l'ennesima componente di \(\displaystyle \mathbf{z} \) si scrive \(\displaystyle x_n+iy_n=\frac{1}{k}+i \), ovvero \[\displaystyle \mathbf{z}=\left(\frac{1}{k}+i,\frac{1}{k}+i,\frac{1}{k}+i,...\right). \] E questo dovrebbe essere (finalmente) il vettore che minimizza la norma in $mathbb(C)^k$.
Peccato che quel vettore non appartiene al tuo insieme. Hai provato a calcolare la somma delle sue componenti? Fa forse 1?
No, certo, ho dimenticato la condizione sulle \(\displaystyle y_i \)... comunque ricapitoliamo un attimo che questa cosa dei moltiplicatori nello spazio complesso la voglio capire per bene.
Il mio dubbio sta nel capire quando separare le componenti reali e quelle immaginarie. In pratica bisogna considerare separatamente i due vettori \(\displaystyle \mathbf{x},\mathbf{y} \) in \(\displaystyle \mathbb{R}^k \) e usare il metodo per ciascuno di questi, con i vincoli rispettivi? In questo caso, \(\displaystyle \mu=\mu_1+i\mu_2 \) va trattato come un numero complesso, no? E nel primo caso ne considero la parte reale, nel secondo quella immaginaria.
Quindi, \(\displaystyle \mathbf{x} \) ha il moltiplicatore \(\displaystyle \mu_1 \) e il vincolo \(g_1=\Re\sum^k z_i=\sum^k x_i=1 \), mentre \(\mathbf{y} \) ha il moltiplicatore \(\displaystyle \mu_2 \) e il vincolo \(g_2=\Im\sum^k z_i=\sum^k y_i=0 \). Quello che è in comune è ovviamente la funzione norma $f$. Quindi considero due funzioni lagrangiane distinte, \(\mathcal{L}_1=f-\mu_1g_1 \) e \(\displaystyle \mathcal{L}_2=f-\mu_2g_2 \), e ne faccio i gradienti rispettivamente rispetto alle componenti $x_i$ e a quelle \(\displaystyle y_i \), per ottenere in totale \(\displaystyle 2k+2 \) equazioni.
E' il procedimento corretto?
Il mio dubbio sta nel capire quando separare le componenti reali e quelle immaginarie. In pratica bisogna considerare separatamente i due vettori \(\displaystyle \mathbf{x},\mathbf{y} \) in \(\displaystyle \mathbb{R}^k \) e usare il metodo per ciascuno di questi, con i vincoli rispettivi? In questo caso, \(\displaystyle \mu=\mu_1+i\mu_2 \) va trattato come un numero complesso, no? E nel primo caso ne considero la parte reale, nel secondo quella immaginaria.
Quindi, \(\displaystyle \mathbf{x} \) ha il moltiplicatore \(\displaystyle \mu_1 \) e il vincolo \(g_1=\Re\sum^k z_i=\sum^k x_i=1 \), mentre \(\mathbf{y} \) ha il moltiplicatore \(\displaystyle \mu_2 \) e il vincolo \(g_2=\Im\sum^k z_i=\sum^k y_i=0 \). Quello che è in comune è ovviamente la funzione norma $f$. Quindi considero due funzioni lagrangiane distinte, \(\mathcal{L}_1=f-\mu_1g_1 \) e \(\displaystyle \mathcal{L}_2=f-\mu_2g_2 \), e ne faccio i gradienti rispettivamente rispetto alle componenti $x_i$ e a quelle \(\displaystyle y_i \), per ottenere in totale \(\displaystyle 2k+2 \) equazioni.
E' il procedimento corretto?
Si, mi pare tu abbia ragione, i vincoli sono due e ci vogliono due moltiplicatori.
Va bene, quindi per \(\displaystyle \mathbf{x} \) il procedimento è identico a quello dell'altro post, mentre per \(\displaystyle \mathbf{y} \) la differenza è che essendo \(\displaystyle \mu_2=0 \) anche \(\displaystyle y_i=0 \) per ogni $i$. Quindi in realtà anche il risultato nel caso complesso è identico a quello reale... mi sto sbagliando ancora?

E perché ti sorprende? Se aggiungi una parte immaginaria ai vettori del tuo insieme convesso, la norma aumenta. Ecco perché quando minimizzi trovi lo stesso risultato che nel caso reale.
Se la metti giù così la rendi imbarazzantemente ovvia
diciamo che lo trovo comunque un po' anticlimatico.

"Lèo":
lo trovo comunque un po' anticlimatico.

Comunque, l'esercizio è finito:

Mille grazie per l'aiuto
