Compattezza in dimensione infinita
Sto studiando alcuni teoremi di punto fisso, precisamente quello di Brouwer e quello di Schauder. Questo passaggio dalla dimensione finita a quella infinita mi ha fatto venire in mente una domanda:
Sia $E$ uno spazio normato e $K$ un suo sottoinsieme compatto. Definiamo $M="span"(K)$, il più piccolo sottospazio vettoriale di $E$ contenente $K$. Domanda: $M$ è finito-dimensionale?
Sia $E$ uno spazio normato e $K$ un suo sottoinsieme compatto. Definiamo $M="span"(K)$, il più piccolo sottospazio vettoriale di $E$ contenente $K$. Domanda: $M$ è finito-dimensionale?
Risposte
Se prendi il mattone hilbertiano in $l^2$, esso è compatto ma genera tutto $l^2$.
Ah ecco, vedi, quindi non è così banale. Questo "mattone hilbertiano" dovrebbe essere il seguente aggeggio:
[tex]$M=\left\{ \mathbf{x}\in \ell^2 \mid \lvert x_i \rvert^2 \le \frac{1}{2^i} \right\}[/tex]
giusto? E si, in effetti lo span di questo coso è infinito dimensionale. Tra l'altro questo è pure convesso.
[tex]$M=\left\{ \mathbf{x}\in \ell^2 \mid \lvert x_i \rvert^2 \le \frac{1}{2^i} \right\}[/tex]
giusto? E si, in effetti lo span di questo coso è infinito dimensionale. Tra l'altro questo è pure convesso.
Si sarà quello perché mi pare compatto. Provo a dimostrarlo. Consideriamo una successione [tex](\mathbf{x}^{(n)})_{n \ge 1}[/tex] in [tex]M[/tex]. Allora per ogni [tex]i \ge 1[/tex] e per ogni [tex]n[/tex] vale la stima [tex]\lvert x^{(n)}_i \rvert^2 \le 2^{-i}[/tex], cosicché possiamo costruire una tabella
[tex]$ \begin{matrix}
x_1^{(k_1(1))} & x_1^{(k_1(2))} & x_1^{(k_1(3))} & \ldots & \to x_1 \\
x_2^{(k_2(1))} & x_2^{(k_2(2))} & x_2^{(k_2(3))} & \ldots & \to x_2 \\
x_3^{(k_3(1))} & x_3^{(k_3(2))} & x_3^{(k_3(3))} & \ldots & \to x_3 \\
\vdots & & & & \vdots \\
\end{matrix}[/tex]
in cui ogni successione di indici [tex](k_h(n))_{n \ge 1}[/tex] è estratta dalla precedente [tex](k_{h-1}(n))_{n \ge 1}[/tex]. Inoltre vale la stima [tex]\lvert x_i \rvert^2 \le 2^{-i}[/tex], quindi [tex]\mathbf{x}[/tex] è in [tex]M[/tex] e in particolare in [tex]\ell^2[/tex].
Poniamo [tex]y_i^{(n)}:=x_i^{(k_i(n))}[/tex]. La [tex](\mathbf{y}^{(n)})[/tex] è estratta dalla [tex](\mathbf{x}^{(n)})_{n \ge 1}[/tex], mostriamo che essa converge ad [tex]\mathbf{x}[/tex] nel senso di [tex]\ell^2[/tex]. Questa è essenzialmente una conseguenza del teorema di convergenza dominiata. Infatti sia fissato [tex]\varepsilon[/tex].e sia [tex]j \ge 1[/tex] abbastanza grande perché
[tex]$\sum_{i \ge j} 2^{-i} \le \varepsilon[/tex].
Allora
[tex]$\lVert \mathbf{y}^{(n)}-\mathbf{x} \rVert_2^2 \le \underbrace{\sum_{i=1}^j \lvert y_i^{(n)} - x_i \rvert^2}_{\to 0} + \underbrace{\sum_{i > j} \lvert y_i^{(n)} - x_i \rvert^2}_{\le 2 \varepsilon}[/tex]
e il primo addendo è infinitesimo per [tex]n \to \infty[/tex] mentre il secondo è sovrastato da [tex]2 \varepsilon[/tex]. Quindi
[tex]$\lVert \mathbf{y}^{(n)}-\mathbf{x} \rVert_2^2 \to 0[/tex].
[tex]$ \begin{matrix}
x_1^{(k_1(1))} & x_1^{(k_1(2))} & x_1^{(k_1(3))} & \ldots & \to x_1 \\
x_2^{(k_2(1))} & x_2^{(k_2(2))} & x_2^{(k_2(3))} & \ldots & \to x_2 \\
x_3^{(k_3(1))} & x_3^{(k_3(2))} & x_3^{(k_3(3))} & \ldots & \to x_3 \\
\vdots & & & & \vdots \\
\end{matrix}[/tex]
in cui ogni successione di indici [tex](k_h(n))_{n \ge 1}[/tex] è estratta dalla precedente [tex](k_{h-1}(n))_{n \ge 1}[/tex]. Inoltre vale la stima [tex]\lvert x_i \rvert^2 \le 2^{-i}[/tex], quindi [tex]\mathbf{x}[/tex] è in [tex]M[/tex] e in particolare in [tex]\ell^2[/tex].
Poniamo [tex]y_i^{(n)}:=x_i^{(k_i(n))}[/tex]. La [tex](\mathbf{y}^{(n)})[/tex] è estratta dalla [tex](\mathbf{x}^{(n)})_{n \ge 1}[/tex], mostriamo che essa converge ad [tex]\mathbf{x}[/tex] nel senso di [tex]\ell^2[/tex]. Questa è essenzialmente una conseguenza del teorema di convergenza dominiata. Infatti sia fissato [tex]\varepsilon[/tex].e sia [tex]j \ge 1[/tex] abbastanza grande perché
[tex]$\sum_{i \ge j} 2^{-i} \le \varepsilon[/tex].
Allora
[tex]$\lVert \mathbf{y}^{(n)}-\mathbf{x} \rVert_2^2 \le \underbrace{\sum_{i=1}^j \lvert y_i^{(n)} - x_i \rvert^2}_{\to 0} + \underbrace{\sum_{i > j} \lvert y_i^{(n)} - x_i \rvert^2}_{\le 2 \varepsilon}[/tex]
e il primo addendo è infinitesimo per [tex]n \to \infty[/tex] mentre il secondo è sovrastato da [tex]2 \varepsilon[/tex]. Quindi
[tex]$\lVert \mathbf{y}^{(n)}-\mathbf{x} \rVert_2^2 \to 0[/tex].
Sì, il mattone è lui.
Non ho guardato la tua dim. nei dettagli, ma mi sembra sia corretta.
(Credo che il modo più rapido sia quello di far vedere che l'insieme è totalmente limitato; una $\epsilon$ rete la costruisci facilmente tagliando le code da un certo indice in poi.)
Non ho guardato la tua dim. nei dettagli, ma mi sembra sia corretta.
(Credo che il modo più rapido sia quello di far vedere che l'insieme è totalmente limitato; una $\epsilon$ rete la costruisci facilmente tagliando le code da un certo indice in poi.)