Mostrare direttamente che un operatore è compatto
Un operatore lineare si dice compatto se applica parti limitate in parti precompatte, ovvero - concretamente - se applica successioni limitate in successioni con una estratta convergente. Il prototipo degli operatori compatti in dimensione infinita è [tex]T\colon \ell^2 \to \ell^2[/tex] definito da
[tex]T(x_n)_{n=1}^\infty=(\alpha_1 x_1, \alpha_2 x_2, \alpha_3 x_3 \ldots )[/tex]
dove [tex](\alpha_n)_{n=1}^\infty[/tex] è una successione infinitesima di numeri reali (ma anche complessi).
Che questo operatore sia compatto si può mostrare facilmente in astratto, per esempio osservando che è il limite (uniforme sulle parti limitate di [tex]\ell^2[/tex]) di una successione di operatori di rango finito. Ma mi sono convinto che sia possibile senza troppi sforzi esibire una dimostrazione diretta, prendendo una successione di norma 1 [tex]\{(x_n^{(1)}), (x_n^{(2)}) \ldots (x_n^{(k)}) \ldots \}[/tex] in [tex]\ell^2[/tex] e trovando una estratta convergente di [tex]Tx^{(k)}[/tex] con un procedimento diagonale.
Solo che finora non ci sono riuscito. A qualcuno viene in mente qualche suggerimento?
[tex]T(x_n)_{n=1}^\infty=(\alpha_1 x_1, \alpha_2 x_2, \alpha_3 x_3 \ldots )[/tex]
dove [tex](\alpha_n)_{n=1}^\infty[/tex] è una successione infinitesima di numeri reali (ma anche complessi).
Che questo operatore sia compatto si può mostrare facilmente in astratto, per esempio osservando che è il limite (uniforme sulle parti limitate di [tex]\ell^2[/tex]) di una successione di operatori di rango finito. Ma mi sono convinto che sia possibile senza troppi sforzi esibire una dimostrazione diretta, prendendo una successione di norma 1 [tex]\{(x_n^{(1)}), (x_n^{(2)}) \ldots (x_n^{(k)}) \ldots \}[/tex] in [tex]\ell^2[/tex] e trovando una estratta convergente di [tex]Tx^{(k)}[/tex] con un procedimento diagonale.
Solo che finora non ci sono riuscito. A qualcuno viene in mente qualche suggerimento?
Risposte
Provo a dare quella che credo essere l'idea (uso le notazioni di dissonance).
Indico con $x^{(k)}$ la successione di componenti $x^{(k)}_n$. Supponiamo che $M:="sup"||x^{(k)}||_{l^2}<+\infty$, allora è facile vedere (
) che $|x^{(k)}_n|\leq M$ per ogni $n$ e $k$.
Dico allora che
(*) per ogni $\epsilon>0$ esiste $\bar n=bar n_\epsilon$ intero tale che PER OGNI $k$ si ha $\sum_{n\geq\bar n}(Tx^{(k)}_n)^2\leq\epsilon$.
Per vederlo basta notare che
$\sum_{n\geq\bar n}(Tx^{(k)}_n)^2\leq"max"_{n\geq\bar n}|\alpha_n|^2\sum_{n\geq\bar n}(x^{(k)}_n)^2l\leq M "max"_{n\geq\bar n}|\alpha_n|^2$
che tende a zero per $\bar n\to\infty$ (ipotesi su $\alpha$).
Ora con un procedimento diagonale si dovrebbe costruire una successione $\sigma_k$ di interi strettamente crescente tale che per ogni la successione (in $k$) $Tx_n^{\sigma_k}$ converge a un certo $x_n$ (notiamo che per ogni $n$ la $Tx_n^{k}$ è limitata in $k$ - il fatto di trovare la $sigma_k$ buona per tutti gli $n$ richiede il procedimento diagonale).
Bisogna far vedere che $x\in l^2$ e che $x^{\sigma_k}\to x$ in $l^2$. Questo non dovrebbe essere difficile usando (*) Se questi indizi non bastano torno domani sulla questione.
Indico con $x^{(k)}$ la successione di componenti $x^{(k)}_n$. Supponiamo che $M:="sup"||x^{(k)}||_{l^2}<+\infty$, allora è facile vedere (

Dico allora che
(*) per ogni $\epsilon>0$ esiste $\bar n=bar n_\epsilon$ intero tale che PER OGNI $k$ si ha $\sum_{n\geq\bar n}(Tx^{(k)}_n)^2\leq\epsilon$.
Per vederlo basta notare che
$\sum_{n\geq\bar n}(Tx^{(k)}_n)^2\leq"max"_{n\geq\bar n}|\alpha_n|^2\sum_{n\geq\bar n}(x^{(k)}_n)^2l\leq M "max"_{n\geq\bar n}|\alpha_n|^2$
che tende a zero per $\bar n\to\infty$ (ipotesi su $\alpha$).
Ora con un procedimento diagonale si dovrebbe costruire una successione $\sigma_k$ di interi strettamente crescente tale che per ogni la successione (in $k$) $Tx_n^{\sigma_k}$ converge a un certo $x_n$ (notiamo che per ogni $n$ la $Tx_n^{k}$ è limitata in $k$ - il fatto di trovare la $sigma_k$ buona per tutti gli $n$ richiede il procedimento diagonale).
Bisogna far vedere che $x\in l^2$ e che $x^{\sigma_k}\to x$ in $l^2$. Questo non dovrebbe essere difficile usando (*) Se questi indizi non bastano torno domani sulla questione.
Bene, credo di esserci. Ho letto, come complemento al tuo post, questo pdf su una dimostrazione diretta della completezza di [tex]\ell^p[/tex]: penso che segnerò questa data sul calendario come "la notte di [tex]\ell^p[/tex]" !!! 
Cerco di formalizzare un pochino la tecnica che hai spiegato:
Sia [tex]\underline{\alpha} = (\alpha_n)_{n\in \mathbb{N}}[/tex] una successione numerica tale che [tex]\alpha_n \to 0[/tex]. Per ogni [tex]\underline{x}=(x_n)_{n \in \mathbb{N}} \in \ell^2[/tex] sia [tex]T\underline{x}=(\alpha_n x_n)_{n \in \mathbb{N}}[/tex].
L'applicazione [tex]T[/tex] così definita è evidentemente un operatore lineare di [tex]\ell^2[/tex] in sé; mostriamo che è anche compatto scegliendo una successione [tex](\underline{x}^{(k)})_{k\in \mathbb{N}}[/tex] tale che [tex]\lVert \underline{x}^{(k)} \rVert_2 \le M[/tex] per ogni [tex]k[/tex], e trovando una estratta convergente di [tex]T\underline{x}^{(k)}[/tex].
Siccome [tex]\lvert \alpha_n x_1^{(k)} \rvert^2 \le\lvert \alpha_n \rvert ^2 M^2[/tex], le successioni numeriche (di indice [tex]k[/tex]) [tex](\alpha_n x_n^{(k)})_{k\in \mathbb{N}}[/tex] hanno una estratta convergente: prendendo estratte in sequenza possiamo costruire una tabella
[tex]\begin{matrix}
\alpha_1 x_1^{(1)} & \alpha_2 x_2^{(1)} & \alpha_3 x_3^{(1)} \ldots \\
\alpha_1 x_1^{(2)} & \alpha_2 x_2^{(2)} & \alpha_3 x_3^{(2)} \ldots \\
\alpha_1 x_1^{(3)} & \alpha_2 x_2^{(3)} & \alpha_3 x_3^{(3)} \ldots \\
\vdots & \vdots & \vdots \\
\downarrow & \downarrow & \downarrow \\
y_1 & y_2 & y_3 & \ldots\\
\end{matrix}[/tex]
(con abuso di notazione continuiamo ad usare l'indice [tex]k[/tex] per le successioni estratte). La successione [tex]\underline{y}=(y_n)_{n\in \mathbb{N}}[/tex] così individuata è in [tex]\ell^2[/tex]: per mostrare questo scegliamo indici [tex]k_N[/tex] come segue
scegliamo [tex]k_1[/tex] tale che [tex]\lvert \alpha_1 x_1^{(k_1)} - y_1 \lvert^2 < 2^{-1}[/tex];
scegliamo [tex]k_2[/tex] tale che [tex]\lvert \alpha_1 x_1^{(k_2)} - y_1 \lvert^2 < 2^{-2},\ \lvert \alpha_2 x_2^{(k_2)} - y_2 \lvert < 2^{-2}[/tex];
[tex]\vdots[/tex]
scegliamo [tex]k_N[/tex] tale che [tex]\lvert \alpha_n x_n^{(k_N)}-y_n \lvert^2 < 2^{-N}[/tex] per ogni [tex]n=1 \ldots N[/tex];
[tex]\vdots[/tex]
allora, dalla [tex]y_n=y_n-\alpha_n x_n^{(k_N)}+\alpha_n x_n^{(k_N)}[/tex] e dalla disuguaglianza di Minkowsky in [tex]\mathbb{C}^N[/tex] ricaviamo che
\[ \sqrt{\sum_{n=1}^N \lvert y_n \rvert^2 } \leq \sqrt{\sum_{n=1}^N \lvert y_n - \alpha_n x_n^{(k_N)} \rvert^2 }+ \sqrt{\sum_{n=1}^N \lvert \alpha_n x_n^{(k_N)}\rvert^2} \leq 1+M\max \{ \alpha_n \mid n\in\mathbb{N}\}\]
cosicché
[tex]\lVert \underline{y} \rVert _2 < \infty[/tex].
Resta da dimostrare che [tex]T\underline{x}^{(k)} \to \underline{y}[/tex]. Per questo ci riconduciamo ad un limite di somma finita sbarazzandoci dei resti [tex]N[/tex]-esimi con opportune stime:
[tex]$\sum_{n=1}^\infty \lvert \alpha_n x_n^{(k)} - y_n \rvert^2 =\left(\sum_{n=1}^{N-1} + \sum_{n=N}^\infty\right) \lvert \alpha_n x_n^{(k)} - y_n \rvert^2[/tex];
la prima somma è ovviamente infinitesima per [tex]k \to \infty[/tex], della seconda possiamo dare una stima indipendente da [tex]k[/tex] osservando che
[tex]$\sum_{n=N}^\infty \lvert \alpha_n x_n^{(k)} - y_n \rvert^2 \leq 2 \sum_{n=N}^\infty \lvert \alpha_n x_n^{(k)} \rvert^2 + 2 \sum_{n=N}^\infty \lvert y_n \rvert^2$[/tex]
e che (questo è il suggerimento di VG) [tex]\sum_{n=N}^\infty \lvert \alpha_n x_n^{(k)} \rvert^2 \leq M \max \{ \alpha_n \mid n \ge N\} \leq \epsilon[/tex] se [tex]N[/tex] è sufficientemente grande. Essendo anche l'altra somma infinitesima per [tex]N \to \infty[/tex] (è il resto [tex]N[/tex]-esimo di una serie convergente), possiamo concludere che
[tex]$\sum_{n=1}^\infty \lvert \alpha_n x_n^{(k)} - y_n \rvert^2 \to 0[/tex] quando [tex]k \to \infty[/tex]. /////

Cerco di formalizzare un pochino la tecnica che hai spiegato:
Sia [tex]\underline{\alpha} = (\alpha_n)_{n\in \mathbb{N}}[/tex] una successione numerica tale che [tex]\alpha_n \to 0[/tex]. Per ogni [tex]\underline{x}=(x_n)_{n \in \mathbb{N}} \in \ell^2[/tex] sia [tex]T\underline{x}=(\alpha_n x_n)_{n \in \mathbb{N}}[/tex].
L'applicazione [tex]T[/tex] così definita è evidentemente un operatore lineare di [tex]\ell^2[/tex] in sé; mostriamo che è anche compatto scegliendo una successione [tex](\underline{x}^{(k)})_{k\in \mathbb{N}}[/tex] tale che [tex]\lVert \underline{x}^{(k)} \rVert_2 \le M[/tex] per ogni [tex]k[/tex], e trovando una estratta convergente di [tex]T\underline{x}^{(k)}[/tex].
Siccome [tex]\lvert \alpha_n x_1^{(k)} \rvert^2 \le\lvert \alpha_n \rvert ^2 M^2[/tex], le successioni numeriche (di indice [tex]k[/tex]) [tex](\alpha_n x_n^{(k)})_{k\in \mathbb{N}}[/tex] hanno una estratta convergente: prendendo estratte in sequenza possiamo costruire una tabella
[tex]\begin{matrix}
\alpha_1 x_1^{(1)} & \alpha_2 x_2^{(1)} & \alpha_3 x_3^{(1)} \ldots \\
\alpha_1 x_1^{(2)} & \alpha_2 x_2^{(2)} & \alpha_3 x_3^{(2)} \ldots \\
\alpha_1 x_1^{(3)} & \alpha_2 x_2^{(3)} & \alpha_3 x_3^{(3)} \ldots \\
\vdots & \vdots & \vdots \\
\downarrow & \downarrow & \downarrow \\
y_1 & y_2 & y_3 & \ldots\\
\end{matrix}[/tex]
(con abuso di notazione continuiamo ad usare l'indice [tex]k[/tex] per le successioni estratte). La successione [tex]\underline{y}=(y_n)_{n\in \mathbb{N}}[/tex] così individuata è in [tex]\ell^2[/tex]: per mostrare questo scegliamo indici [tex]k_N[/tex] come segue
scegliamo [tex]k_1[/tex] tale che [tex]\lvert \alpha_1 x_1^{(k_1)} - y_1 \lvert^2 < 2^{-1}[/tex];
scegliamo [tex]k_2[/tex] tale che [tex]\lvert \alpha_1 x_1^{(k_2)} - y_1 \lvert^2 < 2^{-2},\ \lvert \alpha_2 x_2^{(k_2)} - y_2 \lvert < 2^{-2}[/tex];
[tex]\vdots[/tex]
scegliamo [tex]k_N[/tex] tale che [tex]\lvert \alpha_n x_n^{(k_N)}-y_n \lvert^2 < 2^{-N}[/tex] per ogni [tex]n=1 \ldots N[/tex];
[tex]\vdots[/tex]
allora, dalla [tex]y_n=y_n-\alpha_n x_n^{(k_N)}+\alpha_n x_n^{(k_N)}[/tex] e dalla disuguaglianza di Minkowsky in [tex]\mathbb{C}^N[/tex] ricaviamo che
\[ \sqrt{\sum_{n=1}^N \lvert y_n \rvert^2 } \leq \sqrt{\sum_{n=1}^N \lvert y_n - \alpha_n x_n^{(k_N)} \rvert^2 }+ \sqrt{\sum_{n=1}^N \lvert \alpha_n x_n^{(k_N)}\rvert^2} \leq 1+M\max \{ \alpha_n \mid n\in\mathbb{N}\}\]
cosicché
[tex]\lVert \underline{y} \rVert _2 < \infty[/tex].
Resta da dimostrare che [tex]T\underline{x}^{(k)} \to \underline{y}[/tex]. Per questo ci riconduciamo ad un limite di somma finita sbarazzandoci dei resti [tex]N[/tex]-esimi con opportune stime:
[tex]$\sum_{n=1}^\infty \lvert \alpha_n x_n^{(k)} - y_n \rvert^2 =\left(\sum_{n=1}^{N-1} + \sum_{n=N}^\infty\right) \lvert \alpha_n x_n^{(k)} - y_n \rvert^2[/tex];
la prima somma è ovviamente infinitesima per [tex]k \to \infty[/tex], della seconda possiamo dare una stima indipendente da [tex]k[/tex] osservando che
[tex]$\sum_{n=N}^\infty \lvert \alpha_n x_n^{(k)} - y_n \rvert^2 \leq 2 \sum_{n=N}^\infty \lvert \alpha_n x_n^{(k)} \rvert^2 + 2 \sum_{n=N}^\infty \lvert y_n \rvert^2$[/tex]
e che (questo è il suggerimento di VG) [tex]\sum_{n=N}^\infty \lvert \alpha_n x_n^{(k)} \rvert^2 \leq M \max \{ \alpha_n \mid n \ge N\} \leq \epsilon[/tex] se [tex]N[/tex] è sufficientemente grande. Essendo anche l'altra somma infinitesima per [tex]N \to \infty[/tex] (è il resto [tex]N[/tex]-esimo di una serie convergente), possiamo concludere che
[tex]$\sum_{n=1}^\infty \lvert \alpha_n x_n^{(k)} - y_n \rvert^2 \to 0[/tex] quando [tex]k \to \infty[/tex]. /////