Identità di Parseval e disuguaglianza di Bessel
Sia $H$ uno spazio di Hilbert e sia $S = \{e_i\}_{i=1}^{+\infty} \subset H$ un sistema ortonormale (numerabile) massimale, quindi $H = \bar{"span" S}$ (il soprassegno indica la chiusura). In queste ipotesi, per ogni $h \in H$ risulta
$h = \sum_{i=1}^{+\infty} \alpha_i e_i$
con $\alpha_i = \langle h, e_i \rangle$, di conseguenza
$||h||^2 = \sum_{i=1}^{+\infty} \langle h, e_i \rangle^{2}$ identità di Parseval (1)
e fin qui ci siamo... Sia $V_k = "span" \{e_1, e_2, \ldots, e_k\}$ $k \in \mathbb{N}$, e sia $h_k$ la proiezione ortogonale di $h$ su $V_k$, allora
$h_k = \sum_{i=1}^k \langle h, e_i \rangle e_i$
di conseguenza
$||h_k||^2 = \sum_{i=1}^k \langle h, e_i \rangle^2$ (*)
Dato che $h_k$ e $h$ sono ortogonali, allora
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
Passando al limite per $k \to +\infty$ nella (*) si ottiene
$\sum_{i=1}^{\infty} \langle h, e_i \rangle^2 \le ||h||^2$ disuguaglianza di Bessel (2)
Solo che mi pare proprio di aver sbagliato qualcosa, visto che (1) e (2) mi sembrano siano proprio stessa cosa, a meno del segno $=$ con $\le$... mi potreste dire dove ho toppato?
$h = \sum_{i=1}^{+\infty} \alpha_i e_i$
con $\alpha_i = \langle h, e_i \rangle$, di conseguenza
$||h||^2 = \sum_{i=1}^{+\infty} \langle h, e_i \rangle^{2}$ identità di Parseval (1)
e fin qui ci siamo... Sia $V_k = "span" \{e_1, e_2, \ldots, e_k\}$ $k \in \mathbb{N}$, e sia $h_k$ la proiezione ortogonale di $h$ su $V_k$, allora
$h_k = \sum_{i=1}^k \langle h, e_i \rangle e_i$
di conseguenza
$||h_k||^2 = \sum_{i=1}^k \langle h, e_i \rangle^2$ (*)
Dato che $h_k$ e $h$ sono ortogonali, allora
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
Passando al limite per $k \to +\infty$ nella (*) si ottiene
$\sum_{i=1}^{\infty} \langle h, e_i \rangle^2 \le ||h||^2$ disuguaglianza di Bessel (2)
Solo che mi pare proprio di aver sbagliato qualcosa, visto che (1) e (2) mi sembrano siano proprio stessa cosa, a meno del segno $=$ con $\le$... mi potreste dire dove ho toppato?
Risposte
Grazie per l'intervento!!
Ok per la prima parte del ragionamento
Dire che il sistema ortonormale \(\{u_k\}\) è completo in \(V\) significa (per definizione) affermare che \(V\) coincide con la chiusura topologica (ossia, fatta rispetto alla topologia indotta dalla norma \(\lVert \cdot\rVert\)) del sottospazio vettoriale generato da \(\{u_k\}\), ossia che \(V=\overline{\text{span} \{u_k\}}\) (la barretta indica l'operature di chiusura).
In altre parole, dire che \(\{u_k\}\) è completo in \(V\) equivale a dire che ogni elemento di \(V\) si può approssimare in norma bene quanto si vuole con combinazioni lineari di elementi di \(\{u_k\}\).[/quote]
In pratica se ${u_k\}$ NON fosse completo allora potrei "approssimare bene" solo gli elementi di V che appartengono al sottospazio generato da ${u_k\}$ stesso, mentre la completezza mi assicura di poter "approssimare bene" OGNI elemento di V, giusto?
Inoltre, "approssimare bene" equivale ad affermare che $||x- \sum_{k=1}^n a_k*u_k||$ tende a zero per n che diverge; ma visto che la precedente è valida in tutto V proprio perchè ${u_k\}$ è completo in V, allora posso risalire all'identità di Parseval, dico bene?
PS: scusa la pochezza matematica dei miei ragionamenti, ma sto cercando di metterli il più terra-terra possibile per rendermi chiari i concetti
Ok per la prima parte del ragionamento

"gugo82":
[quote="lobacevskij"]Quel che non mi torna è questo:
se il sistema ${u_k}$ è completo in V (nda. ossia se lo spazio è hilbertiano?)[...]
Dire che il sistema ortonormale \(\{u_k\}\) è completo in \(V\) significa (per definizione) affermare che \(V\) coincide con la chiusura topologica (ossia, fatta rispetto alla topologia indotta dalla norma \(\lVert \cdot\rVert\)) del sottospazio vettoriale generato da \(\{u_k\}\), ossia che \(V=\overline{\text{span} \{u_k\}}\) (la barretta indica l'operature di chiusura).
In altre parole, dire che \(\{u_k\}\) è completo in \(V\) equivale a dire che ogni elemento di \(V\) si può approssimare in norma bene quanto si vuole con combinazioni lineari di elementi di \(\{u_k\}\).[/quote]
In pratica se ${u_k\}$ NON fosse completo allora potrei "approssimare bene" solo gli elementi di V che appartengono al sottospazio generato da ${u_k\}$ stesso, mentre la completezza mi assicura di poter "approssimare bene" OGNI elemento di V, giusto?
Inoltre, "approssimare bene" equivale ad affermare che $||x- \sum_{k=1}^n a_k*u_k||$ tende a zero per n che diverge; ma visto che la precedente è valida in tutto V proprio perchè ${u_k\}$ è completo in V, allora posso risalire all'identità di Parseval, dico bene?
PS: scusa la pochezza matematica dei miei ragionamenti, ma sto cercando di metterli il più terra-terra possibile per rendermi chiari i concetti
"lobacevskij":
[quote="gugo82"][quote="lobacevskij"]Quel che non mi torna è questo:
se il sistema ${u_k}$ è completo in V (nda. ossia se lo spazio è hilbertiano?)[...]
Dire che il sistema ortonormale \(\{u_k\}\) è completo in \(V\) significa (per definizione) affermare che \(V\) coincide con la chiusura topologica (ossia, fatta rispetto alla topologia indotta dalla norma \(\lVert \cdot\rVert\)) del sottospazio vettoriale generato da \(\{u_k\}\), ossia che \(V=\overline{\text{span} \{u_k\}}\) (la barretta indica l'operature di chiusura).
In altre parole, dire che \(\{u_k\}\) è completo in \(V\) equivale a dire che ogni elemento di \(V\) si può approssimare in norma bene quanto si vuole con combinazioni lineari di elementi di \(\{u_k\}\).[/quote]
In pratica se ${u_k\}$ NON fosse completo allora potrei "approssimare bene" solo gli elementi di V che appartengono al sottospazio generato da ${u_k\}$ stesso, mentre la completezza mi assicura di poter "approssimare bene" OGNI elemento di V, giusto?[/quote]
Se \(\{u_k\}\) non fosse completo potresti approssimare con elementi di \(\text{span} \{u_k\}\) solo gli elementi della chiusura \(\overline{\text{span} \{u_k\}}\) (che sarebbe un sottospazio vettoriale chiuso e proprio di \(V\)).
Detto in altri termini ancora, la completezza di \(\{u_k\}\) equivale al fatto che il sottospazio vettoriale \(\text{span} \{u_k\}\) è denso in \(V\) (e quindi "si comporta" come \(\mathbb{Q}\) fa in \(\mathbb{R}\), detto molto alla buona!).
"lobacevskij":
Inoltre, "approssimare bene" equivale ad affermare che $||x- \sum_{k=1}^n a_k*u_k||$ tende a zero per n che diverge; ma visto che la precedente è valida in tutto V proprio perchè ${u_k\}$ è completo in V, allora posso risalire all'identità di Parseval, dico bene?
"Approssimare bene quanto si vuole" vuol dire la seguente cosa: per ogni \(x\in V\) ed ogni \(\varepsilon >0\) esiste un elemento \(u=\sum_{k=1}^N c_k u_k \in \text{span} \{u_k\}\) (ciò vuol dire che esistono \(N \in \mathbb{N}\) e \(c_1,\ldots, c_N \in \mathbb{R}\)) tale che \(\lVert x-u\rVert <\varepsilon\).
In particolare, visto che la migliore approssimazione di \(x\) si trova usando come \(c_k\) i coefficienti di Fourier \(a_k:=\langle x,u_k\rangle\), è evidente che si può migliorare la disuguaglianza precedente semplicemnte minorando il primo membro con \(\lVert x-\sum_{k=1}^N a_ku_k\rVert\); quindi "approssimare bene quanto si vuole" può anche solo significare che per ogni \(\varepsilon >0\) è possibile determinare un \(N\) naturale, sufficientemente grande, in modo che:
\[\tag{1} \left\lVert x-\sum_{k=1}^N a_ku_k \right\rVert <\varepsilon \; .\]
A questo punto la Parseval si ricava facile.
Infatti basta tener presente che la norma soddisfa la disuguaglianza triangolare inversa \(\Big| \lVert y\rVert -\lVert z\rVert \Big|\leq \lVert y-z\rVert\) per ottenere da (1) la seguente: per ogni \(\varepsilon >0\) esiste \(N\in \mathbb{N}\) tale che:
\[ \left| \lVert x\rVert - \sqrt{\sum_{k=1}^N |a_k|^2} \right| =\left| \lVert x\rVert -\left\lVert \sum_{k=1}^N a_ku_K \right\rVert \right|\leq \left\lVert x-\sum_{k=1}^N a_ku_K\right\rVert <\varepsilon\]
ossia \(\sqrt{\sum_{k=1}^{+\infty} |a_k|^2} =\lVert x\rVert\).
Grazie per la pazienza gugo82!!!!
Finalmente ho capito!!!!
PS: comincio a sospettare che tu sia il signor Wolf (Pulp Fiction docet)?

Finalmente ho capito!!!!
PS: comincio a sospettare che tu sia il signor Wolf (Pulp Fiction docet)?
