Identità di Parseval e disuguaglianza di Bessel
Sia $H$ uno spazio di Hilbert e sia $S = \{e_i\}_{i=1}^{+\infty} \subset H$ un sistema ortonormale (numerabile) massimale, quindi $H = \bar{"span" S}$ (il soprassegno indica la chiusura). In queste ipotesi, per ogni $h \in H$ risulta
$h = \sum_{i=1}^{+\infty} \alpha_i e_i$
con $\alpha_i = \langle h, e_i \rangle$, di conseguenza
$||h||^2 = \sum_{i=1}^{+\infty} \langle h, e_i \rangle^{2}$ identità di Parseval (1)
e fin qui ci siamo... Sia $V_k = "span" \{e_1, e_2, \ldots, e_k\}$ $k \in \mathbb{N}$, e sia $h_k$ la proiezione ortogonale di $h$ su $V_k$, allora
$h_k = \sum_{i=1}^k \langle h, e_i \rangle e_i$
di conseguenza
$||h_k||^2 = \sum_{i=1}^k \langle h, e_i \rangle^2$ (*)
Dato che $h_k$ e $h$ sono ortogonali, allora
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
Passando al limite per $k \to +\infty$ nella (*) si ottiene
$\sum_{i=1}^{\infty} \langle h, e_i \rangle^2 \le ||h||^2$ disuguaglianza di Bessel (2)
Solo che mi pare proprio di aver sbagliato qualcosa, visto che (1) e (2) mi sembrano siano proprio stessa cosa, a meno del segno $=$ con $\le$... mi potreste dire dove ho toppato?
$h = \sum_{i=1}^{+\infty} \alpha_i e_i$
con $\alpha_i = \langle h, e_i \rangle$, di conseguenza
$||h||^2 = \sum_{i=1}^{+\infty} \langle h, e_i \rangle^{2}$ identità di Parseval (1)
e fin qui ci siamo... Sia $V_k = "span" \{e_1, e_2, \ldots, e_k\}$ $k \in \mathbb{N}$, e sia $h_k$ la proiezione ortogonale di $h$ su $V_k$, allora
$h_k = \sum_{i=1}^k \langle h, e_i \rangle e_i$
di conseguenza
$||h_k||^2 = \sum_{i=1}^k \langle h, e_i \rangle^2$ (*)
Dato che $h_k$ e $h$ sono ortogonali, allora
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
Passando al limite per $k \to +\infty$ nella (*) si ottiene
$\sum_{i=1}^{\infty} \langle h, e_i \rangle^2 \le ||h||^2$ disuguaglianza di Bessel (2)
Solo che mi pare proprio di aver sbagliato qualcosa, visto che (1) e (2) mi sembrano siano proprio stessa cosa, a meno del segno $=$ con $\le$... mi potreste dire dove ho toppato?
Risposte
Non ho letto tutto, ma l'identita' di Parseval non e' altro che la forma assunta dalla disuguaglianza di Bessel quando il sistema ortonormale e' completo.
Ah, ho capito! La disuguaglianza di Bessel sussiste in ogni sistema ortonormale, non necessariamente massimale. Nel caso di sistema massimale sussite l'uguaglianza, e quella è l'identità di Parseval. Ho capito bene?
In ogni caso grazie Sandokan.
In ogni caso grazie Sandokan.
Giustissimo come al solito quello che ha detto Sandokan, però occhio che c'è qualcosa che non mi quadra nei tuoi passaggi:
non è proprio quello che devi provare? Prima devi vedere che la serie effettivamente converga, poi che nel caso di sistema completo (e solo lì) puoi concludere che la serie (di Fourier) del punto è il punto stesso, eccetera eccetera...
P.S.: Come al solito quello che dico io va preso con le molle, eh
"Tipper":
Sia $H$ uno spazio di Hilbert e sia $S = \{e_i\}_{i=1}^{+\infty} \subset H$ un sistema ortonormale (numerabile) massimale, quindi $H = \bar{"span" S}$ (il soprassegno indica la chiusura). In queste ipotesi, per ogni $h \in H$ risulta
$h = \sum_{i=1}^{+\infty} \alpha_i e_i$
con $\alpha_i = \langle h, e_i \rangle$
non è proprio quello che devi provare? Prima devi vedere che la serie effettivamente converga, poi che nel caso di sistema completo (e solo lì) puoi concludere che la serie (di Fourier) del punto è il punto stesso, eccetera eccetera...
P.S.: Come al solito quello che dico io va preso con le molle, eh

direi di sì
poi vorrei aggiungere questa profonda considerazione:
se so che $x=y$, da questo posso dedurre che $x \le y$...
non hai toppato
hai semplicemente buttato via della info preziosa, quando scrivi che:
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
per scrivere questo la completezza del tuo sistema ortonormale non serve
e poi hai voglia di passare al limite
ormai le info preziose che avevi le hai buttate
poi vorrei aggiungere questa profonda considerazione:
se so che $x=y$, da questo posso dedurre che $x \le y$...
"Tipper":
Dato che $h_k$ e $h$ sono ortogonali, allora
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
Passando al limite per $k \to +\infty$ nella (*) si ottiene
$\sum_{i=1}^{\infty} \langle h, e_i \rangle^2 \le ||h||^2$ disuguaglianza di Bessel (2)
...
mi potreste dire dove ho toppato?
non hai toppato
hai semplicemente buttato via della info preziosa, quando scrivi che:
$||h||^2 = ||h - h_k||^2 + ||h_k||^2 \ge ||h_k||^2$, ovvero $||h_k||^2 \le ||h||$
per scrivere questo la completezza del tuo sistema ortonormale non serve
e poi hai voglia di passare al limite
ormai le info preziose che avevi le hai buttate
Forse mi sbaglio, ma... se suppongo $S$ massimale, allora la chiusura dello span di $S$ coincide con $H$ stesso, dunque per ogni elemento $h \in H$ può essere sviluppato in serie in quel modo lì, o no?
Ma come fai ad essere sicuro che si possa scrivere così, questo ti chiedo io...
@Tipper
ma certo!
l'identità di Parseval è un teorema
solo che non è il max della furbizia dedurre Bessel da Parseval, che è quanto ti voleva far notare amel
ma certo!
l'identità di Parseval è un teorema
solo che non è il max della furbizia dedurre Bessel da Parseval, che è quanto ti voleva far notare amel
Grazie anche a te Fioravante, ora penso proprio di aver capito. La mia perplessità era dovuta al fatto che ritenevo indispensabile che il sistema fosse massimale anche per la disuguaglianza di Bessel, mentre non è così. In tal caso tutto torna (meravogliosamente!
).
Grazie a tutti.

Grazie a tutti.
"Tipper":
Forse mi sbaglio, ma... se suppongo $S$ massimale, allora la chiusura dello span di $S$ coincide con $H$ stesso, dunque per ogni elemento $h \in H$ può essere sviluppato in serie in quel modo lì, o no?
Ottimo. Sottolineo che quello sviluppo in serie si può fare. Però se non suppongo che il sistema è completo la serie di Fourier di $h$ può non essere $h$, benchè esista (almeno per quanto io so).
Ciao.

Io con massimale intendevo completo...
Oops sorry

Ma figurati!

meravogliosamente
lapsus carino e bellissimo neologismo
lapsus carino e bellissimo neologismo
Eh... io ce l'ho con chi ha messo la o accanto alla i...
Però è vero, non è poi così male.


Riesumo questo topic per un chiarimento su una questione che non riesco a risolvere.
Mi è chiaro come si arriva alla disuguaglianza di Bessel
$\sum_{k=1}^n |a_k|^2<=||x||^2$
con x vettore dello spazio pre-hilbertiano V e $a_k=$ componenti del vettore x nel sistema di riferimento ortonormale ${u_k}$ in V; nel caso in cui V abbia dimensione infinita la precedente diviene:
$\sum_{k=1}^infty |a_k|^2<=||x||^2$
e dunque la serie a primo membro dovrebbe essere convergente (primo lievissimo dubbio).
Quel che non mi torna è questo:
se il sistema ${u_k}$ è completo in V (nda. ossia se lo spazio è hilbertiano?), allora:
$||x- \sum_{k=1}^n a_k*u_k||$
tende a 0 con il divergere di n (in uno spazio V di dimensione finita basterebbe far raggiungere ad n la dimensione di V); vale in tal caso:
$\sum_{k=1}^infty |a_k|^2=||x||^2$
Forse qusto discende dal fatto che:
detto V uno spazio vettoriale normato di dim. infinita, allora ${u_1,...,u_n,....}$ è un sistema di riferimento completo per V se, per ogni vettore x di V, in corrispondenza ad ogni $\epsilon>0$ è possibile determinare un indice n e certi coefficienti $c_(n1),...c_(n n)$ t.c.
$||x- \sum_{k=1}^n c_(nk)*u_k||<=epsilon$
ed in tal caso, facendo percorrere ad $epsilon$ una successione $epsilon_n$ convergente a 0, e ponendo $x_n=\sum_{k=1}^n c_(nk)*u_k$ si avrà, in norma:
$\lim_{n \to \infty}x_n=x$
cosa che, se anche fosse, non riesco a capire
Mi è chiaro come si arriva alla disuguaglianza di Bessel
$\sum_{k=1}^n |a_k|^2<=||x||^2$
con x vettore dello spazio pre-hilbertiano V e $a_k=
$\sum_{k=1}^infty |a_k|^2<=||x||^2$
e dunque la serie a primo membro dovrebbe essere convergente (primo lievissimo dubbio).
Quel che non mi torna è questo:
se il sistema ${u_k}$ è completo in V (nda. ossia se lo spazio è hilbertiano?), allora:
$||x- \sum_{k=1}^n a_k*u_k||$
tende a 0 con il divergere di n (in uno spazio V di dimensione finita basterebbe far raggiungere ad n la dimensione di V); vale in tal caso:
$\sum_{k=1}^infty |a_k|^2=||x||^2$
Forse qusto discende dal fatto che:
detto V uno spazio vettoriale normato di dim. infinita, allora ${u_1,...,u_n,....}$ è un sistema di riferimento completo per V se, per ogni vettore x di V, in corrispondenza ad ogni $\epsilon>0$ è possibile determinare un indice n e certi coefficienti $c_(n1),...c_(n n)$ t.c.
$||x- \sum_{k=1}^n c_(nk)*u_k||<=epsilon$
ed in tal caso, facendo percorrere ad $epsilon$ una successione $epsilon_n$ convergente a 0, e ponendo $x_n=\sum_{k=1}^n c_(nk)*u_k$ si avrà, in norma:
$\lim_{n \to \infty}x_n=x$
cosa che, se anche fosse, non riesco a capire

In definitiva, quel che non mi è chiaro è perchè la completezza di ${u_k}$ in V (ossia assumere che V sia hilbertiano?) implichi che:
$||x-\sum_(k=1)^n a_ku_k||$ (*)
tenda a 0 con il divergere di n .
Facendo finta che mi sia chiara la precedente definizione, è giusto questo ragionamento per ricavare l'identità di Parseval?
La relazione
$||x-\sum_(k=1)^n a_ku_k||^2=||x||^2-\sum_(k=1)^n |a_k|^2$
(da cui si poteva risalire alla disuguaglianza di Bessel) diventa, per via della completezza di ${u_k}$ che mi fa tendere (*) a 0 al divergere di n:
$0=||x||^2-\sum_(k=1)^n |a_k|^2$ ===> $||x||^2=\sum_(k=1)^n |a_k|^2$
$||x-\sum_(k=1)^n a_ku_k||$ (*)
tenda a 0 con il divergere di n .
Facendo finta che mi sia chiara la precedente definizione, è giusto questo ragionamento per ricavare l'identità di Parseval?
La relazione
$||x-\sum_(k=1)^n a_ku_k||^2=||x||^2-\sum_(k=1)^n |a_k|^2$
(da cui si poteva risalire alla disuguaglianza di Bessel) diventa, per via della completezza di ${u_k}$ che mi fa tendere (*) a 0 al divergere di n:
$0=||x||^2-\sum_(k=1)^n |a_k|^2$ ===> $||x||^2=\sum_(k=1)^n |a_k|^2$
nessuno che mi sappia aiutare?

"lobacevskij":Ma non lo si richiede a priori o sono io che mi confondo con altro?
...$\sum_{k=1}^infty |a_k|^2<=||x||^2$
e dunque la serie a primo membro dovrebbe essere convergente (primo lievissimo dubbio)...
Innanzitutto grazie per l'intervento
Gli $a_k$ sono le componenti del vettore $x$ nel sistema di rifornimento ortonormale ${u_k}$ dello spazio pre-hilbertiano V; forse è come dici tu, anche se non riesco a capire come inferire la convergenza della precedente serie a partire dalla "costruzione" degli stessi $a_k$.
Comunque sia, per quanto riguarda il primo dubbio, peraltro assai lieve, mi interessava vedere se la conclusione di convergenza a cui ero arrivato era effettivamente giusta: se il mio ragionamento è corretto (e dalle tue parole mi sembra di capire che lo sia), bene; se lo si poteva desumere anche senza sfruttare quella disuguaglianza, tanto meglio

Gli $a_k$ sono le componenti del vettore $x$ nel sistema di rifornimento ortonormale ${u_k}$ dello spazio pre-hilbertiano V; forse è come dici tu, anche se non riesco a capire come inferire la convergenza della precedente serie a partire dalla "costruzione" degli stessi $a_k$.
Comunque sia, per quanto riguarda il primo dubbio, peraltro assai lieve, mi interessava vedere se la conclusione di convergenza a cui ero arrivato era effettivamente giusta: se il mio ragionamento è corretto (e dalle tue parole mi sembra di capire che lo sia), bene; se lo si poteva desumere anche senza sfruttare quella disuguaglianza, tanto meglio

"lobacevskij":
Mi è chiaro come si arriva alla disuguaglianza di Bessel
$\sum_{k=1}^n |a_k|^2<=||x||^2$
con x vettore dello spazio pre-hilbertiano V e $a_k=$ componenti del vettore x nel sistema di riferimento ortonormale ${u_k}$ in V; nel caso in cui V abbia dimensione infinita la precedente diviene:
$\sum_{k=1}^infty |a_k|^2<=||x||^2$
e dunque la serie a primo membro dovrebbe essere convergente (primo lievissimo dubbio).
Ragiona.
Nel caso in cui il sistema ortonormale sia infinito, la disuguaglianza di Bessel \(\sum_{k=1}^n |a_k|^2 \leq \lVert x\rVert^2\) vale per ogni \(n\), ergo la serie \(\sum |a_k|^2\) (che è a termini nonnegativi) ha le somme parziali limitate e dunque...
"lobacevskij":
Quel che non mi torna è questo:
se il sistema ${u_k}$ è completo in V (nda. ossia se lo spazio è hilbertiano?)[...]
Dire che il sistema ortonormale \(\{u_k\}\) è completo in \(V\) significa (per definizione) affermare che \(V\) coincide con la chiusura topologica (ossia, fatta rispetto alla topologia indotta dalla norma \(\lVert \cdot\rVert\)) del sottospazio vettoriale generato da \(\{u_k\}\), ossia che \(V=\overline{\text{span} \{u_k\}}\) (la barretta indica l'operature di chiusura).
In altre parole, dire che \(\{u_k\}\) è completo in \(V\) equivale a dire che ogni elemento di \(V\) si può approssimare in norma bene quanto si vuole con combinazioni lineari di elementi di \(\{u_k\}\).
Questa ed altre definizioni basilari (anche se enunciate nel caso di \(L^2\)) le trovi qui.
"lobacevskij":
se il sistema ${u_k}$ è completo in V allora:
$||x- \sum_{k=1}^n a_k*u_k||$
tende a 0 con il divergere di n (in uno spazio V di dimensione finita basterebbe far raggiungere ad n la dimensione di V); vale in tal caso:
$\sum_{k=1}^infty |a_k|^2=||x||^2$
Forse qusto discende dal fatto che:
detto V uno spazio vettoriale normato di dim. infinita, allora ${u_1,...,u_n,....}$ è un sistema di riferimento completo per V se, per ogni vettore x di V, in corrispondenza ad ogni $\epsilon>0$ è possibile determinare un indice n e certi coefficienti $c_(n1),...c_(n n)$ t.c.
$||x- \sum_{k=1}^n c_(nk)*u_k||<=epsilon$
ed in tal caso, facendo percorrere ad $epsilon$ una successione $epsilon_n$ convergente a 0, e ponendo $x_n=\sum_{k=1}^n c_(nk)*u_k$ si avrà, in norma:
$\lim_{n \to \infty}x_n=x$
cosa che, se anche fosse, non riesco a capire
Quella che citi in seconda battuta è proprio la definizione di sistema ortonormale completo in \(V\), e la tua proprietà discende proprio da quella definizione e da una bellissima proprietà dei coefficienti \(a_k:=\langle x,u_k\rangle\), che è la seguente:
Fissato \(n\), il vettore \(\sum_{k=1}^n a_ku_k \in \text{span} \{u_1,\ldots ,u_n\}\subseteq \text{span} \{u_k\}\) è la migliore approssimazione in norma di \(x\) nel sottospazio generato dai primi \(n\) vettori di \(\{u_k\}\); in altre parole, comunque si fissino scalari \(c_1,\ldots ,c_n\), si ha:
\[\lVert x -\sum_{k=1}^n a_ku_k\rVert \leq \lVert x -\sum_{k=1}^n c_ku_k\rVert\]