Dubbi teorici sulle serie di Fourier

Wintel
Ciao a tutti.
Sto studiando le serie di Fourier e mi da non poco fastidio vedere diversi libri che mi stampano direttamente la "formula" della serie di Fourier senza fare un minimo di ragionamento per ricavarla. E' questo il mio intento, ma mi sono incartato.
Per quanto ho capito fino ad ora il discorso è questo: ho uno spazio $F_n$ delle funzioni continue generato da un sistema di funzioni ortogonali $1/2$, $sin nx$, $cos nx$ per $n=0,1,2,..$;
Ora, fatte queste premesse se prendo una funzione $f$ voglio trovare la migliore approssimazione di tale funzione con una combinazione lineare delle funzioni del mio sistema ortonormale.

Domanda n°1: la base dello spazio $F_n$ deve essere ortogonale, ortonormale o non fa differenza?

Domanda n°2: per poter approssimare una funzione $f$ tramite seni e coseni devo esprimere detta funzione come combinazione lineare delle funzioni della base di $F_n$ oppure devo fare la proiezione ortogonale della funzione $f$ sullo spazio $F_n$? In che modo ottengo l'approssimazione di $f$?

In sostanza non riesco a capire la linea di ragionamento che partendo da uno spazio vettoriale con prodotto scalare si arriva a definire le serie di Fourier.

Qualcuno è in grado di aiutarmi?

Risposte
Quinzio
"Wintel":


Domanda n°1: la base dello spazio $ F_n $ deve essere ortogonale, ortonormale o non fa differenza?

Risp.1 : ortonormale. Se usi un "sistema di misura" che è solo ortogonale è come usare un metro "sbagliato" (più lungo o più corto di quello che dovrebbe essere) per misurare delle distanze.


Domanda n°2: per poter approssimare una funzione $ f $ tramite seni e coseni devo esprimere detta funzione come combinazione lineare delle funzioni della base di $ F_n $ oppure devo fare la proiezione ortogonale della funzione $ f $ sullo spazio $ F_n $?

Risp. 2: le due ipotesi non sono in contraddizione anzi, sono le due operazioni inverse della serie di F.
Fare le proiezioni ortogonali della funzione sui "vettori" equivale a trovare quei coefficienti che poi usi quando fai la combinazione lineare di tutti i "vettori" per ricostruire la funzione.


In che modo ottengo l'approssimazione di $ f $?

Domanda poco chiara.
La migliore risposta potrebbe essere: approssimi $f$ usando quanti più coefficienti riesci a calcolare.

In sostanza non riesco a capire la linea di ragionamento che partendo da uno spazio vettoriale con prodotto scalare si arriva a definire le serie di Fourier.
Qualcuno è in grado di aiutarmi?


Le funzioni elementari che usa la serie di Fourier, cioè i vari seni e coseni, con le loro armoniche, SONO i vettori di uno spazio vettoriale. I coefficienti che calcoli facendo i "famosi" integrali sono i coefficienti dei vari vettori.
Esempio diverso...
se fisso un punto nello spazio e fisso 3 vettori ortonormali $\veci, \vecj, \veck$, la posizione di quel punto può essere espressa tramite 3 coefficienti. Quei 3 coefficienti sono le proiezioni ortogonali del punto sui vettori.

gugo82
Partiamo in un setting più "astratto" (ma nemmeno tanto), cioé mettiamoci in un qualsiasi spazio vettoriale euclideo reale \(\mathbb{E}\) nel quale sia definito un prodotto scalare \(\langle \cdot ,\cdot \rangle \) (cioé una forma bilineare, simmetrica e definita positiva) che induce la norma \(|\mathbf{u}| := \sqrt{\langle \mathbf{u} ,\mathbf{u}\rangle}\) e la distanza \(d(\mathbf{u},\mathbf{v}) := |\mathbf{u} -\mathbf{v}|\).

Fissiamo un sottospazio non banale \(F\subseteq \mathbb{E}\) (sicché \(F\neq \mathbb{E}, \{\mathbf{0}\}\)) che sia finitamente generato (ossia abbia un sistema finito di generatori e, dunque, anche una base finita) ed un vettore \(\mathbf{u}\in \mathbb{E}\) e chiediamoci quale sia il vettore di \(F\) che meglio approssima \(\mathbf{u}\).

Innanzitutto, è bene chiarire il criterio col quale cerchiamo di approssimare il vettore \(\mathbf{u}\)...
Ebbene:
Diciamo che un vettore \(\mathbf{f}\in F\) è la migliore approssimazione di \(\mathbf{u}\) in \(F\) se la distanza tra \(\mathbf{f}\) ed \(\mathbf{u}\) è minore od uguale della distanza di \(\mathbf{u}\) da un altro qualsiasi vettore \(\mathbf{v}\in F\), i.e.:
\[
\mathbf{f} \text{ è la migliore approssimazione di } \mathbf{u} \text{ in } F\quad \stackrel{\text{def.}}{\Leftrightarrow} \quad \forall \mathbf{v}\in F,\ |\mathbf{f}-\mathbf{u}| \leq |\mathbf{v} -\mathbf{u}|\; .
\]

Chiaramente, se \(\mathbf{u}\in F\) allora basta scegliere \(\mathbf{f} = \mathbf{u}\) per soddisfare la definizione ora enunciata; dunque, per evitare casi banali, possiamo supporre che \(\mathbf{u}\notin F\).
Visto che \(F\) è finitamente generato, detta \(n\) la sua dimensione e detta \(B=\{\mathbf{e}^1,\ldots ,\mathbf{e}^n\}\) una sua base (che possiamo supporre ortogonale), è evidente che ogni \(\mathbf{v}\in F\) si può scrivere in unico modo come combinazione lineare di elementi di \(B\), i.e. come:
\[
\mathbf{v} = v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n\; ;
\]
pertanto il problema di determinare la migliore approssimazione di \(\mathbf{u}\) in \(F\) è del tutto equivalente a quello di determinare una \(n\)-upla ordinata \((f_1,\ldots, f_n)\in \mathbb{R}^n\) in modo che:
\[
\forall (v_1,\ldots ,v_n)\in \mathbf{R}^n,\ |f_1\mathbf{e}^1 +\cdots +f_n\mathbf{e}^n-\mathbf{u}| \leq |v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u}|\; ,
\]
cioé è equivalente a minimizzare in \(\mathbb{R}^n\) la funzione:
\[
\Phi (v_1,\ldots, v_n):=|v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u}|\; .
\]

Chiaramente, dato che per definizione di norma:
\[
\Phi (v_1,\ldots, v_n) = \sqrt{\langle v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle}\; ,
\]
e dato che la radice quadrata è una funzione strettamente crescente sui positivi, minimizzare \(\Phi\) equivale a minimizzare \(\Psi:=\Phi^2\), la quale funzione in virtù della bilinearità del prodotto scalare, è un polinomio di secondo grado nelle variabili \(v_1,\ldots ,v_n\):
\[
\Psi (v_1,\ldots ,v_n):=\Phi^2(v_1,\ldots ,v_n) = |\mathbf{e}^1|^2\ v_1^2+\cdots +|\mathbf{e}^n|^2\ v_n^2 - 2\ \langle \mathbf{u} , \mathbf{e}^1\rangle\ v_1-\cdots - 2\ \langle \mathbf{u} , \mathbf{e}^n\rangle\ v_n + |\mathbf{u}|^2\; .
\]
La minimizzazione si fa, ad esempio, coi soliti trucchi di Calcolo Differenziale. Dato che:
\[
\frac{\partial \Psi}{\partial v_k} (v_1,\ldots ,v_n) = 2|\mathbf{e}^k|^2\ v_k - 2\langle \mathbf{u} ,\mathbf{e}^k\rangle \; ,
\]
l'unico punto stazionario per \(\Psi\) è quello di coordinate \(v_k=f_k:=\frac{1}{|\mathbf{e}^k|^2} \langle \mathbf{u} ,\mathbf{e}^k\rangle\) per \(k=1,\ldots ,n\); d'altra parte è:
\[
\frac{\partial^2 \Psi}{\partial v_k\partial v_h} (v_1,\ldots ,v_n) = \begin{cases} 2|\mathbf{e}^k|^2 &\text{, se } k=h\\
0 &\text{, altrimenti}
\end{cases}
\]
dunque la matrice hessiana di \(\Psi\) coincide ovunque con una matrice diagonale a diagonale positiva, perciò essa è ovunque definita positiva; da ciò segue che il punto di coordinate \(f_k=\frac{1}{|\mathbf{e}^k|^2} \langle \mathbf{u} ,\mathbf{e}^k\rangle\) per \(k=1,\ldots ,n\) è un minimo globale per \(\Psi\) e per \(\Phi\), nel senso che:
\[
\forall (v_1,\ldots ,v_n)\in \mathbb{R}^n,\ \Phi \left(\frac{1}{|\mathbf{e}^1|^2}\ \langle \mathbf{u} ,\mathbf{e}^1\rangle , \ldots ,\frac{1}{|\mathbf{e}^n|^2}\ \langle \mathbf{u} ,\mathbf{e}^n\rangle \right) \leq \Phi (v_1,\ldots ,v_n)\; .
\]
Conseguentemente, il vettore:
\[
\mathbf{f} := \frac{1}{|\mathbf{e}^1|^2}\ \langle \mathbf{u} ,\mathbf{e}^1\rangle\ \mathbf{e}^1+\cdots +\frac{1}{|\mathbf{e}^n|^2}\ \langle \mathbf{u} ,\mathbf{e}^n\rangle\ \mathbf{e}^n\; ,
\]
dando il minimo alla distanza da \(\mathbf{u}\) tra tutti i vettori di \(F\), è la migliore approssimazione cercata.

Chiaramente, se \(\mathbf{u}\in F\) allora si ha:
\[
\mathbf{u} = u_1\mathbf{e}^1 +\cdots +u_n\mathbf{e}^n
\]
e perciò:
\[
\langle \mathbf{u},\mathbf{e}^k\rangle = |\mathbf{e}^k|^2\ u_k\; ;
\]
dato che in questo caso già sappiamo che \(\mathbf{f}=\mathbf{u}\), si ha di nuovo \(f_k=\frac{1}{|\mathbf{e}^k|^2} \langle \mathbf{u},\mathbf{e}^k\rangle\) cosicché la formula precedente per ricavare le coordinate della migliore approssimazione continua a valere anche nel caso "banale".

***

Nel caso in esame, hai come spazio vettoriale euclideo reale lo spazio \(L^2(0,2\pi)\) col prodotto scalare:
\[
\langle f,g\rangle := \int_0^{2\pi} f(x)\ g(x)\ \text{d} x\; ,
\]
come \(F\) il sottospazio non banale \(F_n\) (di dimensione \(2n+1\)) generato dal sistema ortogonale \(\{\frac{1}{2}, \sin x,\ cos x,\ldots, \sin nx, \cos nx\}\).
Per quanto provato in precedenza, la migliore approssimazione di una funzione \(u\in L^2(0,2\pi)\) in \(F_n\) è il polinomio trigonometrico che ha per coefficienti i coefficienti di Fourier di \(u\) rispetto al sistema ortogonale scelto in \(F_n\), i.e.:
\[
\frac{1}{\| 1/2\|_2^2}\ \int_0^{2\pi} u(x)\ \frac{1}{2}\ \text{d}x,\ \frac{1}{\| \sin x\|_2^2}\ \int_0^{2\pi} u(x)\ \sin x\ \text{d}x,\ \frac{1}{\| \cos x\|_2^2}\ \int_0^{2\pi} u(x)\ \cos x\ \text{d}x,\ \ldots ,\ \frac{1}{\| \sin nx\|_2^2}\ \int_0^{2\pi} u(x)\ \sin nx\ \text{d}x,\ \frac{1}{\| \cos nx\|_2^2}\ \int_0^{2\pi} u(x)\ \cos nx\ \text{d}x\; .
\]

Wintel
Ciao, innanzitutto vi ringrazio entrambi per le risposte. Non mi sono chiare ancora alcune cose:
1) Visto che avete detto due cose diverse, non ho ancora capito se la base $B=(e^1, e^2, ..., e^n)$ debba essere ortogonale o ortonormale.
2) Non ho capito questo passaggio, cioè non ho capito come si passa da $\ Phi$ a $\ Psi$:

"gugo82":

Chiaramente, dato che per definizione di norma:
\[
\Phi (v_1,\ldots, v_n) = \sqrt{\langle v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle}\; ,\]
e dato che la radice quadrata è una funzione strettamente crescente sui positivi, minimizzare \(\Phi\) equivale a minimizzare \(\Psi:=\Phi^2\), la quale funzione in virtù della bilinearità del prodotto scalare, è un polinomio di secondo grado nelle variabili \(v_1,\ldots ,v_n\):
\[
\Psi (v_1,\ldots ,v_n):=\Phi^2(v_1,\ldots ,v_n) = |\mathbf{e}^1|^2\ v_1^2+\cdots +|\mathbf{e}^n|^2\ v_n^2 - 2\ \langle \mathbf{u} , \mathbf{e}^1\rangle\ v_1-\cdots - 2\ \langle \mathbf{u} , \mathbf{e}^n\rangle\ v_n + |\mathbf{u}|^2\; .
\]


3) Ma questa qui di seguito è la "formula" per la proiezione ortogonale di un vettore $u$ sui vettori della base $B=(e^1, e^2, ..., e^n)$? Se mi rispondi di si ho incastrato tutti i pezzi del puzzle :-D
"gugo82":

\(f_k=\frac{1}{|\mathbf{e}^k|^2} \langle \mathbf{u},\mathbf{e}^k\rangle\)

gugo82
"Wintel":
Ciao, innanzitutto vi ringrazio entrambi per le risposte. Non mi sono chiare ancora alcune cose:
1) Visto che avete detto due cose diverse, non ho ancora capito se la base $B=(e^1, e^2, ..., e^n)$ debba essere ortogonale o ortonormale.

In effetti cambia poco... La proprietà che semplifica di più i conti è la ortogonalità della base, come ho scritto.
Infatti, se guardi bene, le norme degli elementi della base entrano solo come coefficienti moltiplicativi in un paio di passaggi semplici-semplici, quindi se la base è ortogonale ma non è normalizzata non ci sono grosse difficoltà.

"Wintel":
2) Non ho capito questo passaggio, cioè non ho capito come si passa da $\ Phi$ a $\ Psi$:

[quote="gugo82"]
Chiaramente, dato che per definizione di norma:
\[
\Phi (v_1,\ldots, v_n) = \sqrt{\langle v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle}\; ,\]
e dato che la radice quadrata è una funzione strettamente crescente sui positivi, minimizzare \(\Phi\) equivale a minimizzare \(\Psi:=\Phi^2\), la quale funzione in virtù della bilinearità del prodotto scalare, è un polinomio di secondo grado nelle variabili \(v_1,\ldots ,v_n\):
\[
\Psi (v_1,\ldots ,v_n):=\Phi^2(v_1,\ldots ,v_n) = |\mathbf{e}^1|^2\ v_1^2+\cdots +|\mathbf{e}^n|^2\ v_n^2 - 2\ \langle \mathbf{u} , \mathbf{e}^1\rangle\ v_1-\cdots - 2\ \langle \mathbf{u} , \mathbf{e}^n\rangle\ v_n + |\mathbf{u}|^2\; .
\]
[/quote]
Se poni:
\[
\Psi (v_1,\ldots, v_n) := \langle v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle
\]
hai chiaramente:
\[
\Phi (v_1,\ldots ,v_n) =\sqrt{\Psi (v_1,\ldots ,v_n)}\; .
\]
Dato che \(\Psi (v_1,\ldots ,v_n)\geq 0\) per la positività del prodotto scalare e visto che la radice quadrata è una funzione strettamente crescente in \([0,\infty[\), hai:
\[
\Psi (f_1,\ldots ,f_n)\leq \Psi (v_1,\ldots ,v_n)\quad \Leftrightarrow\quad \Phi (f_1,\ldots ,f_n) = \sqrt{\Psi (f_1,\ldots ,f_n) }\leq \sqrt{\Psi (v_1,\ldots ,v_n)}=\Phi (v_1,\ldots ,v_n)
\]
per ogni \((f_1,\ldots ,f_n),(v_1,\ldots, v_n)\in \mathbb{R}^n\) e ciò ti assicura che \(\Phi\) prende minimo (o massimo) in un punto se e solo se anche \(\Psi\) prende minimo (o massimo) in tale punto.

Questo è un trucco che dovresti conoscere da Analisi I.
Tanto per essere più chiaro, considera le funzioni \(\psi (x):=x^2+1\) \(\phi (x):=\sqrt{x^2+1}\); dato che \(\phi (x) = \sqrt{\psi (x)}\), e dato che la componente esterna (cioé la radice) è una funzione strattamente crescente, la \(\phi\) conserva la stessa monotonia di \(\psi\) in ogni intervallo e perciò \(\phi\) ha estremi relativi negli stessi punti in cui li ha \(\psi\).

"Wintel":
3) Ma questa qui di seguito è la "formula" per la proiezione ortogonale di un vettore $u$ sui vettori della base $B=(e^1, e^2, ..., e^n)$? Se mi rispondi di si ho incastrato tutti i pezzi del puzzle :-D
[quote="gugo82"]
\(f_k=\frac{1}{|\mathbf{e}^k|^2} \langle \mathbf{u},\mathbf{e}^k\rangle\)
[/quote]
Certo... E non potrebbe essere altrimenti.
Infatti, non è difficile dimostrare che la migliore approssimazione \(\mathbf{f}\) di \(\mathbf{u}\) su un sottospazio \(F\) (finitamente generato o meno) coincide con la proiezione ortogonale di \(\mathbf{u}\) su \(F\).

Wintel
Continuo a non capire da dove derivi l'uguaglianza tra queste due relazioni; hai elevato il prodotto scalare al quadrato?
"gugo82":


\[{ v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle}\; \] $=$ \[\Phi^2(v_1,\ldots ,v_n) = |\mathbf{e}^1|^2\ v_1^2+\cdots +|\mathbf{e}^n|^2\ v_n^2 - 2\ \langle \mathbf{u} , \mathbf{e}^1\rangle\ v_1-\cdots - 2\ \langle \mathbf{u} , \mathbf{e}^n\rangle\ v_n + |\mathbf{u}|^2\; .
\]


Poi non capisco da dove salti fuori questo vettore $f$:
"gugo82":

\[
\mathbf{f} := \langle \mathbf{u} ,\mathbf{e}^1\rangle\ \mathbf{e}^1+\cdots +\langle \mathbf{u} ,\mathbf{e}^n\rangle\ \mathbf{e}^n\; ,
\]


Cioè essendo le componenti trovate queste qui \(f_k=\frac{1}{|\mathbf{e}_k|^2} \langle \mathbf{u},\mathbf{e}_k\rangle\), non dovrebbe essere così?

$ \mathbf{f}= \frac{1}{|\mathbf{e}_1|^2} \langle \mathbf{u},\mathbf{e}_1\rangle\ \mathbf{e_1} +...+\frac{1}{|\mathbf{e}_n|^2} \langle \mathbf{u},\mathbf{e}_n\rangle\ \mathbf{e_n}$

gugo82
Ma sù, sù...

Dato che \(\Phi(v_1,\ldots, v_n) = \sqrt{\langle v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle }\) è:
\[
\Phi^2(v_1,\ldots, v_n) = \langle v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} , v_1\mathbf{e}^1 +\cdots +v_n\mathbf{e}^n -\mathbf{u} \rangle
\]
e per giungere all'uguaglianza che ho scritto basta usare la bilinearità del prodotto scalare.
Se non lo vedi, fissa \(n=2\) e prova a fare due conti espliciti.

Per quel che riguarda \(\mathbf{f}\) c'è effettivamente un errore di battitura (un copia/incolla riuscito male).
Ora è corretto.

Quinzio
"Wintel":
Ciao, innanzitutto vi ringrazio entrambi per le risposte. Non mi sono chiare ancora alcune cose:
1) Visto che avete detto due cose diverse, non ho ancora capito se la base $ B=(e^1, e^2, ..., e^n) $ debba essere ortogonale o ortonormale.


Esiste un teorema, di cui non darò la dimostrazione :D , che si enuncia così: se ti vengono date due soluzioni diverse di uno stesso problema, di cui una è data da gugo, è molto probabile che quella corretta sia stata data da gugo. :D

Scherzi a parte, come ti è stato spiegato, è questione di fattori moltiplicativi, che possono essere "dimenticati" a patto di sapere che ci sono, e che se vuoi "ricostruire" la funzione originale, vanno applicati. Poi che i vari coefficienti siano calcolati con già questi fattori inglobati, o li si applichi dopo, l'importante è intendersi.
Io, finchè uno non padroneggia bene la tecnica, eviterei di prendere iniziative pericolose.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.