$\int_0^{1} f(x)x^n \text{d} x=0 \quad \forall n\ge0$
Sia [tex]$f\in C ([0,1])$[/tex] tale che [tex]$\int_0^{1} f(x)x^n \text{d} x=0 \quad \forall n\ge0$[/tex]
Mostrare che risulta [tex]$f\equiv0$[/tex].
p.s.: non ho la soluzione
p.p.s: la fonte è un esame di ammissione al Dottorato (università La Sapienza).
Good work!
Mostrare che risulta [tex]$f\equiv0$[/tex].
p.s.: non ho la soluzione
p.p.s: la fonte è un esame di ammissione al Dottorato (università La Sapienza).
Good work!
Risposte
A occhio mi sembra che possa c'entrare una qualche condizione di ortogonalità contro un qualche sistema ortonormale; l'ipotesi data ti sta dicendo infatti che il prodotto scalare $L^2$ tra $f$ e ogni polinomio è nullo.
Si può anche usare il teorema di Weiestrass: essendo lo spazio dei polinomi denso in $L^2[0, 1]$, dall'ipotesi segue che $f$ è ortogonale ad ogni vettore di $L^2[0, 1]$ e quindi è quasi ovunque nulla. Essendo continua, è ovunque nulla. Ma forse ci vuole una risoluzione più elementare?
A dire il vero non lo so.
Gli argomenti che citate voi non li conosco, io pensavo che fosse più elementare (da Analisi1, insomma).
Oggi mi ci sono messo un po' ma non ho risolto granché.
Magari essendo per l'ammissione ad un dottorato però avete ragione voi.
Gli argomenti che citate voi non li conosco, io pensavo che fosse più elementare (da Analisi1, insomma).
Oggi mi ci sono messo un po' ma non ho risolto granché.
Magari essendo per l'ammissione ad un dottorato però avete ragione voi.
Provo a dare una dimostrazione sulla scia del suggerimento di Dissonance:
$f(x)$ e' continua per cui ha Max e minimo:
$m<=f(x)<=M$. Moltiplico per $x^n$ i 2 membri e applico la proprieta'
$m int_( 0)^( 1)x^ndx<= int_(0 )^( 1)f(x)x^n<= int_(0 )^( 1) Mx^n $ che integro:
$ m<=int_(0 )^( 1)f(x)x^n(n+1)<=M$ notiamo che $n+1$ non influisce sul segno della disequazione per cui si puo' procedere
l'integrale sopra di mezzo e' uguale al valore compreso fra il massimo e il minimo della $f(x)$ e quindi esiste un punto $c$ tale che $f(c)=int_(0 )^( 1)f(x)x^n(n+1)$
cioe':$int_(0 )^( 1)f(x)x^n=(f(c))/(n+1)$.
affinche' sia $int_(0 )^( 1)f(x)x^n=(f(c))/(n+1)=0$ deve essere $f(c)=0$
$f(x)$ e' continua per cui ha Max e minimo:
$m<=f(x)<=M$. Moltiplico per $x^n$ i 2 membri e applico la proprieta'
$m int_( 0)^( 1)x^ndx<= int_(0 )^( 1)f(x)x^n<= int_(0 )^( 1) Mx^n $ che integro:
$ m<=int_(0 )^( 1)f(x)x^n(n+1)<=M$ notiamo che $n+1$ non influisce sul segno della disequazione per cui si puo' procedere
l'integrale sopra di mezzo e' uguale al valore compreso fra il massimo e il minimo della $f(x)$ e quindi esiste un punto $c$ tale che $f(c)=int_(0 )^( 1)f(x)x^n(n+1)$
cioe':$int_(0 )^( 1)f(x)x^n=(f(c))/(n+1)$.
affinche' sia $int_(0 )^( 1)f(x)x^n=(f(c))/(n+1)=0$ deve essere $f(c)=0$
Mi sà che questo numero [tex]$c$[/tex] dipenda da [tex]$n$[/tex].
EDIT: Effettivamente sì!
EDIT: Effettivamente sì!

Hai dimostrato che $f(c)=0$ ma devi dimostrare che è così per ogni $c\in[0, 1]$, legendre. Manca un pezzo. Ma forse la tua idea si riesce a recuperare in qualche modo.
Mi è venuta come idea di utilizzare la definizione delle somme integrali inferiori e superiori di tale integrale di Riemann e desumerne che [tex]$f\equiv0$[/tex], ma data l'ora e la mia personale antipatia per i conti demando a domani la messa in pratica!
Hai dimostrato che $f(c)=0$ ma devi dimostrare che è così per ogni $c\in[0, 1]$, legendre. Manca un pezzo. Ma forse la tua idea si riesce a recuperare in qualche modo.
Hai ragione.Infatti ci stavo lavorando contemporaneamente con il teorema della permanenza del segno per dimostrare che $f(x)x^n
Ricordando che le ipotesi sono: [tex]$f\in C^0([0;1];\mathbb{R}),\,\forall n\in\mathbb{N}_0,\,\int_0^1f(x)x^ndx=0$[/tex]; per il teorema di Weierstrass [tex]$\forall [a;b]\subseteq[0;1],\,\min_{[a;b]}f(x)x^n=\exists;\,\max_{[a;b]}f(x)x^n=\exists$[/tex] allora sono considerabili i minimi ed i massimi di tale funzione nei sub-intervalli in [tex]$[0;1]$[/tex].
Si considerino le partizioni [tex]$P=\{[x_k;x_{k+1}]\subseteq[0;1]\mid k\in I_0^{m-1}$[/tex](1)[tex]$\}\in\mathcal{P}_{sub}([0;1])$[/tex](2), ove \(\forall m\in\mathbb{N},\,0=x_03), mentre la somma integrale superiore di [tex]$f(x)x^n$[/tex] in [tex]$[0;1]$[/tex] relativa alla partizione [tex]$P$[/tex] è [tex]$S_P=\sum_{k=0}^{m-1}\max_{[x_k;x_{k+1}]}f(x)x^n\cdot(x_{k+1}-x_k)$[/tex](3).
Si ha che [tex]$\forall P\in\mathcal{P}_{sub}([0;1]);\,(1-0)\cdot s_P=s_p\leq\int_0^1f(x)x^ndx=0\leq S_P=(1-0)\cdot S_P$[/tex], tenendo in conto che [tex]$\forall x\in[0;1];\,\forall n\in\mathbb{N}_0,\,0\leq x^n\leq1$[/tex] si ottiene che [tex]$\min_{[0;1]}f(x)\leq0$[/tex] altrimenti le somme integrali inferiori sarebbero strettamente positive, analogamente si ottiene che [tex]$\max_{[0;1]}f(x)\geq0$[/tex] altrimenti le somme integrali superiori sarebbero strettamente negative; se così non fosse si avrebbe un assurdo.
Da ciò si possono considerare le partizioni [tex]$P\in\mathcal{P}_{sub}([0;1])\mid \forall I\in P,\,\min_If(x)=m_I\leq0,\,\max_If(x)=M_I\geq0$[/tex], essendo [tex]$f$[/tex] uniformemente continua in ogni sub-intervallo di [tex]$P$[/tex], per il teorema di Cantor-Heine; ovvero: [tex]$\forall\epsilon>0,\,\exists\delta(\epsilon)>0\mid\forall x;y\in I,\{|x-y|<\delta(\epsilon)\Rightarrow|f(x)-f(y)|<\epsilon\}$[/tex], essendo [tex]$\lim_{m\to+\infty}diam(I)=0$[/tex](4) per definizione: [tex]$\forall\epsilon>0,\,\exists\nu(\epsilon)\in\mathbb{N}\mid\forall m\geq\nu(\epsilon),\,diam(I)<\epsilon$[/tex]. Combinando queste affermazioni [tex]$\forall\epsilon>0,\,\exists\delta(\epsilon)=\delta>0;\,\nu(\delta)=\nu\in\mathbb{N}\mid\forall m\geq\nu,\,diam(I)<\delta\Rightarrow(\forall x;y\in I,\{|x-y|<\delta\Rightarrow|f(x)-f(y)|<\epsilon\})$[/tex] ovvero [tex]$\forall\epsilon>0,\,\exists\nu(\epsilon)\mathbb{N}\mid\forall m\geq\nu(\epsilon),\,|M_I-m_I|<\epsilon\iff\lim_{m\to+\infty}M_I-m_I=0\iff\lim_{m\to+\infty}M_I=\lim_{m\to+\infty}m_I$[/tex].
Per quanto detto tali limiti non possono che essere [tex]$0$[/tex] sicché [tex]$\forall x\in[0;1],\,f(x)=0$[/tex].
In breve la funzione [tex]$f$[/tex] risulta essere costantemente nulla in ogni sub-intervallo di una partizione di [tex]$[0;1]$[/tex], per cui è costantemente nulla in [tex]$[0;1]$[/tex].
Aspetto riscontri!
§§§
(1) Pongo in questo post [tex]$\forall h\leq k\in\mathbb{N}_0,\,I_h^k=\{i\in\mathbb{N}_0\mid h\leq i\leq k\}$[/tex].
(2) Pongo con \(\forall a
(3) Si dovrebbe considerare l'estremo inferiore\superiore ma per quanto richiamato tale non sarebbe altro che il minimo\massimo assoluto di [tex]$f(x)x^n$[/tex] nel sub-intervallo in esame!
(4) Si definisce diametro di un intervallo chiuso e limitato [tex]$I=[a;b]$[/tex]: [tex]$diam(I)=b-a$[/tex]. I considerati [tex]$m$[/tex] sub-intervalli partizionano [tex]$[0;1]$[/tex] per cui il loro diametro diminuisce all'aumentare di [tex]$m$[/tex].
Si considerino le partizioni [tex]$P=\{[x_k;x_{k+1}]\subseteq[0;1]\mid k\in I_0^{m-1}$[/tex](1)[tex]$\}\in\mathcal{P}_{sub}([0;1])$[/tex](2), ove \(\forall m\in\mathbb{N},\,0=x_0
Si ha che [tex]$\forall P\in\mathcal{P}_{sub}([0;1]);\,(1-0)\cdot s_P=s_p\leq\int_0^1f(x)x^ndx=0\leq S_P=(1-0)\cdot S_P$[/tex], tenendo in conto che [tex]$\forall x\in[0;1];\,\forall n\in\mathbb{N}_0,\,0\leq x^n\leq1$[/tex] si ottiene che [tex]$\min_{[0;1]}f(x)\leq0$[/tex] altrimenti le somme integrali inferiori sarebbero strettamente positive, analogamente si ottiene che [tex]$\max_{[0;1]}f(x)\geq0$[/tex] altrimenti le somme integrali superiori sarebbero strettamente negative; se così non fosse si avrebbe un assurdo.
Da ciò si possono considerare le partizioni [tex]$P\in\mathcal{P}_{sub}([0;1])\mid \forall I\in P,\,\min_If(x)=m_I\leq0,\,\max_If(x)=M_I\geq0$[/tex], essendo [tex]$f$[/tex] uniformemente continua in ogni sub-intervallo di [tex]$P$[/tex], per il teorema di Cantor-Heine; ovvero: [tex]$\forall\epsilon>0,\,\exists\delta(\epsilon)>0\mid\forall x;y\in I,\{|x-y|<\delta(\epsilon)\Rightarrow|f(x)-f(y)|<\epsilon\}$[/tex], essendo [tex]$\lim_{m\to+\infty}diam(I)=0$[/tex](4) per definizione: [tex]$\forall\epsilon>0,\,\exists\nu(\epsilon)\in\mathbb{N}\mid\forall m\geq\nu(\epsilon),\,diam(I)<\epsilon$[/tex]. Combinando queste affermazioni [tex]$\forall\epsilon>0,\,\exists\delta(\epsilon)=\delta>0;\,\nu(\delta)=\nu\in\mathbb{N}\mid\forall m\geq\nu,\,diam(I)<\delta\Rightarrow(\forall x;y\in I,\{|x-y|<\delta\Rightarrow|f(x)-f(y)|<\epsilon\})$[/tex] ovvero [tex]$\forall\epsilon>0,\,\exists\nu(\epsilon)\mathbb{N}\mid\forall m\geq\nu(\epsilon),\,|M_I-m_I|<\epsilon\iff\lim_{m\to+\infty}M_I-m_I=0\iff\lim_{m\to+\infty}M_I=\lim_{m\to+\infty}m_I$[/tex].
Per quanto detto tali limiti non possono che essere [tex]$0$[/tex] sicché [tex]$\forall x\in[0;1],\,f(x)=0$[/tex].
In breve la funzione [tex]$f$[/tex] risulta essere costantemente nulla in ogni sub-intervallo di una partizione di [tex]$[0;1]$[/tex], per cui è costantemente nulla in [tex]$[0;1]$[/tex].
Aspetto riscontri!

§§§
(1) Pongo in questo post [tex]$\forall h\leq k\in\mathbb{N}_0,\,I_h^k=\{i\in\mathbb{N}_0\mid h\leq i\leq k\}$[/tex].
(2) Pongo con \(\forall a
(3) Si dovrebbe considerare l'estremo inferiore\superiore ma per quanto richiamato tale non sarebbe altro che il minimo\massimo assoluto di [tex]$f(x)x^n$[/tex] nel sub-intervallo in esame!
(4) Si definisce diametro di un intervallo chiuso e limitato [tex]$I=[a;b]$[/tex]: [tex]$diam(I)=b-a$[/tex]. I considerati [tex]$m$[/tex] sub-intervalli partizionano [tex]$[0;1]$[/tex] per cui il loro diametro diminuisce all'aumentare di [tex]$m$[/tex].
Se si usa il teorema di Weierstrass, già citato da dissonance, la strada più breve è la seguente.
Ricordiamo che per W. data $g$ continua esiste una successione $(P_n)_n$ di polinomi tale che $P_n\to g$ uniformemente.
Dall'ipotesi $\int_0^1f(x)x^n dx =0$ per ogni $n$ si deduce immediatamente che
$\int_0^1 f(x) P(x) dx =0$ per ogni polinomio $P$
Ne segue che
(*) $\int_0^1 f(x) g(x) dx =0$ per ogni funzione continua $g$,
dato che fissata $g$ e presa $(P_n)_n$ come sopra $0=\int_0^1 f(x)P_n(x) dx \to \int_0^1 f(x)g(x) dx$.
A questo punto è semplice dedurre da (*) che $f$ è identicamente nulla. Se fosse $f(x_0)> 0$ allora $f(x)> 0$ in $]x_0-\epsilon,x_0+\epsilon[$, per $\epsilon>o$ opportuno$.
Se si prende $g$ continua con $g\geq0$,$g(x_0)>0$ e $g(x)=0$ per $x$ fuori da $]x_0-\epsilon,x_0+\epsilon[$ si contraddice (*).
L'idea è quella di dissonance, in effetti, ma il giro per $L^2$ è inutile.
NOTA In realtà ciò che serve è poter trovare polinomi "molto concentrati in un punto": in pratica basterebbe provare che, dato $x_0$ in $[0,1]$, per ogni $\epsilon>0$ esiste un polinomio $P_\epsilon$ tale che $\int_0^1P_\epsilon(x) dx=1$ e $\int_{ {|x-x_0|>\epsilon}}|P_\epsilon(x)| dx<\epsilon$
Ricordiamo che per W. data $g$ continua esiste una successione $(P_n)_n$ di polinomi tale che $P_n\to g$ uniformemente.
Dall'ipotesi $\int_0^1f(x)x^n dx =0$ per ogni $n$ si deduce immediatamente che
$\int_0^1 f(x) P(x) dx =0$ per ogni polinomio $P$
Ne segue che
(*) $\int_0^1 f(x) g(x) dx =0$ per ogni funzione continua $g$,
dato che fissata $g$ e presa $(P_n)_n$ come sopra $0=\int_0^1 f(x)P_n(x) dx \to \int_0^1 f(x)g(x) dx$.
A questo punto è semplice dedurre da (*) che $f$ è identicamente nulla. Se fosse $f(x_0)> 0$ allora $f(x)> 0$ in $]x_0-\epsilon,x_0+\epsilon[$, per $\epsilon>o$ opportuno$.
Se si prende $g$ continua con $g\geq0$,$g(x_0)>0$ e $g(x)=0$ per $x$ fuori da $]x_0-\epsilon,x_0+\epsilon[$ si contraddice (*).
L'idea è quella di dissonance, in effetti, ma il giro per $L^2$ è inutile.
NOTA In realtà ciò che serve è poter trovare polinomi "molto concentrati in un punto": in pratica basterebbe provare che, dato $x_0$ in $[0,1]$, per ogni $\epsilon>0$ esiste un polinomio $P_\epsilon$ tale che $\int_0^1P_\epsilon(x) dx=1$ e $\int_{ {|x-x_0|>\epsilon}}|P_\epsilon(x)| dx<\epsilon$
Non ho capito una cosa, ma se è noto che l'insieme delle potenze di x $1,x,x^2,x^3...$ è una base, anche se non ortogonale, per $L^2(I)$ e quell'integrale significa che i coefficienti per "sviluppare" la f in L2 son tutti nulli, come mai non si può dire che la funzione è identicamente nulla?
Un po' come dire che data una base di $R^3$ se sommo ogni suo elemento con davanti il coefficiente 0, ottengo il vettore nullo.
Un po' come dire che data una base di $R^3$ se sommo ogni suo elemento con davanti il coefficiente 0, ottengo il vettore nullo.
Cosa significa "base non ortogonale" di uno spazio di dimensione infinita, antani? Non è un concetto facile da definire. Ne abbiamo parlato qui.
nel senso che è completa ma tutti gli elementi non sono normali tra loro, ovvero esistono elementi il cui prodotto scalare non è zero...no? ora leggo il link
Intendiamoci, la tua idea è anche giusta e in un certo senso funziona, il problema è definire quei "coefficienti per sviluppare la $f$". Nel caso di un sistema ortonormale completo lo sappiamo fare, sono coefficienti di Fourier; ma con ${1,x,x^2...}$ come si fa?
"antani":
Non ho capito una cosa, ma se è noto che l'insieme delle potenze di x $1,x,x^2,x^3...$ è una base, anche se non ortogonale, per $L^2(I)$ e quell'integrale significa che i coefficienti per "sviluppare" la f in L2 son tutti nulli, come mai non si può dire che la funzione è identicamente nulla?
Un po' come dire che data una base di $R^3$ se sommo ogni suo elemento con davanti il coefficiente 0, ottengo il vettore nullo.
Non capisco bene il tuo problema? Non si è proprio dimostrato che $f$ è nulla? O ti fa specie il quasi ovunque ? Perché se è quello la cosa è semplice - se ti metti in $L^2$ gli oggetti che consideri non sono più funzioni ma classi di equivalenza $[f]$ rispetto alla relazione $f\sim g$ se e solo se $f$ è quasi ovunque eguale a $g$. Dunque se hai che $[f]$ è ortogonale a tutti
gli $[x^n]$ e se dimostri (come in effetti è vero) le combinazioni lineari degli $[x^n]$ generano $L^2$ (nel senso che la chiusura delle combinazioni lineari finite di dà tutto $L^2$) allora $[f]$
è l'elemento nullo di $L^2$ - questo significa che $f\sim0$, ma essendo $f$ continua $f$ è identicamente nulla.
Non so se ho risposto in qualche modo al tuo dubbio.
"dissonance":
Intendiamoci, la tua idea è anche giusta e in un certo senso funziona, il problema è definire quei "coefficienti per sviluppare la $f$". Nel caso di un sistema ortonormale completo lo sappiamo fare, sono coefficienti di Fourier; ma con ${1,x,x^2...}$ come si fa?
E' un po' più complicato... Data una $f$ in $L^2$ e $n$ intero dovresti considerare $f_n$ tale che
$||f-f_n||^2=min{||f-\sum_{j=0}^nc_n x^n||^2: c_0,...,c_n\in RR}$
(cioè la combinazione lineare delle funzioni $1,...,x^n$ che minimizza la distanza $L^2$ da $f$). Vedi facilmente che la $f_n$ è caratterizzata da $
Se $1,...,x^n$ fossero ortogonali i coefficienti si troverebbero ognuno per conto suo - nel caso in esame invece bisogna risolvere un sistema lineare. Il fatto che tale sistema abbia determinante diverso da zero segue sicuramente dall'indipendenza lineare di $1,...,x^n$.
Per il teorema di Weierstrass si ottiene che $f_n\to f$ in $L^2$.
Se sai che $
Ho scritto tutto un po' in fretta e spero che non mi sia sfuggito nulla ....
Mi pare non ti sia sfuggito niente, VG. Ma io volevo sottolineare che è un problema più complicato rispetto al caso ortogonale, e che non ha molte delle proprietà "buone".
Per esempio, è vero che possiamo approssimare ogni $f$ con un polinomio $\sum_{j=0}^n a_j x^j$ bene quanto vogliamo, ma non penso proprio che ci sia qualche risultato di unicità dei coefficienti. Il polinomio di migliore approssimazione di 1° grado potrebbe essere $1+x$ e quello di 2° $1+50x+x^2$, per quanto ne sappiamo. E poi non vedo un criterio facile per la convergenza di una serie infinita di tipo $sum_{j=0}^\infty a_j x^j$, come invece c'è per le somme ortogonali.
Tra l'altro volendo essere ancora più tecnici, mi pare di avere visto tempo fa che il sistema ${1, x, x^2...}$ non è una base di Schauder, nel senso che non si riesce a decomporre ogni $f \in L^2[0, 1]$ in modo unico come $sum_{j=0}^\infty a_j x^j$. Ma qui sto parlando senza la completa cognizione di causa, quindi spero vivamente di non dire fesserie. Sui risultati del capoverso precedente invece sono più sicuro.
Per esempio, è vero che possiamo approssimare ogni $f$ con un polinomio $\sum_{j=0}^n a_j x^j$ bene quanto vogliamo, ma non penso proprio che ci sia qualche risultato di unicità dei coefficienti. Il polinomio di migliore approssimazione di 1° grado potrebbe essere $1+x$ e quello di 2° $1+50x+x^2$, per quanto ne sappiamo. E poi non vedo un criterio facile per la convergenza di una serie infinita di tipo $sum_{j=0}^\infty a_j x^j$, come invece c'è per le somme ortogonali.
Tra l'altro volendo essere ancora più tecnici, mi pare di avere visto tempo fa che il sistema ${1, x, x^2...}$ non è una base di Schauder, nel senso che non si riesce a decomporre ogni $f \in L^2[0, 1]$ in modo unico come $sum_{j=0}^\infty a_j x^j$. Ma qui sto parlando senza la completa cognizione di causa, quindi spero vivamente di non dire fesserie. Sui risultati del capoverso precedente invece sono più sicuro.
Direi con certezza che per ogni $n$ esistono unici $c_{n,j}$, $j=0,1,...,n$ tali che posto $f_n=\sum_{j=0}^n c_{n,j}x^j$ è l'(unico) elemento in
${\sum_{j=0}^nc_jx^j}$ di minima distanza $L^2$ da $f$. Sono anche sicuro che $||f_n-f||^2\to0$.
Quello che mi pare sia diverso rispetto al caso ortogonale è che non vale $c_{n+1,j}=c_{n,j}$ per $j\leq n$.
${\sum_{j=0}^nc_jx^j}$ di minima distanza $L^2$ da $f$. Sono anche sicuro che $||f_n-f||^2\to0$.
Quello che mi pare sia diverso rispetto al caso ortogonale è che non vale $c_{n+1,j}=c_{n,j}$ per $j\leq n$.
Per precisare quanto ho affermato nel post precedente riporto i passaggi principali (che sono gli stessi che si usano nel caso delle basi ortonormali).
All'inizio le basi non compaiono per nulla e si tiene ben distinto il calcolo dei coefficienti dal resto.
Sia $H$ uno spazio di Hilbert e siano $H_n\subset H_{n+1}$ una successione crescente di sottospazi chiusi di dimensione finita (credo che per quello che segue la dimensione finita con conti).
Dati $f$ in $H$ e $n$ intero consideriamo l'elemento $f_n$ in $H_n$ di minima distanza da $f$:
$f_n\in H_n$, $||f_n-f||\leq ||g-f||$ per ogni $g$ in $H_n$.
Allora
(*) $ =0$ per ogni $g$ in $H_n$
(come si vede facilmente per la condizione di minimalità di $g\mapsto ||f-g||^2$). Ne segue
(**) $||f-f_n||^2=||f-f_m||^2+||f_n-f_m||^2$ per ogni $n,m$ con $n\geq m$.
E chiaro che (essendo gli $H_n$ crescenti)) la successione $||f-f_n||^2$ è decrescente e positiva, per cui ha limite finito
e quindi $(||f-f_n||^2)_n$ è una successione di Cauchy in $RR$ - da (**) si deduce che $(f_n)_n$ è una successione di Cauchy in
$H$. Allora $f_n\to\bar f$ per un elemento $\bar f$ di $H$. Per (*) si ha
(***) $ =0$ per ogni $g$ in $\bar H:=\bigcup_{n}H_n$
Se $\bar H$ è denso in $H$ da (***) si deduce $\bar f =f$.
A questo punto uno può chiederersi come sono fatte le $f_n$. Supponiamo che $(e_n)_n$ sia una successione di elementi linearmente indipendenti
e che $H_n$ siano le combinazioni lineari di $e_1,...,e_n$. Allora da (*)
$=$ per $j=1,...,n$
per cui se $f_n=\sum_{k=1}^nc_{n,k}e_j$ si trova
$\sum_{k=1}^nc_{n,k}=$ per $j=1,...,n$
che permette di calcolare i coefficienti (risolvendo il sistema lineare - è chiaro che tale sistema è diagonale nel caso in cui gli $e_j$ siano
ortogonali; comunque il determinante è diverso da zero per l'indipendenza lineare). Notiamo che, se $ =0$ per $j=1,...,n$ allora
$c_{n,1}=...=c_{n,n}=0$ per $j=1,...,n$. Mi sembra, viceversa, che non valga $c_{m,k}=c_{n,k}$ per $k\leq m\leq n$ come sarebbe vero nel caso
ortogonale.
All'inizio le basi non compaiono per nulla e si tiene ben distinto il calcolo dei coefficienti dal resto.
Sia $H$ uno spazio di Hilbert e siano $H_n\subset H_{n+1}$ una successione crescente di sottospazi chiusi di dimensione finita (credo che per quello che segue la dimensione finita con conti).
Dati $f$ in $H$ e $n$ intero consideriamo l'elemento $f_n$ in $H_n$ di minima distanza da $f$:
$f_n\in H_n$, $||f_n-f||\leq ||g-f||$ per ogni $g$ in $H_n$.
Allora
(*) $
(come si vede facilmente per la condizione di minimalità di $g\mapsto ||f-g||^2$). Ne segue
(**) $||f-f_n||^2=||f-f_m||^2+||f_n-f_m||^2$ per ogni $n,m$ con $n\geq m$.
E chiaro che (essendo gli $H_n$ crescenti)) la successione $||f-f_n||^2$ è decrescente e positiva, per cui ha limite finito
e quindi $(||f-f_n||^2)_n$ è una successione di Cauchy in $RR$ - da (**) si deduce che $(f_n)_n$ è una successione di Cauchy in
$H$. Allora $f_n\to\bar f$ per un elemento $\bar f$ di $H$. Per (*) si ha
(***) $
Se $\bar H$ è denso in $H$ da (***) si deduce $\bar f =f$.
A questo punto uno può chiederersi come sono fatte le $f_n$. Supponiamo che $(e_n)_n$ sia una successione di elementi linearmente indipendenti
e che $H_n$ siano le combinazioni lineari di $e_1,...,e_n$. Allora da (*)
$
per cui se $f_n=\sum_{k=1}^nc_{n,k}e_j$ si trova
$\sum_{k=1}^nc_{n,k}
che permette di calcolare i coefficienti (risolvendo il sistema lineare - è chiaro che tale sistema è diagonale nel caso in cui gli $e_j$ siano
ortogonali; comunque il determinante è diverso da zero per l'indipendenza lineare). Notiamo che, se $
$c_{n,1}=...=c_{n,n}=0$ per $j=1,...,n$. Mi sembra, viceversa, che non valga $c_{m,k}=c_{n,k}$ per $k\leq m\leq n$ come sarebbe vero nel caso
ortogonale.
"ViciousGoblin":
[quote="antani"]Non ho capito una cosa, ma se è noto che l'insieme delle potenze di x $1,x,x^2,x^3...$ è una base, anche se non ortogonale, per $L^2(I)$ e quell'integrale significa che i coefficienti per "sviluppare" la f in L2 son tutti nulli, come mai non si può dire che la funzione è identicamente nulla?
Un po' come dire che data una base di $R^3$ se sommo ogni suo elemento con davanti il coefficiente 0, ottengo il vettore nullo.
Non capisco bene il tuo problema? Non si è proprio dimostrato che $f$ è nulla? O ti fa specie il quasi ovunque ? Perché se è quello la cosa è semplice - se ti metti in $L^2$ gli oggetti che consideri non sono più funzioni ma classi di equivalenza $[f]$ rispetto alla relazione $f\sim g$ se e solo se $f$ è quasi ovunque eguale a $g$. Dunque se hai che $[f]$ è ortogonale a tutti
gli $[x^n]$ e se dimostri (come in effetti è vero) le combinazioni lineari degli $[x^n]$ generano $L^2$ (nel senso che la chiusura delle combinazioni lineari finite di dà tutto $L^2$) allora $[f]$
è l'elemento nullo di $L^2$ - questo significa che $f\sim0$, ma essendo $f$ continua $f$ è identicamente nulla.
Non so se ho risposto in qualche modo al tuo dubbio.[/quote]
No mi riferivo al fatto che non avevo capito se era giusto dire quello che ho detto, perchè ho visto che voi avete fatto molti più ragionamenti, o comunque diciamo che "vi siete posti più problemi",mentre il mio è stato un discorso abbastanza semplice (intuitivamente) e buttato lì.
Se poi come dice dissonance è giusto allora già sono tranquillo perchè almeno quel poco che so è corretto, il problema è che tutte le cose che avete detto sulle complicanze di avere "una base non ortonormale" non mi sarebbero mai venute in mente (per mia mancanza, ovviamente)