Derivata debole

fu^2
Ciao a tutti! Eccomi tornato, spero di riuscire ad essere presente sul forum come ai "tempi d'oro"!

Propongo un semplice problema, ma istruttivo che mette in luce la derivata debole da un altro punto di vista.

"Sia $f\in L^p(\mathbb{R})$ (indicheremo $L^p$ intendendo $L^p(\mathbb{R}$) e supponiamo che esista il limite $\lim_{h\to 0} \frac{f(x+h)-f(x)}{h}$ rispetto alla norma $L^p$ (*).

Poniamo $Af=\lim_{h\to 0} \frac{f(x+h)-f(x)}{h}$.

Dalla definizione si ha che $A:L^p\to L^p$ è un operatore ben posto con $\text{Dom}(A)=\{f\in L^p: \exists \lim_{h\to 0} \frac{f(x+h)-f(x)}{h} \}$.


Il problema chiede dunque la seguente cosa:
Mostrare che $\text{Dom}(A)=W^{1,p}(\mathbb{R})$ e che $Af=f'$ dove $f'$ indica la derivata debole, ovvero che richiedere l'esistenza della derivata debole è equivalente a richiedere l'esistenza della derivata nello spazio $L^p$".


------

(*) sia $\mathbb{B}$ uno spazio di Banach, allora diciamo che esiste il limite $\lim_{h\to 0} \frac{f(x+h)-f(x)}{h}$ rispetto alla norma $|| * ||_{\mathbb{B}}$ se esiste un elemento $L(f)\in \mathbb{B}$ tale che $ \lim_{h\to 0} ||\frac{f(x+h)-f(x)}{h}-L(f)||=0$

Risposte
fireball1
Azzardo un tentativo di risposta, ma non sono certo che sia giusto.
Allora, quello che sappiamo, definita \(f_h(x):=f(x+h),\,\forall x\in\mathbb R\), è che
\(\displaystyle\frac{f_h-f}{h} \stackrel{L^p}{\rightarrow} Af\), e dobbiamo provare che \(Af\) paga la seguente condizione: \[\int_\mathbb R Af\,\varphi= -\int_\mathbb R f\varphi^\prime,\quad\forall \varphi \in C^\infty_c(\mathbb R)\]
(dove \(C^\infty_c\) significa C infinito a supporto compatto).
Ora, se non ricordo male, convergenza in \(L^p\) implica convergenza debole,
il che significa \[\lim_{h\to0} \int_\mathbb R \frac{f_h - f}{h}\varphi= \int_\mathbb R Af\,\varphi,\quad\forall \varphi \in C^\infty_c (\mathbb R).\]
Ebbene, rimane da provare che \[\lim_{h\to 0} \int_\mathbb R \frac{f_h - f}{h}\,\varphi = -\int_\mathbb R f\,\varphi',\quad\forall \varphi\in C^\infty_c(\mathbb R)\] per finire la dimostrazione.
Con un cambio di variabile, \(x=y+h\), l'integranda a primo membro
diventa \(\displaystyle (f(y+2h)-f(y+h))\frac{\varphi(y+h)}{h} = (f(y+2h)-f(y+h))\frac{\varphi(y+h)-\varphi(y)+\varphi(y)}{h}=\)
\(\displaystyle= -\frac{\varphi(y+h)-\varphi(y)}{h}f(y+h)+ \frac{1}{h}(\varphi(y+h)f(y+2h)-\varphi(y)f(y+h)).\)
Ora \(\displaystyle\int_\mathbb R \left(\varphi(y+h)f(y+2h)-\varphi(y)f(y+h)\right)\,dy = 0\) e resta solo \(\displaystyle -\int_\mathbb R \frac{\varphi(y+h)-\varphi(y)}{h}f(y+h)\,dy\).
Adesso scatta il teorema della convergenza dominata, che permette
di concludere che l'integrale in questione tende a \(\displaystyle -\int_\mathbb R f\varphi'\) quando \(h\to 0\). 8-)

fu^2
direi che ci siamo, manca il viceversa :D

Una cosa: Il fatto che qui tu fossi su $\mathbb{R}$ ha importato qualcosa?... :twisted: :-D

fireball1
Mi aspettavo la domanda sull'influenza del fatto di trovarsi in \(\mathbb R\) sul problema!
Direi di sì, ha importato: se fossimo stati in \(\mathbb R^n\) avremmo dovuto fissare una direzione
precisa per costruire il rapporto incrementale e poi, volendo, avremmo dovuto quantificare "per ogni versore" etc...
Credo che questo avrebbe complicato le cose.
Quanto al viceversa, intendi dimostrare che il rapporto incrementale tende alla derivata debole in \(L^p\)?
Mi sembra un'impresa abbastanza ardua... Credo che la lascerò a qualcun altro. :-D

fu^2
magari su $\mathbb{R}^n$ si riesce anche... li sono ottimista :D

è su un limitato che ho dei dubbi che funzioni (anche perchè quello che ti serve è poter fare dei cambi di variabile che sono dei movimenti rigidi ($x\mapsto x+h$) e quindi ti serve, idealmente, uno spazio illimitato... anche se ...
In questo senso la derivata debole è una "generalizzazione" della derivata in spazi di Banach...

Per il viceversa ehehe...

fu^2
hint:
due strade a disposizione: Una è la classica forza bruta a suo di calcoli.

La seconda è più elegante (ed è quella da cui è nato l'esercizio):

Consideriamo il semigruppo fortemente continuo di traslazioni. Qualè il suo generatore infinitesimo?...

In questo caso c'è una bella soluzione truccosa (mia, stranamente) che senza far calcoli dà la parte restante della soluzione.

Thomas16
Non e' un problema per concludere bene il fatto che la derivata debole come operatore da W(1,p) in W(1,p) non e' definita ovunque?

Come si conclude sono curioso?

Thomas16
So...??????? Volevo chiarirmi questa questione, visto che anche se ne so poco queste faccende mi affascinano....

Vi dico come volevo impostare la questione.

Noi vogliamo vedere per completare il problema che per ogni funzione $f$ di W(1,p) il limite seguente esiste in norma L^2.

$lim_{L^p,h→0} (f(x+h)−f(x))/h$

Vogliamo farlo "senza calcoli". Il semigruppo di cui parla fu^2 credo sia il semigruppo di operatori $U(h)$ t.c.:

$U(h)[f(x)]=f(x+h)$

Questo è ben definito sia il $L^p$ che in W(1,p).

La teoria credo ci dice che l'insieme di definizione del generatore infinitesimo del semigruppo in W(1,p) coincide con le funzioni di W(1,p) per cui esiste il limite:

$lim_{W(1,p),h→0} (f(x+h)−f(x))/h$ (*)

E possiamo usare il fatto che se esiste il limite in $W(1,p)$, allora esiste anche in $L^p$.

FORSE il generatore del gruppo delle traslazioni in W(1,p) è la derivata debole, quindi ci piacerebbe che il dominio della derivata debolte fosse W(1,p), in modo da concludere che esiste in tutto W^(1,p) il limite (*) e quindi anche il limite in L^p. Purtroppo non mi sembra vero che il dominio della derivata debole sia tutto W(1,p), quindi il ragionamento mi sembra non funzionare...

Quante cavolate ho detto? Qualcuno me le può indicare plz???

Thomas16
up!

ho anche provato a contattare fu^2 ma non mi ha più fatto sapere nulla della sua soluzione! C'è qualche novello Andrew Wiles che può spiegarmi come era la soluzione di fu^2-Fermat? :-D

dissonance
"Thomas":
FORSE il generatore del gruppo delle traslazioni in W(1,p) è la derivata debole, quindi ci piacerebbe che il dominio della derivata debolte fosse W(1,p), in modo da concludere che esiste in tutto W^(1,p) il limite (*) e quindi anche il limite in L^p. Purtroppo non mi sembra vero che il dominio della derivata debole sia tutto W(1,p), quindi il ragionamento mi sembra non funzionare...

Perché no...? Secondo me questo è vero. Io non sono un esperto, ho solo imparato qualche trucchetto per uscire vivo da queste questioni anche se rocambolescamente: nello specifico io mi limiterei al caso Hilbertiano \(p=2\) e scriverei

\[(U_t\psi)(x)=\psi(x-t), \qquad \psi \in L^2(\mathbb{R})\]

che, essendo un gruppo a un parametro di operatori unitari, è l'esponenziale di un (unico) operatore autoaggiunto \(A\): \(U_t=e^{i t A}\). (Questo è un fatto non banale che prende il nome di teorema di Stone: http://en.wikipedia.org/wiki/Stone%27s_ ... ary_groups )

Chi è \(A\)? Eh ma a questo punto abbiamo capito il trucco: basta fare la derivata di \(e^{i t A}\) per \(t=0\) ed è facilissimo!!! :-)
Infatti se \(\psi \in C_c^1(\mathbb{R})\) allora chiaramente

\[\lim_{h \to 0} \frac{e^{i hA}\psi(x)-\psi(x)}{h}=\lim_{h \to 0} \frac{\psi(x-h)-\psi(x)}{h}=\frac{d \psi}{dx}(x) \]

e il limite esiste nel senso di \(L^2\), perciò

\[\frac{ d \psi}{dx}(x)=i (A \psi)(x).\]

E quindi su \(C_c^1\) abbiamo ottenuto \(A=-i \frac{d}{dx}\) (che poi, è il famoso operatore momento della meccanica quantistica). Un fisico si fermerebbe qui tutto contento. Ma purtroppo noi siamo matematici e quindi ci dobbiamo sciroppare la questione self-adjointness, ovvero la determinazione di un dominio di auto-aggiunzione per \(A\).

Infatti se ci limitassimo a prendere come dominio di \(A\) il sottospazio \(C_c^1\) non otterremmo un operatore autoaggiunto ma solo un operatore simmetrico. Ad esempio, la funzione \(\varphi(x)=\lvert x \rvert \zeta(x)\) (dove \(\zeta(x)\) è una funzione \(C_c^1\) identicamente uguale ad \(1\) in un intorno di \(0\)) non è nel dominio di \(A\) ma è nel dominio del suo aggiunto: infatti integrando per parti otteniamo [size=85](*)[/size]

\[\left( -i \frac{d \psi}{dx}, \varphi\right)=\left(\psi, -i (\sign(x)\zeta(x)+\lvert x \rvert\zeta'(x))\right), \]

e \(-i (\sign(x)\zeta(x)+\lvert x \rvert\zeta(x))\in L^2\). Quindi l'aggiunto di \((A, \text{Dom}(A)=C_c^1)\) ne è una estensione propria.

Qual è il dominio di questa estensione? Indovinarlo non è difficile: visto che sostanzialmente stiamo prendendo derivate nel senso delle distribuzioni ci aspettiamo che esso sia \(H^1(\mathbb{R})\), lo spazio delle funzioni \(L^2\) la cui derivata distribuzionale è anch'essa \(L^2\). Per dimostrarlo io userei un altro colpo basso e cioè Fourier. Infatti la trasformata di Fourier, definita a questa maniera

\[\tilde{f}(\xi)=\frac{1}{\sqrt{ 2\pi}}\int_{-\infty}^\infty f(x)e^{-i x \xi}\, d\xi, \qquad f \in \mathscr{S}(\mathbb{R}), \]

è un operatore unitario di \(L^2\) in sé, o se preferisci un auto-morfismo di spazio di Hilbert. Quindi possiamo vedere il nostro operatore \(A\) in trasformata e andare a capire là qual è il suo operatore aggiunto. Il gioco vale perché visto in trasformata \(A\) è molto semplice:

\[(\widetilde{A\psi})(x)=\xi \tilde{\psi}(\xi), \qquad \psi \in C_c^1; \]

e qui non c'è molta scelta: per estenderlo, l'unica strada è prendere come dominio le funzioni \(\tilde{\psi} \in L^2\) tali che \(\xi \tilde{\psi}(\xi)\in L^2\). Adesso va bene, perché con questo dominio l'operatore \(\tilde{A}\) è autoaggiunto: infatti è simmetrico e non può più essere esteso in modo simmetrico (non è una dimostrazione formale ma rende l'idea). In conclusione il dominio di autoaggiunzione per \(A\) è quello che, in trasformata, coincide col dominio di autoaggiunzione di \(\tilde{A}\) e, guarda guarda, è proprio lui: lo spazio di Sobolev \(H^1(\mathbb{R})\).

Abbiamo così dimostrato che il gruppo delle traslazioni coincide con \(e^{i t A}\) dove \(A=-i d /dx\) è definito sul dominio \(H^1(\mathbb{R})\).
__________
(*) Dove

\[(\psi, \varphi)=\int_{-\infty}^\infty \overline{\psi(x)}\varphi(x)\, dx.\]

Thomas16
Innanzitutto grazie mille di sicuro mi stampo la risposta e vedo di studiarmela per bene!... Mi piacerebbe sapere maneggiare queste nozioni... Riassumendo dimmi se la linea guida è corretta perfavore:

1) considero il semi-gruppo delle traslazioni su $L^2$;

2) sappiamo che il dominio del generatore infinitesimo e' dato dai vettori per cui esiste il limite (L^2) del problema;

3) proviamo a calcolare il generatore infinitesimo $A$. Questo si vede avere come dominio il sottospazio $H^1$ di $L^2$;

(Poco importa che che il codominio di $A$ non sia $H_1$ vero?);

Quindi si conclude che $H^1$ rappresenta proprio l'insieme cercato nel problema. Ottimo mi pare che così i pezzi del puzzle tornino tutti.

Tu hai usato $p=2$ per il punto (3) quando passi in trasformata vero? In ogni caso ti volevo chiedere, Per il punto tre tu hai se ho ben capito:

1) dimostrato che $A$ deve comportarsi come la derivata sulle funzioni regolari a supporto compatto. Hai definito un operatore $A'$ che si comporta in questo modo su queste funzioni ma hai osservato che non è autoaggiunto;
2) hai trovato una estensione autoaggiunta di $A'$ e posto $A$ uguale a questa estensione;

ma per l'ultimo passaggio non ti servirebbe prima verificare che esiste una unica estesione autoaggiunta di $A'$? Nel senso a priori non potrebbero esserci più estensioni autoaggiunte di $A'$ (e solo una delle tante coinciderebbe con $A$)?

dissonance
"Thomas":
Innanzitutto grazie mille di sicuro mi stampo la risposta e vedo di studiarmela per bene!... Mi piacerebbe sapere maneggiare queste nozioni... Riassumendo dimmi se la linea guida è corretta perfavore:

1) considero il semi-gruppo delle traslazioni su $L^2$;
Si, veramente è proprio un gruppo, non solo un semigruppo. Infatti puoi traslare in avanti ma anche all'indietro, chi te lo impedisce?

(Poco importa che che il codominio di $A$ non sia $H_1$ vero?);
No, del codominio del generatore infinitesimo (ma sarebbe meglio dire rango o immagine del generatore infinitesimo, in questo contesto) non ce ne importa niente.

Tu hai usato $p=2$ per il punto (3) quando passi in trasformata vero?

Quello è l'unico punto in cui \(p=2\) è proprio indispensabile. Però ho usato questa ipotesi anche quando ho scritto \(e^{i t A}\) e quando ho parlato di "operatori autoaggiunti" e di "gruppo di operatori unitari", tutte cose che si fanno negli spazi di Hilbert. Tuttavia queste sono technicalities che, sono sicuro, si possono risolvere. La trasformata invece no, ci aiuta solo in \(L^2\). In ogni caso sono convinto che il risultato sia vero per ogni \(1\le p <+\infty\), sostituendo \(W^{1, p}\) a \(H^1\): bisogna inventarsi una dimostrazione diversa che non usi la trasformata di Fourier e gli altri strumenti propri del caso Hilbertiano.

1) dimostrato che $A$ deve comportarsi come la derivata sulle funzioni regolari a supporto compatto. Hai definito un operatore $A'$ che si comporta in questo modo su queste funzioni ma hai osservato che non è autoaggiunto;
2) hai trovato una estensione autoaggiunta di $A'$ e posto $A$ uguale a questa estensione;

ma per l'ultimo passaggio non ti servirebbe prima verificare che esiste una unica estesione autoaggiunta di $A'$? Nel senso a priori non potrebbero esserci più estensioni autoaggiunte di $A'$ (e solo una delle tante coinciderebbe con $A$)?

Si, certo, sono stato un po' sciatto, era per non entrare troppo nel dettaglio. Il fatto è che noi sappiamo già che esiste un unico operatore \((A, D(A))\) autoaggiunto che genera le traslazioni. Poi ci accorgiamo che la restrizione di \((A, D(A))\) al sottospazio denso \(C_c^1\) di \(L^2\) coincide con l'operatore \((B, D(B))=(-i d/ dx, C_c^1)\). Senonché questo operatore \(B\) è sufficiente a ricostruire completamente \(A\) (si dice che \(D(B)\) è un core per \(A\) ), perché è essenzialmente autoaggiunto nel senso che è simmetrico e il suo aggiunto è autoaggiunto (proprio per dimostrare questa asserzione abbiamo adoperato la trasformata di Fourier):

\[B \subset B^\star = B^{\star \star}\]

Questa proprietà, unita al fatto che \(B \subset A=A^\star\), implica infatti \(B^\star=A\). Questo si vede passando all'aggiunto in \(B\subset A\), ricavando

\[A=A^\star \subset B^\star, \]

e poi di nuovo

\[B^{\star\star}\subset A^{\star\star}, \]

ma siccome \(B^{\star \star}=B^{\star}, A^{\star\star}=A^{\star}\), abbiamo mostrato che \( A^{\star}\subset B^{\star}\subset A^{\star}\). Ecco qua.

Thomas16
Insomma, se ho ben capito quel che hai usato è una proprietà del tipo:

Se un operatore simmetrico possiede un aggiunto che è autoaggiunto, allora:

1) questo operatore possiede unica estensione autoaggiunta;

2) questa estensione autoaggiunta è proprio l'aggiunto dell'operatore iniziale.

---------------
e passare in trasformata ti è servito per calcolare l'aggiunto di $(B,D(B))$ dove l'operatore è più evidente che fa. Poi verifichi che è questo è effettivamente autoaggiunto e quindi coincide con l'unica estensione. Essendo questa estensione di $B$ unica, deve poi coincidere con $A$. Is it right?

dissonance
Proprio così. Si poteva fare anche in tanti altri modi diversi, eh, non prenderla come vangelo. E' un procedimento un po' contorto, si può certamente fare in modo molto più sintetico.

----------

Ad esempio, ora che ci penso, potevamo anche andare subito in trasformata. In trasformata risulta che

\[\widetilde{U_t\psi}(\xi)=e^{-i t\xi}\tilde{\psi}(\xi), \]

e che il seguente limite esiste nel senso di \(L^2\) per convergenza dominata a patto che \(\xi \tilde{\psi}\in L^2\):
\[\lim_{h \to 0} \frac{\widetilde{U_h\psi}(\xi)-\tilde{\psi}(\xi)}{h} = -i\xi \tilde{\psi}(\xi).\]

(EDIT: Inoltre vale pure il viceversa: usando il lemma di Fatou si vede che il limite precedente esiste nel senso di \(L^2\) se e solo se \(\xi \tilde{\psi}\in L^2\)).

Quindi il generatore infinitesimo è, in trasformata, l'operatore che moltiplica per \(\xi\), definito sul più grande dominio su cui è possibile fare questa operazione senza uscire da \(L^2\). Questa è una maniera equivalente di dire che il generatore delle traslazioni è la derivata debole, definita sul dominio \(H^1\). E così abbiamo fatto molto prima, senza tutto quel casino che ho propinato nei post precedenti. :oops:

Thomas16
don't worry tanto sono qui per imparare, nn per trovare il ragionamento più elegante :-D


Del resto se non fossimo in p=2 passare in trasformata sarebbe più complesso credo quindi meglio passarci solo alla fine del procedimento, se si vuol eventualmente provare una generalizzazione :-D

Thomas16
OT: che bello parlare con un matematico che non nasconde nulla sotto al tappeto! :-D (lo dico da fisico)

dissonance
"Thomas":
Del resto se non fossimo in p=2 passare in trasformata sarebbe più complesso credo quindi meglio passarci solo alla fine del procedimento, se si vuol eventualmente provare una generalizzazione :-D

Senti, a quanto ne so la trasformata ti aiuta solo in \(L^2\). Negli altri spazi \(L^p\) si può pure definire ma se \(p >2\) finisce nelle distribuzioni e se \(1\le p <2\) finisce in \(L^{p'}\) con \(p'=p/(p-1)\) e non so quanto conservi dell'unitarietà della trasformata \(L^2\). Di conseguenza queste dimostrazioni vanno fatte senza trasformata.
"Thomas":
OT: che bello parlare con un matematico che non nasconde nulla sotto al tappeto! :-D (lo dico da fisico)
E' reciproco! Mi piace molto confrontarmi con i fisici, a volte ho capito di più da una settimana di lezione tenuta da un bravo fisico che da un intero corso universitario di un mediocre matematico. Il metodo della fisica non è rigoroso e butta tutto sotto al tappeto, ma spesso mette in luce idee che il rigore matematico finisce col nascondere (mi pare che sul libro di MQ di Landau ci sia scritto too much mathematical rigor can be deceiving, e io sono d'accordo).

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.