Funzioni a variazione limitata e derivata distribuzionale
2 domande in una 1) se ho 2 funzioni f e g che coincidono quasi ovunque e f è a variazione limitata in [a,b] nel senso classico del termine, cioè se il sup delle somme su i |f(xi+1)-f(xi)|al variare della partizione a=x0
2)Sapete dirmi dove posso trovare online dei cenni sulla derivata distribuzionale, o magari definirmela voi ed enunciare (non è necessario dimostrare) le sue proprietà elementari.
Risposte
"thecrazy":
1) se ho 2 funzioni f e g che coincidono quasi ovunque e f è a variazione limitata in [a,b] nel senso classico del termine, cioè se il sup delle somme su i |f(xi+1)-f(xi)|al variare della partizione a=x0
Ovviamente no.
Prendi \(f(x)=0\) in $[0,1]$, che è evidentissimamente a variazione limitata, e modificatela in modo da farla diventare la funzione di Dirichlet:
\[
d(x) := \begin{cases} 1 &\text{, se } x \in \mathbb{Q}\cap [0,1]\\ 0 &\text{, se } x\in [0,1]\setminus \mathbb{Q}\; ;\end{cases}
\]
evidentemente $d=f$ q.o. in $[0,1]$ e però col cavolo che $d$ è a variazione limitata in $[0,1]$!
"thecrazy":
2)Sapete dirmi dove posso trovare online dei cenni sulla derivata distribuzionale, o magari definirmela voi ed enunciare (non è necessario dimostrare) le sue proprietà elementari.
Se vuoi puoi guardare direttamente il libro di Schwarz sulla Teoria delle Distribuzioni... Ma non so che ti serve di preciso.
La definizione è abbastanza semplice di per sé.
Chiamiamo $\mathbb{K} := C_c^\infty (\Omega)$ (qui \(\Omega \subseteq \mathbb{R}\) aperto non vuoto, per esempio) spazio delle funzioni test. tale spazio è naturalmente dotato di una struttura vettoriale, in cui le operazioni di somma e prodotto per lo scalare sono definite puntualmente.
Introduciamo in $\mathbb{K}$ una nozione di convergenza:
Sia $(\phi_n) \subseteq \mathbb{K}$ una successione di funzioni test e $\phi \in \mathbb{K}$.
Se dice che $\phi_n\to \phi$ in $\mathbb{K}$ se e solo se:
[*:2epy11gf] esiste un compatto \(K\subset \Omega\) che contiene tutti i supporti delle \(\phi_n\), i.e. \(\operatorname{supt} \phi_n \subseteq K\) per ogni $n\in \NN$;
[/*:m:2epy11gf]
[*:2epy11gf] le derivate di qualsiasi ordine degli elementi di \((\phi_n)\) convergono uniformemente in $K$ alla corrispondente derivata di \(\phi\), cioè per ogni $h\in \NN$ si ha \(\phi_n^{(h)} \to \phi^{(h)}\) uniformemente in $K$.[/*:m:2epy11gf][/list:u:2epy11gf]
Questa convergenza di funzioni test conserva le buone proprietà algebriche della convergenza usuale (ad esempio se $\phi_n\to \phi$ e \(\psi_n \to \psi\) in $\mathbb{K}$ allora \(\phi_n+\psi_n \to \phi+\psi\) in \(\mathbb{K}\), etc...).
A tal punto puoi introdurre il concetto di distribuzione.
Si chiama distribuzione un qualsiasi funzionale $T:\mathbb{K}\to \RR$ che sia lineare e continuo rispetto alla nozione di convergenza dei test.
Se conveniamo di denotare \(\langle T,\phi\rangle\) il valore che $T$ assume sul test $\phi$ (i.e., poniamo per definizione \(\langle T,\phi\rangle := T[\phi]\)), $T$ è una distribuzione se è tale che:
[list=1][*:2epy11gf] \(\langle T, a\cdot \phi +b\cdot \psi \rangle=a\cdot \langle T, \phi\rangle +b\cdot \langle T, \psi\rangle\) per ogni $a,b\in \RR$ e \(\phi, \psi \in \mathbb{K}\);
[/*:m:2epy11gf]
[*:2epy11gf] se \(\phi_n \to \phi\) in $\mathbb{K}$ allora \(\langle T ,\phi_n\rangle \to \langle T,\phi\rangle\) in $\RR$.[/*:m:2epy11gf][/list:o:2epy11gf]
Nota che la linearità ti consente di dire che basta la continuità della $T$ lungo le sole successioni di test che tendono a zero, cioè ti basta che:
[list=2][*:2epy11gf] se \(\phi_n \to 0\) in $\mathbb{K}$ allora \(\langle T ,\phi_n\rangle \to 0\) in $\RR$.[/*:m:2epy11gf][/list:o:2epy11gf]
La derivata di una distribuzione è definita come segue:
Sia $T$ una distribuzione.
Il funzionale \(T^\prime : \mathbb{K}\to \mathbb{R}\) definito ponendo:
\[
\langle T^\prime ,\phi \rangle := \langle T, -\phi^\prime \rangle
\]
per ogni \(\phi \in \mathbb{K}\) è una distribuzione e si chiama derivata (distribuzionale) di $T$.
e si vede subito che la definizione è ben posta.
Quello che non si capisce è da dove sbuchi fuori tale definizione.
Tuttavia, non è difficile immaginarlo. Prendiamo \(\Omega =]a,b[\) e scegliamo una funzione $f\in C (]a,b[)$; a tale funzione è possibile associare una funzionale $F:\mathbb{K}\to \RR$ ponendo:
\[
\tag{*}
\langle F, \phi \rangle:= \int_a^b f(x)\phi (x)\ \text{d}x
\]
il quale si dimostra immediatamente essere una distribuzione. Se $f\in C^1(]a,b[)$, possiamo considerare anche il funzionale $G$ associato alla funzione $f^\prime$ mediante la (*), cioè:
\[
\langle G,\phi \rangle := \int_a^b f^\prime (x)\phi (x)\ \text{d} x\; ;
\]
poiché $f,\phi \in C^1(]a,b[)$ e poiché \(\operatorname{supt} \phi \subset ]a,b[\), possiamo integrare il secondo membro della precedente per parti, ottenendo:
\[
\langle G,\phi \rangle = \underbrace{\Big[ f(x)\phi (x)\Big]_a^b}_{=0} - \int_a^b f(x) \phi^\prime (x)\ \text{d} x = \int_a^b f(x)\Big( -\phi^\prime (x)\Big)\ \text{d} x = \langle F, -\phi^\prime \rangle\; ,
\]
da cui consegue che il funzionale $G$ associato $f^\prime$ coincide con la derivata (distribuzionale) $F^\prime$ del funzionale $F$ associato ad $f$.
E, d'altra parte, non è difficile intuire che se $g$ è una funzione continua tale che $F^\prime$ è associato a $g$ allora si ha $g=f^\prime$ ovunque in $]a,b[$.
Da ciò segue che se una distribuzione $T$ è associata ad una funzione $C^1$ mediante una relazione del tipo (*) (distribuzioni di tal fatta si chiamano anche distribuzioni regolari), allora la sua derivata distribuzionale coincide con la distribuzione associata alla derivata della funzione.
Dalla definizione di derivata distribuzionale segue che tutte le distribuzioni sono derivabili, e questo differenzia immediatamente la derivazione nel senso delle distribuzioni dalle derivate più o meno usuali.
Un'altra conseguenza della definizione è che tutte le distribuzioni sono indefinitamente derivabili, cioè ogni distribuzione ha derivate di ordine comunque elevato; in particolare la derivata distribuzionale $h$-esima di una distribuzione $T$ è la distribuzione $T^{(h)}$ definita ponendo:
\[
\langle T^{(h)}, \phi \rangle := \langle T, (-1)^h\phi^{(h)}\rangle
\]
per \(\phi \in \mathbb{K}\).
Ovviamente, gli operatori di derivazione sono lineari, nel senso che se $T,S$ sono distribuzioni allora la derivata della distribuzione $a\cdot T+b\cdot S$ è combinazione lineare delle derivate di $T$ ed $S$.
Ciò implica che per la derivata distribuzionale valgono tutte le regole algebriche della derivata usuale.
Un'altra cosa che continua a valere è il cosiddetto Teorema di Caratterizzazione delle Funzioni Costanti, che nel caso in esame recita così:
Se $T^\prime$ è il funzionale nullo, i.e. se \(\langle T^\prime ,\phi \rangle =0\) per ogni $\phi \in \mathbb{K}$, allora $T$ è una distribuzione costante, cioè esiste un $c\in \RR$ tale che \(\langle T,\phi \rangle = c\) per ogni \(\phi\).
In particolare ciò importa che se due distribuzioni hanno la stessa derivata, allora esse differiscono per una costante.
La costruzione fatta in dimensione $1$ si può ripetere in dimensione $N$ qualsiasi, avendo l'accortezza di definire le derivate parziali, etc...
Quindi questo significa che d non è a variazione limitata su [0,1] in senso "classico" ma lo è in senso "moderno" o sbaglio? La variazione essenziale di d su (0,1) è 0 essendo d=f=0 q.o. quindi la misura variazione di d su (a,b) è nulla, quindi d appartiene a BV((a,b)). Le definizioni "classica" e "moderna" di funzione a variazione limitata non sono per nulla equivalenti allora, giusto?
Ho visto che gugo82 ha risposto a "thecrazy" con un mini-corso di teoria delle distribuzioni.
Mi sarei atteso almeno un "grazie" a gugo82, se non di più. E invece nisba. Solo un'altra domanda
Mi sarei atteso almeno un "grazie" a gugo82, se non di più. E invece nisba. Solo un'altra domanda
Credo che questa discussione su un altro forum possa essere d'aiuto.
@thecrazy: A parte questo non posso che essere d'accordo con il fastidio espresso da Fioravante per il tuo atteggiamento. Non è solo questione di non ringraziare, potresti almeno fare un minimo sforzo per scrivere le formule come si deve, non è possibile che tu non ti sia accorto di come le scrivono Gugo e gli altri. Le istruzioni sono qui.
@thecrazy: A parte questo non posso che essere d'accordo con il fastidio espresso da Fioravante per il tuo atteggiamento. Non è solo questione di non ringraziare, potresti almeno fare un minimo sforzo per scrivere le formule come si deve, non è possibile che tu non ti sia accorto di come le scrivono Gugo e gli altri. Le istruzioni sono qui.
[xdom="gugo82"]Mi associo al consiglio di dissonance, in via ufficiale come moderatore.
In altri termini, sarebbe ora cominciassi ad inserire correttamente le formule (cfr. Regolamento, 3.8... Il limite dei 30 messaggi si avvicina inesorabilmente).[/xdom]
Come fai a dire che $d$ soddisfa la condizione BV classica, cioè:
\[
\sup_D \sum_{n=1}^{N} |d(x_n) - d(x_{n-1})| <+\infty \; ?
\]
[A scanso di equivoci, $D=\{0=x_0
Ti consiglio di sfogliare un po' il libro di Leoni già citato nel post su MathSE linkato da dissonance.
@FP: Grazie per il supporto... Ma ormai c'è gente scarsamente riconoscente in giro, anche tra noi matematici.
In altri termini, sarebbe ora cominciassi ad inserire correttamente le formule (cfr. Regolamento, 3.8... Il limite dei 30 messaggi si avvicina inesorabilmente).[/xdom]
"thecrazy":
Quindi questo significa che d non è a variazione limitata su [0,1] in senso "classico" ma lo è in senso "moderno" o sbaglio? La variazione essenziale di d su (0,1) è 0 essendo d=f=0 q.o. quindi la misura variazione di d su (a,b) è nulla, quindi d appartiene a BV((a,b)).
Come fai a dire che $d$ soddisfa la condizione BV classica, cioè:
\[
\sup_D \sum_{n=1}^{N} |d(x_n) - d(x_{n-1})| <+\infty \; ?
\]
[A scanso di equivoci, $D=\{0=x_0
"thecrazy":
Le definizioni "classica" e "moderna" di funzione a variazione limitata non sono per nulla equivalenti allora, giusto?
Ti consiglio di sfogliare un po' il libro di Leoni già citato nel post su MathSE linkato da dissonance.
@FP: Grazie per il supporto... Ma ormai c'è gente scarsamente riconoscente in giro, anche tra noi matematici.
