Uniforme continuità

alby9411
Buonasera cari colleghi ... chiedo una panoramica su come vedere graficamente , se si può , quando una funzione è uniformemente continua. Conosco la definizione ma... cosa significa che il \delta dipende sia da \epsilon che da x0? Nella continuità l' \epsilon viene preso comunque in base alla f(x0). Cosa sbaglio?

Risposte
gugo82
"alby941":
Buonasera cari colleghi ... chiedo una panoramica su come vedere graficamente , se si può , quando una funzione è uniformemente continua.

In generale, non si può.

Tuttavia, ci sono alcuni casi in cui si può capire dal grafico se una funzione è u.c..
Ad esempio, se una funzione è definita e continua in un intervallo del tipo \([a,+\infty[\) ed il suo grafico ha in \(+\infty\) un asintoto (orizzontale o obliquo), allora la funzione è u.c. in \([a,+\infty[\).

Però, non è vero il viceversa, ossia non è vero che tutte le funzioni u.c. definite in intervalli del tipo \([a,+\infty[\) hanno un asintoto (orizzontale o obliquo) in \(\infty\): infatti la funzione \(\sin x\) è u.c. in ogni intervallo \([a,+\infty[\), ma il suo grafico non ha alcun asintoto in \(+\infty\).

"alby941":
cosa significa che il \delta dipende sia da \epsilon che da x0? Nella continuità l' \epsilon viene preso comunque in base alla f(x0). Cosa sbaglio?

Prova a fare un contariello esplicito.

Ad esempio, considera la funzione \(f:]0,1]\ni x\mapsto 1/x \in \mathbb{R}\), fissa \(x_0\in ]0,1]\) e applica la definizione \(\varepsilon\)-\(\delta\) di continuità in \(x_0\): qual è il \(\delta\) che viene fuori in corrispondenza di \(\varepsilon\)?
Da chi dipende tale \(\delta\)?

alby9411
Penso che dipenda da epsilon

gugo82
Stai tirando a indovinare o hai fatto i conti?
Posta qualcosa di concreto; le supposizioni lasciale stare.

alby9411
se io fisso una x0 , trovo la sua f(x0). Scelgo una epsilon superiore e una inferiore ad f(x0). Vedo che quella superiore mi identifica un delta più piccolo di x0 mentre l'altra non me ne identifica uno maggiore. i due delta dipendono da epsilon. Ogni x che prendo dentro all'intervallo (x0-delta;x0+delta) mi finisce dentro all'intervallo delle epsilon. Non ho capito bene ciò che chiedevi. Altra cosa... quando uno stabilisce una epsilon in teoria non stabilisce una epsilon/2 sopra f(x0) e un'altra epsilon/2 sotto f(x0) ed in totale fa epsilon?? ( lo chiedo perchè nelle dimostrazioni viene fuori sempre 2 epsilon quando si sommano quella negativa e quella positiva). Grazie ancora..

gugo82
I conti... :roll:

Se scelgi \(\varepsilon >0\) ed \(x_0\in ]0,1[\) ed applichi la definizione di limite alla \(f(x)=1/x\) in \(x_0\), trovi \(\delta=\text{formula esplicita}\)... Qual è la formula che ti fornisce \(\delta\)?

alby9411
so che delta è maggiore o uguale al modulo di x-x0 . A livello concettuale lo so che ogni x dell'intorno +- delta finisce dentro all'intorno +- epsilon. So che non è questa la risposta ai calcoli che vuoi ma se lo chiedo è proprio perchè ce l'hanno solo spiegato senza farci vedere gli esempi :) e a me ne servirebbe proprio uno...

gugo82
Tagliamo la testa al toro: hai mai verificato che una funzione è continua in un punto usando la definizione di continuità?
Perché è proprio questo che ti sto chiedendo di fare, invece tu ciurli nel manico...

alby9411
a livello pratico abbiamo verificato la continuità in un punto col limite destro sinistro e la funzione nel punto. No ai fenomeni di discriminazione! :p

gugo82
Discriminazione?
Mah...


***

Ad ogni modo, se non hai mai afforontato il problema di dimostrare che una funzione è continua in un punto usando la definizione di continuità (quella con \(\varepsilon\) e \(\delta\), per intenderci), è normalissimo che tu non riesca proprio a capire perché venga introdotta la continuità uniforme ed in cosa essa differisca dalla continuità.

Per mostrare che \(f(x):=1/x\) è continua in \(x_0\in ]0,1[\), per definizione, bisogna far vedere che comunque si scelga un \(\varepsilon >0\) è possibile determinare un \(\delta>0\) in modo che:
\[
|x-x_0|<\delta\qquad \Rightarrow \qquad \left| \frac{1}{x} - \frac{1}{x_0}\right| <\varepsilon \; .
\]
Per fare ciò, bisogna risolvere la disequazione \(\left| \frac{1}{x} - \frac{1}{x_0}\right| <\varepsilon\) rispetto ad \(x\) e mostrare che nell'insieme delle sue soluzioni è possibile isolare un conveniente intorno di \(x_0\), la cui semiampiezza sarà il \(\delta\) cercato.
Si ha:
\[
\begin{split}
\left| \frac{1}{x} - \frac{1}{x_0}\right| <\varepsilon \qquad &\Leftrightarrow \qquad \begin{cases} \frac{1}{x} - \frac{1}{x_0} > -\varepsilon \\
\frac{1}{x} - \frac{1}{x_0} <\varepsilon
\end{cases}\\
&\Leftrightarrow \qquad \begin{cases} x_0 - x > -\varepsilon\ x_0\ x \\
x_0-x <\varepsilon\ x_0\ x
\end{cases}\\
&\Leftrightarrow \qquad \begin{cases} (1-\varepsilon\ x_0)\ x < x_0 \\
(1+\varepsilon\ x_0)\ x > x_0\; ;
\end{cases}\\
\end{split}
\]
la seconda disequazione dell'ultimo sistema ha per soluzioni gli \(\frac{x_0}{1+\varepsilon\ x_0}0\); in altri termini si ha:
\[
(1-\varepsilon\ x_0)\ x < x_0 \qquad \Leftrightarrow \qquad \begin{cases} 0 0 \end{cases}
\]
pertanto:
\[
\left| \frac{1}{x} - \frac{1}{x_0}\right| <\varepsilon \qquad \Leftrightarrow \qquad \begin{cases}
\frac{x_0}{1+\varepsilon\ x_0} \frac{x_0}{1+\varepsilon\ x_0} \end{cases}
\]
Determinato l'insieme delle soluzioni di \(\left| \frac{1}{x} - \frac{1}{x_0}\right| <\varepsilon\), si deve mostrare che in esso è possibile isolare un intorno simmetrico di \(x_0\): dato che l'insieme delle soluzioni è individuato da disuguaglianze, sottraendo \(x_0\) a tutti i loro membri ed introducendo sapientemente il valore assoluto si ottiene:
\[
\begin{split}
&\begin{cases}
\frac{x_0}{1+\varepsilon\ x_0} - x_0 \frac{x_0}{1+\varepsilon\ x_0} -x_0 < x -x_0 < \frac{x_0}{1-\varepsilon\ x_0} -x_0 &\text{, se } 0<\varepsilon <\frac{1}{x_0}\; .
\end{cases} \\
&\Leftrightarrow \qquad \begin{cases}
- \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} - \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} < x -x_0 < \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0} &\text{, se } 0<\varepsilon <\frac{1}{x_0}\; .
\end{cases}\\
&\Leftrightarrow \qquad \begin{cases}
|x -x_0| < \min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} , 1-x_0\} &\text{, se } \varepsilon \geq \frac{1}{x_0}\\
|x -x_0| < \min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0}, \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0}\} &\text{, se } 0<\varepsilon <\frac{1}{x_0}\; .
\end{cases}
\end{split}
\]
Conseguentemente il \(\delta\) che serve per soddisfare la definizione di limite è:
\[
\delta = \begin{cases} \min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} , 1-x_0\} &\text{, se } \varepsilon \geq \frac{1}{x_0}\\
\min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0}, \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0}\} &\text{, se } 0<\varepsilon <\frac{1}{x_0}\; .
\end{cases}
\]
Adesso abbiamo il \(\delta\) che serve nella definizione di continuità; esso, come puoi ben vedere, dipende esplicitamente (mediante una formula nota) sia da \(\varepsilon\) sia da \(x_0\), quindi è lecito e possibile denotarlo con il simbolo \(\delta (\varepsilon ,x_0)\) per denotare la dipendenza da entrambe le quantità dette sopra.

Quest doppia dipendenza non è casuale, ma è insita nella definizione di continuità in un insieme.
Infatti, ad esempio, dire che \(f(x):=1/x\) è continua in \(]0,1]\) equivale a dire che essa è continua in tutti i punti \(x_0\in ]0,1]\), cioé che vale la proposizione:
\[
\forall x_0\in ]0,1],\ \forall \varepsilon >0,\ \exists \delta >0:\quad \forall x\in ]0,1],\ |x-x_0|<\delta \quad \Rightarrow \quad \left| \frac{1}{x} - \frac{1}{x_0}\right|<\varepsilon\; ;
\]
e noi abbiamo trovato che \(\delta = \delta (\varepsilon ,x_0)\) con \(x_0\in ]0,1]\) ed \(\varepsilon >0\).
In generale, invece, se \(f:X\to \mathbb{R}\) è continua in \(X\) allora essa soddisfa la proprietà:
\[
\tag{C}
\forall x_0\in X,\ \forall \varepsilon >0,\ \exists \delta >0:\quad \forall x\in X,\ |x-x_0|<\delta \quad \Rightarrow \quad \left| f(x) - f(x_0)\right|<\varepsilon
\]
e, per un fatto puramente logico, ciò implica che il \(\delta\) quantificato col quantificatore esistenziale (\(\exists\)) dipende da tutte le variabili che lo precedono quantificate col quantificatore universale (\(\forall\)); perciò si ha sempre \(\delta = \delta (\varepsilon , x_0)\), in cui \(x_0\in X\) ed \(\varepsilon >0\).
Quindi, in un certo senso, la doppia dipendenza \(\delta = \delta (\varepsilon , x_0)\) è del tutto naturale.

Guardiamo adesso cosa significa dire che una funzione \(f:X\to \mathbb{R}\) è uniformemente continua in \(X\): per definizione \(f\) è u.c. in \(X\) solo se essa soddisfa la proprietà[nota]Qui al posto di \(\delta\) uso la lettera \(\sigma\); ciò non fa danno, perché i nomi delle variabili si possono sempre scegliere come fa più comodo.[/nota]:
\[
\tag{UC}
\forall \varepsilon >0,\ \exists \sigma >0:\quad \forall x,x_0\in X,\ |x-x_0|<\sigma \quad \Rightarrow \quad |f(x) - f(x_0)|<\varepsilon\; .
\]
Se la logica dei quantificatori e delle dipendenze è la stessa, e lo è, in questo caso il \(\sigma\) quantificato dal quantificatore esistenziale dipende unicamente dallo \(\varepsilon\) quantificato dal quantificatore universale che lo precede; pertanto, in regime di uniforme continuità si ha \(\sigma = \sigma (\varepsilon)\) con \(\varepsilon >0\).
Il valore di \(\sigma (\varepsilon)\) presente in (UC), "magicamente", si può prendere come valore di \(\delta\) per soddisfare la definizione (C) di continuità in \(X\) per tutti i punti di \(X\); in altre parole, dalla (UC) segue immediatamente che:
\[
\forall x_0\in X,\ \forall \varepsilon >0,\ \exists \sigma (\varepsilon) >0:\quad \forall x\in X,\ |x-x_0|<\sigma (\varepsilon) \quad \Rightarrow \quad |f(x) - f(x_0)|<\varepsilon
\]
cosicché si può porre certamente \(\delta (\varepsilon ,x_0)=\sigma (\varepsilon)\) per ogni \(x_0\in X\) ed \(\varepsilon >0\).
Ragionando in questo modo abbiamo provato che una funzione che soddisfa la (UC) è continua in tutti i punti di \(X\) e che il \(\delta\) che serve per soddisfare la definizione di continuità (C) in realtà non dipende dal punto \(x_0\), ma dipende solo dal parametro di scostamento \(\varepsilon\) (ciò proprio perché \(\delta = \sigma (\varepsilon)\)!).

La cosa bella è che vale il viceversa... Se è possibile trovare un \(\delta\) che serva a soddisfare la (C) e che non dipenda esplicitamente da \(x_0\), cioé un \(\delta = \delta (\varepsilon)\), allora la funzione \(f\) è u.c. in \(X\) con \(\sigma =\delta (\varepsilon)\).

Da quanto detto finora, sembrerebbe che il solo fatto di avere una dipendenza esplicita del tipo \(\delta = \delta (\varepsilon ,x_0)\) sia indice di assenza di uniforme continuità... Ma ciò è falso!
Infatti si può facilmente dimostrare che:
Una funzione \(f:X\to \mathbb{R}\) continua in \(X\) con \(\delta =\delta (\varepsilon ,x_0)\) è uniformemente continua in \(X\) (nonostante la doppia dipendenza!!!) se e solo se per ogni \(\varepsilon >0\) l'insieme:
\[
D_\varepsilon := \{ \delta (\varepsilon ,x_0),\ x_0 \in X\}
\]
(che ha per elementi tutti i possibili \(\delta (\varepsilon ,x_0)\), in corrispondenza di \(\varepsilon\), che servono per soddisfare la definizione di continuità nel punto variabile \(x_0\)) ha un minorante positivo, cioé se:
\[
\inf D_\varepsilon = \inf_{x_0\in X} \delta (\varepsilon ,x_0) >0\; .
\]
In tal caso il \(\sigma = \sigma (\varepsilon)\) che serve per soddisfare la definizione (UC) è:
\[
\sigma (\varepsilon) = \inf_{x_0\in X} \delta (\varepsilon ,x_0)\; .
\]

La dimostrazione di questo fatto te la lascio per esercizio.

Chiarito ciò, torniamo al mostro esempio, in cui:
\[
\delta = \begin{cases} \min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} , 1-x_0\} &\text{, se } \varepsilon \geq \frac{1}{x_0}\\
\min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0}, \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0}\} &\text{, se } 0<\varepsilon <\frac{1}{x_0}\; ,
\end{cases}
\]
e mostriamo che la funzione \(f(x):=1/x\) non è uniformemente continua in \(]0,1]\).
Per il teorema precedente, occorre e basta studiare, per fissato \(\varepsilon >0\), la limitatezza inferiore dell'insieme:
\[
D_\varepsilon := \{\delta (\varepsilon ,x_0),\ x_0\in ]0,1]\}\; .
\]
Ma non è difficile rendersi conto del fatto che:
\[
\inf D_\varepsilon =0\; :
\]
infatti, fissato \(\varepsilon >0\) è possibile scegliere un \(\xi =\xi (\varepsilon)\) molto prossimo a \(0\) in modo che \(\varepsilon <1/\xi\); ciò implica che per ogni \(0 \[
\delta (\varepsilon ,x_0) = \min \{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0}, \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0}\}\; ;
\]
ma, avendosi \(1-\varepsilon x_0>1-\varepsilon \xi >0\) per \(0 \[
\left. \begin{split}
\frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} &= \frac{\varepsilon\ x_0}{1+\varepsilon\ x_0}\ x_0 \leq x_0\\
\frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0} &\leq \frac{\varepsilon}{1-\varepsilon\ \xi}\ x_0
\end{split}\right\} \quad \Rightarrow \quad \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} ,\ \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0}\leq C\ x_0
\]
con \(C=C(\varepsilon)>0\) appropriata costante[nota]In particolare:
\[
C=\max \left\{ 1, \frac{\varepsilon}{1-\varepsilon\ \xi}\right\}\; .
\][/nota], quindi:
\[
\delta (\varepsilon , x_0) = \min \left\{ \frac{\varepsilon\ x_0^2}{1+\varepsilon\ x_0} ,\ \frac{\varepsilon\ x_0^2}{1-\varepsilon\ x_0}\right\} \leq C\ x_0
\]
per ogni \(x_0<\xi\); ciò importa che:
\[
\begin{split}
0\leq \inf D_\varepsilon &\leq \inf_{0 &\leq \inf_{0 &= C\ \inf_{0 &=0
\end{split}
\]
dunque \(\inf D_\varepsilon =0\).
Il teorema precedente, allora, garantisce che \(f(x):=1/x\) non è u.c. in \(]0,1]\).

alby9411
Grazie mille della risposta e della dimostrazione.. beh.. penso proprio che non ce l'abbiano fatta vedere anche perchè avrebbe un capitolo tutto per sè da quanto è lunga

PadreBishop
"alby941":
Grazie mille della risposta e della dimostrazione.. beh.. penso proprio che non ce l'abbiano fatta vedere anche perchè avrebbe un capitolo tutto per sè da quanto è lunga


Una pura e semplice curiosità: che corso frequenti? Se frequenti Matematica et similia, il fatto che non vi abbiano fatto macinare un po' di sana algebra di delta-epsilon è una carenza abbastanza grave a mio avviso.

Un consiglio: se non frequenti un corso molto improntato alla teoria, usa fin dove hai funzioni continue e domini compatti il teorema di Heine-Cantor per cavarti d'impiccio. Ad occhio (una mia visione spannometrica e assolutamente non rigorosa) ti accorgi che una funzione perde la U.C. spesso in presenza di situazioni "patologiche" come asintoti verticali. Situazioni non concesse in presenza delle ipotesi di H.C. (dominio compatto e funzione continua).

Spero di non essere stato troppo pedante! XD

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.