Teorema della farfalla
Ciao a tutti qualcuno conosce la dimostrazione del seguente teorema?
Sia $f: RR -> RR$ uniformemente continua su $RR$
Allora esistono $a,b in RR_+$ tali che $|f(x)|<=a|x|+b$ $forall x in RR$
ciao a tutti e grazie
Sia $f: RR -> RR$ uniformemente continua su $RR$
Allora esistono $a,b in RR_+$ tali che $|f(x)|<=a|x|+b$ $forall x in RR$
ciao a tutti e grazie
Risposte
Dimostrazione: può la derivata di f andare all'infinito, se f è uniformemente continua?
mh...in ogni caso non si è supposto f derivabile su $RR$
non c'è un altro metodo per la dimostrazione?
non c'è un altro metodo per la dimostrazione?
non mi convince tanto... penso che si debba usare solo la continuità uniforme, non la derivabilità.
Forse si può provare a dimostrare che $|f(x)|-|ax|$ è limitata...
Forse si può provare a dimostrare che $|f(x)|-|ax|$ è limitata...
Però c'è una cosa che non mi torna: qui stiamo dicendo che se una funzione è unif.cont. allora è sublineare. Ma siamo sicuri che sia vero? In fondo $e^x$ è unif. cont su $RR$.
(edit)
scusate la cavolata!
(edit)

Dove hai trovato l'enunciato di questo teorema, e soprattutto, questo nome per indicarlo?
che il teorema sia vero è sicuro ma non saprei come dimostrarlo...
grazie cmq per l'impegno
grazie cmq per l'impegno
Su vari libri di analisi matematico, da dimostrare come esercizio,
viene chiamato teorema della farfalla perchè la disuguaglianza geometricamente significa che il grafico della funzione è "stretto" tra due rette che hanno la forma delle ali di una farfalla
Nessuno ha qualche idea?
viene chiamato teorema della farfalla perchè la disuguaglianza geometricamente significa che il grafico della funzione è "stretto" tra due rette che hanno la forma delle ali di una farfalla
Nessuno ha qualche idea?
Si può pensare di usare una specie di "pseudo-derivata" per fare la dimostrazione. Mi spiego. Siccome $f$ è uniformemente continua per ogni $\epsilon>0$ esiste un $\delta>0$ tale che:
$ | x_1 - x_2 | < \delta \implies | f(x_1) - f(x_2) | < \epsilon \qquad \forall x_1,x_2 $
allora si sceglie un $\epsilon > 0$ e si prende il corrispettivo $\delta$ della definizione. Quindi si sceglie un altro numero $\Delta x \in (0,\delta)$ e si definisce questa specie di "derivata approssimata"(*)
$ \delta f(x;\Delta x) = { f(x+\Delta x) - f(x) }/{\Delta x} $
si vede facilmente che la "derivata approssimata" deve essere finita per ogni $x$ dalla definizione di prima:
$ |\delta f(x;\Delta x)| < {\epsilon}/{\delta} < \infty $
a questo punto non mi sembra difficile far vedere che questa condizione implica che la crescita sia sublineare: questo oggetto che assomiglia alla derivata ha un po' di proprietà in comune con la derivata vera e propria e, mi sembra, valga una specie di "formula del calcolo": $k$ intero positivo allora:
$ f ( k \Delta x ) = f ( 0 ) + \sum_{i=0}^{k-1} \Delta x \delta f ( i \Delta x ; \Delta x) $
da cui:
$ | f( k \Delta x ) | \leq | f(0) | + k \Delta x \text{ max } \{ | \delta f ( i \Delta x; \Delta x ) | : i = 1,2,\ldots k-1 \} $
che è una stima di crescita sublineare!
La cosa vale ovviamente per ogni punto $y$ per cui esista un $k$ intero positivo tale che $k\Delta x = y$. Giocando al variare dei $\Delta x$ si vede che tutti gli $y$ positivi si possono scrivere come $k \Delta x$ per un $k$ intero e un $\Delta x$ minore di $\delta$. Ovviamente per gli $y$ negativi il discorso si ripete uguale. Alla fine si trova:
$ | f(y) | \leq |f(0)| + |y| \text{ sup } \{ | \delta f(k \Delta x; \Delta x) | : k \in ZZ, \Delta x \in (0,\delta) \} $
il $\text{sup}$ è finito perché $\epsilon$ e $\delta$ rimangono fissati. Possiamo battezzare $b=|f(0)|$ e:
$ a = \text{sup } \{ | \delta f(k \Delta x; \Delta x) | : k \in ZZ, \Delta x \in (0,\delta) \} $
e abbiamo finito.
Spero di non aver detto cose assurde.
----------------------------
(*) E' un termine che ho inventato io sul momento: la differenziabilità approssimata è un'altra cosa.
$ | x_1 - x_2 | < \delta \implies | f(x_1) - f(x_2) | < \epsilon \qquad \forall x_1,x_2 $
allora si sceglie un $\epsilon > 0$ e si prende il corrispettivo $\delta$ della definizione. Quindi si sceglie un altro numero $\Delta x \in (0,\delta)$ e si definisce questa specie di "derivata approssimata"(*)
$ \delta f(x;\Delta x) = { f(x+\Delta x) - f(x) }/{\Delta x} $
si vede facilmente che la "derivata approssimata" deve essere finita per ogni $x$ dalla definizione di prima:
$ |\delta f(x;\Delta x)| < {\epsilon}/{\delta} < \infty $
a questo punto non mi sembra difficile far vedere che questa condizione implica che la crescita sia sublineare: questo oggetto che assomiglia alla derivata ha un po' di proprietà in comune con la derivata vera e propria e, mi sembra, valga una specie di "formula del calcolo": $k$ intero positivo allora:
$ f ( k \Delta x ) = f ( 0 ) + \sum_{i=0}^{k-1} \Delta x \delta f ( i \Delta x ; \Delta x) $
da cui:
$ | f( k \Delta x ) | \leq | f(0) | + k \Delta x \text{ max } \{ | \delta f ( i \Delta x; \Delta x ) | : i = 1,2,\ldots k-1 \} $
che è una stima di crescita sublineare!
La cosa vale ovviamente per ogni punto $y$ per cui esista un $k$ intero positivo tale che $k\Delta x = y$. Giocando al variare dei $\Delta x$ si vede che tutti gli $y$ positivi si possono scrivere come $k \Delta x$ per un $k$ intero e un $\Delta x$ minore di $\delta$. Ovviamente per gli $y$ negativi il discorso si ripete uguale. Alla fine si trova:
$ | f(y) | \leq |f(0)| + |y| \text{ sup } \{ | \delta f(k \Delta x; \Delta x) | : k \in ZZ, \Delta x \in (0,\delta) \} $
il $\text{sup}$ è finito perché $\epsilon$ e $\delta$ rimangono fissati. Possiamo battezzare $b=|f(0)|$ e:
$ a = \text{sup } \{ | \delta f(k \Delta x; \Delta x) | : k \in ZZ, \Delta x \in (0,\delta) \} $
e abbiamo finito.
Spero di non aver detto cose assurde.
----------------------------
(*) E' un termine che ho inventato io sul momento: la differenziabilità approssimata è un'altra cosa.
"david_e":
...si sceglie un altro numero $\Delta x \in (0,\delta)$ e si definisce questa specie di "derivata approssimata"(*)
$ \delta f(x;\Delta x) = { f(x+\Delta x) - f(x) }/{\Delta x} $
si vede facilmente che la "derivata approssimata" deve essere finita per ogni $x$ dalla definizione di prima:
$ |\delta f(x;\Delta x)| < {\epsilon}/{\delta} < \infty $
...
abbi pazienza ma non riesco a capire cosa intendi dire con questo... forse che fissato $\Deltax$ la $x|->\deltaf(x; \Deltax)$ è limitata su $RR$? in questo caso però sarebbe $|\delta f(x;\Delta x)| < {\epsilon}/{\Deltax}$ ... ma è corretto pensare $\Deltax$ fissato? ti dispiace spiegarmi questo passaggio? grazie!
"david_e":
Spero di non aver detto cose assurde.
Era una speranza malposta!

E' completamente sbagliato il discorso che ho impostato sopra... evidentemente l'ho buttato giù senza pensarci abbastanza. Tanto per cominciare, ovviamente è:
$ | \delta f(x,\Delta x) \leq {\epsilon}/{\Delta x} $
dopodiché il sup sotto non lo posso più controllare con questa stima e tutto il discorso risulta campato in aria.
Secondo me il tuo discorso non è tanto sballato: abbiamo $\forall \epsilon>0$ un $\Deltax>0$ e un $\deltaf_\epsilon(x; \Deltax)$. La continuità uniforme ci dice che l'applicazione $x|->\deltaf_\epsilon(x, \Deltax)$ con $\Deltax$ fissato è limitata. Se pensiamo questi $\deltaf_\epsilon(x)$ come coeff. angolari di rette secanti il grafico di $f$, e partizioniamo $[0, +\infty)$ come $[0, \Deltax] uu [\Deltax, 2\Deltax] uu \ldots$, allora possiamo associare ad $\epsilon$ la poligonale passante per i punti $f(\k\Deltax),\ k in \NN$ sapendo che i suoi coeff. angolari non possono crescere arbitrariamente: quindi sarà sublineare, perché la retta passante per $f(0)$ di coeff.angolare $text(sup){\deltaf_\epsilon(x), x>=0}$ la maggiorerà. Questo discorso noi lo possiamo fare assegnando a $\epsilon$ i valori ${1/n}_(n\in\NN}$, e passando a qualche limite, magari limite superiore della corrispondente successione dei $text(sup){\deltaf_{1//n}(x), x>=0}$ dovremmo riuscire a concludere. Solo un'idea.
(edit) ho sostituito $\deltaf$ con $\deltaf_epsilon$.
(edit) ho sostituito $\deltaf$ con $\deltaf_epsilon$.
Per la continuità uniforme:
$\exists \delta>0$ tale che $|x-y|\leq\delta$ implica $|f(x)-f(y)|\leq 1$
Allora preso un qualunque $x\geq0$ prendiamo $n$ intero tale che $n\delta\leq x<(n+1)\delta$ e dividiamo
l'intervallo $[0,x]$ in $n+1$ sottointervalli di ampiezza $x/(n+1)$, mediante $n+2$ punti
$0=x_0
Allora $|f(x)-f(0)|=|\sum_{i=0}^n f(x_{i+1})-f(x_i)|\leq \sum_{i=0}^n| f(x_{i+1})-f(x_i)|\leq \sum_{i=0}^n 1=n+1=\delta^{-1}n\delta+1\leq\delta^{-1}x+1$
Ripetendo un analogo ragionamento per $x\leq 0$ si ottiene alla fine che, qualunque sia il segno di $x$
$|f(x)-f(0)|\leq\delta^{-1}|x|+1$
da cui
$|f(x)|\leq\delta^{-1}|x|+|f(0)|+1$
$\exists \delta>0$ tale che $|x-y|\leq\delta$ implica $|f(x)-f(y)|\leq 1$
Allora preso un qualunque $x\geq0$ prendiamo $n$ intero tale che $n\delta\leq x<(n+1)\delta$ e dividiamo
l'intervallo $[0,x]$ in $n+1$ sottointervalli di ampiezza $x/(n+1)$, mediante $n+2$ punti
$0=x_0
Allora $|f(x)-f(0)|=|\sum_{i=0}^n f(x_{i+1})-f(x_i)|\leq \sum_{i=0}^n| f(x_{i+1})-f(x_i)|\leq \sum_{i=0}^n 1=n+1=\delta^{-1}n\delta+1\leq\delta^{-1}x+1$
Ripetendo un analogo ragionamento per $x\leq 0$ si ottiene alla fine che, qualunque sia il segno di $x$
$|f(x)-f(0)|\leq\delta^{-1}|x|+1$
da cui
$|f(x)|\leq\delta^{-1}|x|+|f(0)|+1$