Funzione derivabile su un intervallo - dimostrazione
Buongiorno.
Non essendo sicuro della correttezza concettuale e formale del ragionamento, posto qui di seguito una dimostrazione.
Premetto che mi interessa la validità di questa specifica dimostrazione; sono abbastanza sicuro che questo teoremino possa essere dimostrato in maniera più semplice, ma volevo sapere se la mia prima intuizione esauriva sufficientemente bene il problema.
Grazie in anticipo.
Non essendo sicuro della correttezza concettuale e formale del ragionamento, posto qui di seguito una dimostrazione.
Premetto che mi interessa la validità di questa specifica dimostrazione; sono abbastanza sicuro che questo teoremino possa essere dimostrato in maniera più semplice, ma volevo sapere se la mia prima intuizione esauriva sufficientemente bene il problema.
Grazie in anticipo.

Sia $f$ una funzione definita su tutto $RR$ a valori reali, derivabile ovunque. Sia inoltre
$lim_( x -> oo ) f(x) = 0$
Allora $f '(x)$ si annulla in almeno un punto.
Dimostrazione:
Se la $f$ è $y = 0$, la tesi evidentemente sussiste. Supponiamo quindi che la $f$ non sia costante.
Suppongo vera la negazione della tesi:
$\nexists bar{x} in RR : f'(bar{x}) = 0$
siccome $f$ è derivabile ovunque, questo è tanto come dire che $f'(x) != 0, AA x in RR$
Quindi si presentano 2 casi:
1) $f'(x) > 0 , AA x in RR$
2) $f'(x) < 0 , AA x in RR$
CASO (1);
Interviene il seguente teorema:
Th: Se $f$, definita su un intervallo $I$ è derivabile e se è $f'(x) > 0, AA x in I$, la $f$ è crescente su $I$.
1) Proviamo la crescenza globale.
Per ipotesi $lim_(x -> oo) f(x) = 0$
quindi, dalla def di limite: $AA epsilon > 0, EE k > 0 : AA x : |x| > k "sia" | f(x)| < epsilon$
Per l'arbitrarietà di $epsilon$ mi sembra lecito si possa scegliere $epsilon = f(k)$.
Considero due punti $k$ e $k + c$ ( $ c > 0 $ ); ovviamente è $k < k + c $
Avendo supposto la $f$ crescente:
$ f (k) < f (k + c)$
$ f (k) = epsilon < f (k + c)$
Ecco raggiunto l'assurdo. Per la def di limite, essendo $k + c$ appartenente all'intorno di $+oo$, deve sussistere $f( k + c ) < epsilon$.
CASO(2);
Analoghe considerazioni a quelle del caso (1).
Ne viene che $EE bar{x} in RR : f'(bar{x}) = 0$
Risposte
"Seneca":
quindi, dalla def di limite: $AA epsilon > 0, EE k > 0 : AA x : |x| > k "sia" | f(x)| < epsilon$
Per l'arbitrarietà di $epsilon$ mi sembra lecito si possa scegliere $epsilon < f(k)$.
Questo passaggio è corretto?
Scegliendo $epsilon = f(k)$ la cosa funzionerebbe?
Imporrei in sostanza che la retta $y = epsilon$ intercetti il grafico nel punto di ascissa $k$. E quindi il meccanismo di limite funzionerebbe bene, perché avrei trovato una relazione tra l'intorno del limite e l'intorno di infinito. Anche se mi puzza il far dipendere l'intorno del limite dall'intorno di infinito.
Pareri al riguardo?
No, scritto così a me non convince: infatti determini [tex]k[/tex] una volta fissato l'[tex]\epsilon[/tex] e poi vuoi modificare l'[tex]\epsilon[/tex] mantenendo però a [tex]k[/tex] le sue proprietà!
In altre parole, quando applichi la definizione di limite trovi [tex]k = k(\epsilon)[/tex] e poi vuoi definire [tex]\epsilon = \epsilon(k(\epsilon))[/tex] ma questo non si può fare.
In altre parole, quando applichi la definizione di limite trovi [tex]k = k(\epsilon)[/tex] e poi vuoi definire [tex]\epsilon = \epsilon(k(\epsilon))[/tex] ma questo non si può fare.
Intanto osserviamo che [tex]f(x) < 0 \quad \forall x \in \mathbb{R}[/tex]. Infatti, supponiamo per assurdo che esista [tex]x_0 \in \mathbb{R}[/tex] con [tex]f(x_0) > 0[/tex]. Allora per ogni [tex]x > x_0[/tex], per l'ipotesi assurda assunta, si ottiene che [tex]f(x) > f(x_0)>0[/tex] e quindi verrebbe contraddetta la definizione di limite.
Scegliamo ora [tex]x_1 \in \mathbb{R}[/tex], [tex]f(x_1) < 0[/tex]. Allora per definizione di limite a [tex]-\infty[/tex] esiste, per ogni [tex]\epsilon > 0[/tex] un [tex]k>0[/tex] tale che se [tex]x < -k[/tex] allora [tex]|f(x)| < \epsilon[/tex]. Scegliamo [tex]\epsilon = |f(x_1)|[/tex] e fissiamo [tex]x_2 < \min{-k,x_1-1}[/tex]. Ma allora [tex]x_2 < x_1[/tex] e però [tex]|f(x_2)| < |f(x_1)|[/tex], ossia, ricordando che la funzione è negativa, [tex]-f(x_2) < -f(x_1)[/tex], che diventa [tex]f(x_2) > f(x_1)[/tex] in contraddizione con la stretta crescenza. Questo è assurdo e quindi segue la tesi.
Scegliamo ora [tex]x_1 \in \mathbb{R}[/tex], [tex]f(x_1) < 0[/tex]. Allora per definizione di limite a [tex]-\infty[/tex] esiste, per ogni [tex]\epsilon > 0[/tex] un [tex]k>0[/tex] tale che se [tex]x < -k[/tex] allora [tex]|f(x)| < \epsilon[/tex]. Scegliamo [tex]\epsilon = |f(x_1)|[/tex] e fissiamo [tex]x_2 < \min{-k,x_1-1}[/tex]. Ma allora [tex]x_2 < x_1[/tex] e però [tex]|f(x_2)| < |f(x_1)|[/tex], ossia, ricordando che la funzione è negativa, [tex]-f(x_2) < -f(x_1)[/tex], che diventa [tex]f(x_2) > f(x_1)[/tex] in contraddizione con la stretta crescenza. Questo è assurdo e quindi segue la tesi.
Scusate, forse non ho capito bene il problema, ma $e^{-x}$ non è una funzione che rispetta le ipotesi ma contraddice il teorema?
Probabilmente Seneca ha la (malsana IMHO) abitudine di considerare $lim_{x \to infty}$ come limite per $x$ che tende all'infinito nei due sensi, cosa che io scriverei $lim_{|x| \to +\infty}$. Se è così la proposizione è vera. Altrimenti è falsa e quello di Injo è un controesempio.
"dissonance":
Probabilmente Seneca ha la (malsana IMHO) abitudine di considerare $lim_{x \to infty}$ come limite per $x$ che tende all'infinito nei due sensi, cosa che io scriverei $lim_{|x| \to +\infty}$. Se è così la proposizione è vera. Altrimenti è falsa e quello di Injo è un controesempio.
Eh, non l'ho specificato, ma è come dici tu. Non è proprio una mia abitudine; ho voluto postare l'esercizio con la scrittura del libro di Analisi da cui ho preso l'esercizio.
Comunque intuivo che fosse sbagliato, grazie per le risposte.
Fissato $epsilon$ devo essere in grado di determinare $k$; va bene.
$k$ lo posso scegliere così:
$k = f^(-1) (epsilon)$
?
Abbiamo supposto che la $f$ sia monotona crescente, quindi è invertibile. Vi pare lecito?
Avrei quindi $f(k) = epsilon$.
Così funzionerebbe la dimostrazione?
Grazie ancora.
@Seneca: Anche stavolta non escludo che la tua dimostrazione sia corretta. Ma c'è una strada più veloce per concludere ed è il teorema di Weierstrass: una funzione continua su un intervallo chiuso e limitato ha massimo e minimo. Qui $f$ non è definita in un intervallo chiuso e limitato però tende a $0$ all'infinito (*), quindi se non è identicamente nulla puoi "tagliare via" un intorno di $+infty$ ed uno di $-infty$ e applicare Weierstrass nell'intervallo chiuso e limitato che rimane. Non so se mi sono spiegato.
(*) Sarebbe sufficiente che tendesse allo stesso limite (finito o infinito) ai due estremi della retta reale.
(*) Sarebbe sufficiente che tendesse allo stesso limite (finito o infinito) ai due estremi della retta reale.
Buongiorno a tutti.
Premetto che probabilmente non ho capito bene io, mi scuso per questo.
Direi che quella che ha proposto Seneca è una versione di Rolle estesa.
Le ipotesi sono:
1. f definita e derivabile (ergo continua) su tutto $RR$;
2. $lim_(|x| to +oo)=0$.
Io non capisco come possiamo trovare queste condizioni sul segno. Maurer afferma che la funzione è ovunque negativa. Ma, per esempio, $f:RR->RR$ definita da $f(x)=e^(-x^2)$ (la prima che mi è venuta in mente) soddisfa ancora le due ipotesi del teorema (e anche la tesi!) ma non è certo sempre negativa.
Ancora, io penso che nulla si possa dire circa il segno di $f$ perchè non è precisato se la funzione va a $0$ da sopra o da sotto (potrebbe andare a 0 da sopra per $x to -oo$ e a 0 da sotto per $x to +oo$, ad esempio: ma questo ci dice solo che la $f$ ha almeno uno zero reale, nulla più).
Che cosa mi sfugge?
Grazie
Premetto che probabilmente non ho capito bene io, mi scuso per questo.
Direi che quella che ha proposto Seneca è una versione di Rolle estesa.
Le ipotesi sono:
1. f definita e derivabile (ergo continua) su tutto $RR$;
2. $lim_(|x| to +oo)=0$.
"maurer":
Intanto osserviamo che [tex]f(x) < 0 \quad \forall x \in \mathbb{R}[/tex]. Infatti, supponiamo per assurdo che esista [tex]x_0 \in \mathbb{R}[/tex] con [tex]f(x_0) > 0[/tex]. Allora per ogni [tex]x > x_0[/tex], per l'ipotesi assurda assunta, si ottiene che [tex]f(x) > f(x_0)>0[/tex] e quindi verrebbe contraddetta la definizione di limite.
Io non capisco come possiamo trovare queste condizioni sul segno. Maurer afferma che la funzione è ovunque negativa. Ma, per esempio, $f:RR->RR$ definita da $f(x)=e^(-x^2)$ (la prima che mi è venuta in mente) soddisfa ancora le due ipotesi del teorema (e anche la tesi!) ma non è certo sempre negativa.
Ancora, io penso che nulla si possa dire circa il segno di $f$ perchè non è precisato se la funzione va a $0$ da sopra o da sotto (potrebbe andare a 0 da sopra per $x to -oo$ e a 0 da sotto per $x to +oo$, ad esempio: ma questo ci dice solo che la $f$ ha almeno uno zero reale, nulla più).
Che cosa mi sfugge?
Grazie

"Paolo90":Esatto.
Direi che quella che ha proposto Seneca è una versione di Rolle estesa.
Ancora, io penso che nulla si possa dire circa il segno di $f$ perchè non è precisato se la funzione va a $0$ da sopra o da sotto (potrebbe andare a 0 da sopra per $x to -oo$ e a 0 da sotto per $x to +oo$, ad esempio: ma questo ci dice solo che la $f$ ha almeno uno zero reale, nulla più).Se è per questo $\frac{sin x}{x}$ (prolungata per continuità in $0$) verifica le ipotesi del teorema e cambia segno infinite volte.
Che cosa mi sfugge?Niente.
Sì, ti sei spiegato perfettamente. Per essere formali, come potrei scrivere:
Il concetto è chiarissimo, ma con un po' di rigore...?
Aggiungo:
@Paolo: Concordo con la tua perplessità.
"dissonance":
..puoi "tagliare via" un intorno di $+infty$ ed uno di $-infty$ e applicare Weierstrass nell'intervallo chiuso e limitato che rimane.
Il concetto è chiarissimo, ma con un po' di rigore...?
Aggiungo:
@Paolo: Concordo con la tua perplessità.
"dissonance":Niente.[/quote]
[quote="Paolo90"]Che cosa mi sfugge?


Ah, ok. GRAZIE mille, pensavo che la dimostrazione di maurer fosse corretta, per quello chiedevo. Ti ringrazio molto, dissonance.

Ah, un'ultima cosa. La scelta di $k$ è corretta così come l'ho scritta pocanzi?
@Seneca: Paolo ti ha dato un ottimo suggerimento. Questo non è altro che il teorema di Rolle, che si dimostra molto semplicemente osservando che la funzione derivabile nell'intervallo chiuso e limitato deve assumere massimo oppure minimo nell'interno dello stesso. Qui fai la stessa cosa. Metto in spoiler la soluzione e consiglio a chi sta affrontando per la prima volta il calcolo differenziale in una variabile di provare a risolvere questo problema, che trovo istruttivo oltre che utile.
Dissonance e Paolo, grazie.
Avevo idea che usando la continuità della funzione, questo teorema si possa dimostrare in maniera quasi analoga al teorema di Rolle; anche il mio testo suggerisce questa via.
Il problema è che mi sono intestardito nel volerlo dimostrare per assurdo. I dubbi erano principalmente sulla validità del mio ragionamento ed, in misura minore, sul problema vero e proprio di dimostrare quell'asserto.
Grazie ancora della vostra pazienza e del supporto.
Avevo idea che usando la continuità della funzione, questo teorema si possa dimostrare in maniera quasi analoga al teorema di Rolle; anche il mio testo suggerisce questa via.
Il problema è che mi sono intestardito nel volerlo dimostrare per assurdo. I dubbi erano principalmente sulla validità del mio ragionamento ed, in misura minore, sul problema vero e proprio di dimostrare quell'asserto.
Grazie ancora della vostra pazienza e del supporto.

Ah, per quello che ho fatto io..
.
GRAZIE a dissonance, soprattutto, e a te per aver proposto questo bel problema.


GRAZIE a dissonance, soprattutto, e a te per aver proposto questo bel problema.

Vedo che avete concluso perfettamente. Dico solo una parola a mia difesa.
Effettivamente non mi sono espresso bene, nel mio precedente post. Tuttavia, quello che intendevo fare, era proseguire la dimostrazione per assurdo iniziata da Seneca: se supponiamo per assurdo che [tex]f'(x) \ne 0[/tex] in tutto [tex]\mathbb{R}[/tex] e ci mettiamo nel caso [tex]f'(x) > 0[/tex] allora è vero che [tex]f(x) < 0[/tex] per ogni [tex]x\in \mathbb{R}[/tex], perché la dimostrazione che ne ho data è corretta (almeno mi sembra). Poi, questo porta all'assurdo, che quindi costringe a concludere l'annullarsi della derivata.
Un'altra osservazione: è corretto dire che se [tex]f'(x)[/tex] non si annulla mai è di segno costante. Infatti, esiste un teorema (che io conosco come teorema di Darboux per la derivata) che estende il teorema dei valori medi alla derivata di una funzione ovunque derivabile in un intervallo.
Effettivamente non mi sono espresso bene, nel mio precedente post. Tuttavia, quello che intendevo fare, era proseguire la dimostrazione per assurdo iniziata da Seneca: se supponiamo per assurdo che [tex]f'(x) \ne 0[/tex] in tutto [tex]\mathbb{R}[/tex] e ci mettiamo nel caso [tex]f'(x) > 0[/tex] allora è vero che [tex]f(x) < 0[/tex] per ogni [tex]x\in \mathbb{R}[/tex], perché la dimostrazione che ne ho data è corretta (almeno mi sembra). Poi, questo porta all'assurdo, che quindi costringe a concludere l'annullarsi della derivata.
Un'altra osservazione: è corretto dire che se [tex]f'(x)[/tex] non si annulla mai è di segno costante. Infatti, esiste un teorema (che io conosco come teorema di Darboux per la derivata) che estende il teorema dei valori medi alla derivata di una funzione ovunque derivabile in un intervallo.
Mi sono accorto di aver tralasciato una casistica abbastanza ampia. Quindi ri-posto la prima parte della dimostrazione, quella in cui ho impostato la dimostrazione per assurdo, e aggiungo una parte conclusiva.
La nuova parte:
Secondo voi va bene?
Grazie.
Sia $f$ una funzione definita su tutto $RR$ a valori reali, derivabile ovunque. Sia inoltre
$lim_( x -> oo ) f(x) = 0$
Allora $f '(x)$ si annulla in almeno un punto.
Dimostrazione:
Se la $f$ è $y = 0$, la tesi evidentemente sussiste. Supponiamo quindi che la $f$ non sia costante.
Suppongo vera la negazione della tesi:
$\nexists bar{x} in RR : f'(bar{x}) = 0$
siccome $f$ è derivabile ovunque, questo è tanto come dire che $f'(x) != 0, AA x in RR$
Quindi si presentano 2 casi:
1) $f'(x) > 0 , AA x in RR$
2) $f'(x) < 0 , AA x in RR$
CASO (1);
Interviene il seguente teorema:
Th: Se $f$, definita su un intervallo $I$ è derivabile e se è $f'(x) > 0, AA x in I$, la $f$ è strettamente crescente su $I$.
La nuova parte:
$A = Im(f) = { f(x) in RR : x in RR }$
Siccome la $f$ è monotona crescente, il teorema delle funzioni monotone garantisce l'esistenza del limite per $x -> +oo$ e per $ x-> -oo$:
$lim_(x -> +oo) f(x) = "sup"_(f) ( A ) != lim_(x -> -oo) f(x) = "inf"_(f) ( A )$
Ciò contraddice l'ipotesi $lim_(x -> +oo) f(x) = lim_(x -> -oo) f(x) = 0$
CASO(2);
$f$ è monotona decrescente (per il th. di cui prima). Per il teorema delle funzioni monotone si ha:
$lim_(x -> +oo) f(x) = "inf"_(f) ( A ) != lim_(x -> -oo) f(x) = "sup"_(f) ( A )$
in contraddizione con l'ipotesi.
Quindi si conclude che non è vero che $f '(x) != 0 AA x in RR$. Donde la tesi.
Secondo voi va bene?
Grazie.