Dubbio su dimostrazione convergenza success.
Ho solo un piccolo dubbio su questo esercizio.
(5) Sia \( f: \mathbb{R} \rightarrow \mathbb{R} \) una funzione di classe \( \mathcal{C}^1 \) tale che \(f([a,b]) \subset [a,b] \). E sia \((x_n)_{n\geq 0}\) la successione definita per \(x_0=\alpha \in [a,b]\) e \(x_{n+1}=f(x_n)\) per \(n\geq0\). Se la serie \(\sum\limits_{n=0}^{\infty} (f'(x))^n \) è convergente per tutti gli \(x\in [a,b]\). dimostra che \(x_n\) è convergente.
Abbiamo che \(\sum\limits_{n=0}^{\infty} (f'(x))^n \) converge dunque \(\lim\limits_{n\to \infty}(f'(x))^n = 0 \) pertanto abbiamo che \( \begin{vmatrix}
f'(x)
\end{vmatrix}<1\) per tutti gli \(x\in [a,b]\) dunque \(f \) è 1-lipschitziana su \([a,b]\). E dunque \(f\) è uniformemente continua su \([a,b]\). Dunque
\(\forall \epsilon >0, \exists \delta >0 \) tale che \(\forall x,y \in [a,b] \) se \(\begin{vmatrix}
x-y
\end{vmatrix}\leq \delta \) risulta che \(\begin{vmatrix}
f(x)-f(y)
\end{vmatrix}\leq \epsilon \)
Dimostriamo che \((x_n) \) è di Cauchy:
\(\forall \varepsilon>0, \exists N>0\) tale che \(\forall n>N, \forall m>0 \) risulta
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \varepsilon \)
Siccome \( f \) è 1-lipschitz risulta che:
\(\begin{vmatrix}
x_{n+1}-x_n
\end{vmatrix}=\begin{vmatrix}
f(x_n)-f(x_{n-1})
\end{vmatrix}\leq \begin{vmatrix}
x_n - x_{n-1}
\end{vmatrix} \leq \ldots \leq \begin{vmatrix}
f(x_2) - f(x_1)
\end{vmatrix} \)
Abbiamo dunque
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}=\begin{vmatrix}
x_{n+m} - x_{n+m-1} + x_{n+m-1} - \ldots +x_{n+1} - x_n
\end{vmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \begin{vmatrix}
x_{n+m} - x_{n+m-1}\end{vmatrix} + \ldots +\begin{vmatrix} x_{n+1} - x_n
\end{vmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \begin{vmatrix}
f(x_2) - f(x_1)\end{vmatrix} + \ldots +\begin{vmatrix} f(x_2) - f(x_1)
\end{vmatrix} \)
Ora facendo una subdivisione dell'intervallo \([x_{i},x_{j}] \), dove \( x_i = \min(x_1,x_2)\) e \( x_j = \max(x_1,x_2)\), nel seguente modo:
\( x_i = \beta_0 < \ldots < \beta_k = x_j \) tale che
\(\begin{vmatrix}\beta_{\ell +1} - \beta_{\ell}\end{vmatrix} \leq \delta(\epsilon) \), \(\forall 0\leq \ell \leq k-1 \)
Allora risulta per continuita uniforme di \(f\) che
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq m \begin{vmatrix}
f(x_2) - f(x_1)\end{vmatrix} = m \begin{vmatrix}
f(\beta_k) - f(\beta_{k-1}) + f(\beta_{k-1}) - \ldots + f(\beta_1) - f(\beta_0)\end{vmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq m \begin{Bmatrix}
\begin{vmatrix}
f(\beta_k) - f(\beta_{k-1}) \end{vmatrix}+ \ldots +\begin{vmatrix} f(\beta_1) - f(\beta_0)\end{vmatrix}
\end{Bmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq mk \epsilon \leq \varepsilon \)
con \(\epsilon = \frac{\varepsilon}{mk} \).
In conclusione \(\forall \varepsilon>0, \exists N>0\) tale che \(\forall n>N, \forall m>0 \) risulta
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \varepsilon \) dunque \( (x_n)_{n\geq0}\) è di Cauchy, e dunque \( (x_n)_{n\geq0}\) converge.
Arrivato alla fine mi sono reso conto che non ho mostrato l'esistenza di \( N \) che renda \( x_n \) di Cauchy, pertanto mi domando se è corretto il mio ragionamento, se si cosa mi garantisce l'esistenza di \( N \) ?
(5) Sia \( f: \mathbb{R} \rightarrow \mathbb{R} \) una funzione di classe \( \mathcal{C}^1 \) tale che \(f([a,b]) \subset [a,b] \). E sia \((x_n)_{n\geq 0}\) la successione definita per \(x_0=\alpha \in [a,b]\) e \(x_{n+1}=f(x_n)\) per \(n\geq0\). Se la serie \(\sum\limits_{n=0}^{\infty} (f'(x))^n \) è convergente per tutti gli \(x\in [a,b]\). dimostra che \(x_n\) è convergente.
Abbiamo che \(\sum\limits_{n=0}^{\infty} (f'(x))^n \) converge dunque \(\lim\limits_{n\to \infty}(f'(x))^n = 0 \) pertanto abbiamo che \( \begin{vmatrix}
f'(x)
\end{vmatrix}<1\) per tutti gli \(x\in [a,b]\) dunque \(f \) è 1-lipschitziana su \([a,b]\). E dunque \(f\) è uniformemente continua su \([a,b]\). Dunque
\(\forall \epsilon >0, \exists \delta >0 \) tale che \(\forall x,y \in [a,b] \) se \(\begin{vmatrix}
x-y
\end{vmatrix}\leq \delta \) risulta che \(\begin{vmatrix}
f(x)-f(y)
\end{vmatrix}\leq \epsilon \)
Dimostriamo che \((x_n) \) è di Cauchy:
\(\forall \varepsilon>0, \exists N>0\) tale che \(\forall n>N, \forall m>0 \) risulta
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \varepsilon \)
Siccome \( f \) è 1-lipschitz risulta che:
\(\begin{vmatrix}
x_{n+1}-x_n
\end{vmatrix}=\begin{vmatrix}
f(x_n)-f(x_{n-1})
\end{vmatrix}\leq \begin{vmatrix}
x_n - x_{n-1}
\end{vmatrix} \leq \ldots \leq \begin{vmatrix}
f(x_2) - f(x_1)
\end{vmatrix} \)
Abbiamo dunque
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}=\begin{vmatrix}
x_{n+m} - x_{n+m-1} + x_{n+m-1} - \ldots +x_{n+1} - x_n
\end{vmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \begin{vmatrix}
x_{n+m} - x_{n+m-1}\end{vmatrix} + \ldots +\begin{vmatrix} x_{n+1} - x_n
\end{vmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \begin{vmatrix}
f(x_2) - f(x_1)\end{vmatrix} + \ldots +\begin{vmatrix} f(x_2) - f(x_1)
\end{vmatrix} \)
Ora facendo una subdivisione dell'intervallo \([x_{i},x_{j}] \), dove \( x_i = \min(x_1,x_2)\) e \( x_j = \max(x_1,x_2)\), nel seguente modo:
\( x_i = \beta_0 < \ldots < \beta_k = x_j \) tale che
\(\begin{vmatrix}\beta_{\ell +1} - \beta_{\ell}\end{vmatrix} \leq \delta(\epsilon) \), \(\forall 0\leq \ell \leq k-1 \)
Allora risulta per continuita uniforme di \(f\) che
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq m \begin{vmatrix}
f(x_2) - f(x_1)\end{vmatrix} = m \begin{vmatrix}
f(\beta_k) - f(\beta_{k-1}) + f(\beta_{k-1}) - \ldots + f(\beta_1) - f(\beta_0)\end{vmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq m \begin{Bmatrix}
\begin{vmatrix}
f(\beta_k) - f(\beta_{k-1}) \end{vmatrix}+ \ldots +\begin{vmatrix} f(\beta_1) - f(\beta_0)\end{vmatrix}
\end{Bmatrix} \)
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq mk \epsilon \leq \varepsilon \)
con \(\epsilon = \frac{\varepsilon}{mk} \).
In conclusione \(\forall \varepsilon>0, \exists N>0\) tale che \(\forall n>N, \forall m>0 \) risulta
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \varepsilon \) dunque \( (x_n)_{n\geq0}\) è di Cauchy, e dunque \( (x_n)_{n\geq0}\) converge.
Arrivato alla fine mi sono reso conto che non ho mostrato l'esistenza di \( N \) che renda \( x_n \) di Cauchy, pertanto mi domando se è corretto il mio ragionamento, se si cosa mi garantisce l'esistenza di \( N \) ?
Risposte
"3m0o":
Ho solo un piccolo dubbio su questo esercizio.
(5) Sia \( f: \mathbb{R} \rightarrow \mathbb{R} \) una funzione di classe \( \mathcal{C}^1 \) tale che \(f([a,b]) \subset [a,b] \). E sia \((x_n)_{n\geq 0}\) la successione definita per \(x_0=\alpha \in [a,b]\) e \(x_{n+1}=f(x_n)\) per \(n\geq0\). Se la serie \(\sum\limits_{n=0}^{\infty} (f'(x))^n \) è convergente per tutti gli \(x\in [a,b]\). dimostra che \(x_n\) è convergente.
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq mk \epsilon \leq \varepsilon \)
con \(\epsilon = \frac{\varepsilon}{mk} \).
In conclusione \(\forall \varepsilon>0, \exists N>0\) tale che \(\forall n>N, \forall m>0 \) risulta
\(\begin{vmatrix}
x_{n+m} - x_n
\end{vmatrix}\leq \varepsilon \) dunque \( (x_n)_{n\geq0}\) è di Cauchy, e dunque \( (x_n)_{n\geq0}\) converge.
Ho detto una cavolata perché avremmo \( k(\epsilon) = \frac{ \begin{vmatrix} x_i - x_j \end{vmatrix}}{\delta(\epsilon)} \) e dunque non posso dire \( \epsilon = \frac{\varepsilon}{k(\epsilon)m } \) perché dipende da \( \epsilon \).
Però questo esercizio è molto simile alla dimostrazione dei punti fissi di Banach, l'unica cosa che mi manca è il fatto che \( f \) è una contrazione. So per il teorema di Lagrange che \( \begin{vmatrix} f(x_n) - f(x_{n-1}) \end{vmatrix} < \begin{vmatrix} x_{n-1} - x_{n-2} \end{vmatrix} \). Quindi per ogni \( n \) esiste un \( h_n <1 \) tale che \( \begin{vmatrix} f(x_n) - f(x_{n-1}) \end{vmatrix} \leq h_n \begin{vmatrix} x_{n-1} - x_{n-2} \end{vmatrix} \) pertanto iterando mi ritrovo ad avere \( \begin{vmatrix} f(x_n) - f(x_{n-1}) \end{vmatrix} \leq \begin{vmatrix} f(\alpha) - \alpha \end{vmatrix} \prod\limits_{i=0}^{n}h_i \) sarei tentato di porre \( k= \sup_{i \in [0,n]} h_i \) e minorare tutto per \( \leq \begin{vmatrix} f(\alpha) - \alpha \end{vmatrix} k^n \) per poi fare come nella dimostrazione dei punti fissi di Banach ma con \( n \) che va a infinito potrebbe essere che \( k \) sia \( 1 \) e sarebbe un problema...
Avreste dei consigli?

Grazie in anticipo
"3m0o":
Avreste dei consigli?![]()
Prova a fare così: considera una sottosuccessione convergente (perché esiste?), poi dimostra che il limite di questa successione deve essere un punto fisso di $f$, poi sfrutta in fatto che la derivata è minore di $1$ ed è continua per trovare un intorno del punto fisso in cui la funzione è una contrazione. Concludi dimostrando che tutta la successione allora converge a quel punto.