Composizione differenziabile
Sia \( f : E \subset \mathbb{R}^n \rightarrow \mathbb{R}^m \) e \( g: F \subset \mathbb{R}^m \rightarrow \mathbb{R}^p \) con \( E,F \) aperti e non vuoti, con \( \operatorname{Im}(f) \subset F \), \( x_0 \in E^{\circ} \) e \( y_0 = f(x_0) \in F^{circ} \). Se \( f \) differenziabile in \( x_0 \) e \( g \) differenziabile in \( y_0 \) allora \( \varphi = g \circ f \) differenziabile in \( x_0 \)
Dimostrazione:
...
Dopo diversi passaggi sono arrivato a dimostrare che
\[ \varphi(x) = g(f(x_0)) + Dg(f(x_0)) \cdot Df(x_0) \cdot (x-x_0) + A(x)+ B(x) \]
dove
\[ A(x) = \begin{Vmatrix} x - x_0 \end{Vmatrix} Dg(y_0) \cdot r_f(x) \]
e \( \lim\limits_{x \to x_0 } r_f(x) = 0 \)
\[ A(x) = \begin{Vmatrix} h(x) \end{Vmatrix} r_g(f(x)) \]
e \( \lim\limits_{y \to y_0} r_g(y) = 0 \)
e \( h(x)= Df(x_0) \cdot (x-x_0)+\begin{Vmatrix} x - x_0 \end{Vmatrix}r_f(x) \)
Resta a dimostrare che \( R_{\varphi}(x) = A(x) + B(x) = o(\begin{Vmatrix} x - x_0 \end{Vmatrix}) \)
Da qui mi sono bloccato e le soluzioni dicono
\[ \lim\limits_{x \to x_0} \frac{ \begin{Vmatrix}A(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}}= \lim\limits_{x \to x_0} \begin{Vmatrix} Dg(y_0) \cdot r_f(x) \end{Vmatrix} \leq \begin{Vmatrix} Dg(y_0) \end{Vmatrix}_M \lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix}=0 \]
Dove \( \begin{Vmatrix} C \end{Vmatrix}_M=\sup_{y \in \mathbb{R}^m, y \neq 0} \frac{\begin{Vmatrix} Cy \end{Vmatrix}}{\begin{Vmatrix} y \end{Vmatrix}} \)
Per \( B(x) \)
\[ \frac{\begin{Vmatrix}B(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}}=\frac{ \begin{Vmatrix}h(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \leq \frac{ \begin{Vmatrix} Df(x_0) \cdot (x-x_0)\end{Vmatrix}+\begin{Vmatrix} x - x_0 \end{Vmatrix}\begin{Vmatrix} r_f(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \]
\[ \leq ( \begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\begin{Vmatrix} r_f(x) \end{Vmatrix} )\begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \]
Siccome \( \lim\limits_{x \to x_0 } f(x)=y_0=f(x_0) \), \( f \) continua in \( x_0 \) e \( \lim\limits_{y \to y_0} r_g(y) = 0 \) allora abbiamo che \( \lim\limits_{x \to x_0} r_g(f(x)) = 0 \), d'altra parte abbiamo che \( \lim\limits_{x \to x_0 } r_f(x) = 0 \) dunque
\[ \lim\limits_{x \to x_0} \frac{\begin{Vmatrix}B(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}} \leq (\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix} )\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix}=0 \]
Io non capisco il motivo per cui conclude che \( (\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix} )\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix}=0 \), a priori \( \begin{Vmatrix} Df(x_0) \end{Vmatrix}_M\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \neq 0 \) il sup non potrebbe farmi infinito?
Idem per \( \begin{Vmatrix} Dg(y_0) \end{Vmatrix}_M \lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix}=0 \)
Dunque \( R_{\varphi}(x) = o(\begin{Vmatrix}x-x_0\end{Vmatrix}) \) e \( \varphi \) differenziabile in \( x_0 \).
Dimostrazione:
...
Dopo diversi passaggi sono arrivato a dimostrare che
\[ \varphi(x) = g(f(x_0)) + Dg(f(x_0)) \cdot Df(x_0) \cdot (x-x_0) + A(x)+ B(x) \]
dove
\[ A(x) = \begin{Vmatrix} x - x_0 \end{Vmatrix} Dg(y_0) \cdot r_f(x) \]
e \( \lim\limits_{x \to x_0 } r_f(x) = 0 \)
\[ A(x) = \begin{Vmatrix} h(x) \end{Vmatrix} r_g(f(x)) \]
e \( \lim\limits_{y \to y_0} r_g(y) = 0 \)
e \( h(x)= Df(x_0) \cdot (x-x_0)+\begin{Vmatrix} x - x_0 \end{Vmatrix}r_f(x) \)
Resta a dimostrare che \( R_{\varphi}(x) = A(x) + B(x) = o(\begin{Vmatrix} x - x_0 \end{Vmatrix}) \)
Da qui mi sono bloccato e le soluzioni dicono
\[ \lim\limits_{x \to x_0} \frac{ \begin{Vmatrix}A(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}}= \lim\limits_{x \to x_0} \begin{Vmatrix} Dg(y_0) \cdot r_f(x) \end{Vmatrix} \leq \begin{Vmatrix} Dg(y_0) \end{Vmatrix}_M \lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix}=0 \]
Dove \( \begin{Vmatrix} C \end{Vmatrix}_M=\sup_{y \in \mathbb{R}^m, y \neq 0} \frac{\begin{Vmatrix} Cy \end{Vmatrix}}{\begin{Vmatrix} y \end{Vmatrix}} \)
Per \( B(x) \)
\[ \frac{\begin{Vmatrix}B(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}}=\frac{ \begin{Vmatrix}h(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \leq \frac{ \begin{Vmatrix} Df(x_0) \cdot (x-x_0)\end{Vmatrix}+\begin{Vmatrix} x - x_0 \end{Vmatrix}\begin{Vmatrix} r_f(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \]
\[ \leq ( \begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\begin{Vmatrix} r_f(x) \end{Vmatrix} )\begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \]
Siccome \( \lim\limits_{x \to x_0 } f(x)=y_0=f(x_0) \), \( f \) continua in \( x_0 \) e \( \lim\limits_{y \to y_0} r_g(y) = 0 \) allora abbiamo che \( \lim\limits_{x \to x_0} r_g(f(x)) = 0 \), d'altra parte abbiamo che \( \lim\limits_{x \to x_0 } r_f(x) = 0 \) dunque
\[ \lim\limits_{x \to x_0} \frac{\begin{Vmatrix}B(x) \end{Vmatrix}}{\begin{Vmatrix}x-x_0\end{Vmatrix}} \leq (\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix} )\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix}=0 \]
Io non capisco il motivo per cui conclude che \( (\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix} )\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix}=0 \), a priori \( \begin{Vmatrix} Df(x_0) \end{Vmatrix}_M\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix} \neq 0 \) il sup non potrebbe farmi infinito?
Idem per \( \begin{Vmatrix} Dg(y_0) \end{Vmatrix}_M \lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix}=0 \)
Dunque \( R_{\varphi}(x) = o(\begin{Vmatrix}x-x_0\end{Vmatrix}) \) e \( \varphi \) differenziabile in \( x_0 \).
Risposte
Ciao!
Non ti sembra troppo macchinosa la dimostrazione? E' una cosa semplice.
Secondo me il tutto diventa più chiaro alleggerendo le notazioni
uso le tue stesse ipotesi con la differenza che pongo $T$ il differenziale di $g$ in $f(x_0)$, $L$ il differenziale di $f$ in $x_0$ e $R_f$,$R_g$ i resti
per la differenziabilità di $g$ in $f(x_0)$
per la differenziabilità di $f$ in $x_0$
dalla continuità di $f$ in $x_0$ in un opportuno intorno di $k=0$ si può scrivere
per la linearità di $T$, ponendo $Deltaf(k)=f(x_0+k)-f(x_0)$ per alleggerire la notazione, basta dimostrare che la quantità $T(R_(f)(k))+R_(g)(Deltaf(k))$ è un resto
Il primo è banale $norm(T(R_(f)(k)))leqnorm(T)_(op)norm(R_(f)(k))=> norm(T(R_(f)(k)))/norm(k)leqnorm(T)_(op)norm(R_(f)(k))/norm(k)->0$
Il pezzo complicatino da trattare è proprio la quantità $norm(R_(g)(Deltaf(k)))$
Per questo basta notare che fissato $epsilon>0$ possiamo trovare un intorno di $k=0$ nel quale sono contemporaneamente vere le seguenti affermazioni
Non ci credo: qualcuno che è più prolisso di te? It's impossible
Oh, si scherza eh! Vale per tutti e due
Cordialmente, Alex
Innanzitutto grazie della risposta
Sebbene io lo trovi sì macchinosa non ho un problema con le notazioni, infatti è tutto il corso che il prof usa questa notazione, e inoltre questa è la dimostrazione proposta dal prof in corso e che può esigere. Ciò che semplicemente non mi è chiaro è il motivo per cui
\( (\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix} )\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix}=0 \)
Dove \( \begin{Vmatrix} Df(x_0) \end{Vmatrix}_M=\sup_{y \in \mathbb{R}^m, y \neq 0} \frac{\begin{Vmatrix} Df(x_0)y \end{Vmatrix}}{\begin{Vmatrix} y \end{Vmatrix}} \)
Nel senso in quanto \(\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M \) è un supremum potrebbe tecnicamente essere "uguale" a infinito. Cosa mi assicura che il sup sia un numero reale finito? Chiaramente abbiamo che
\(\sup_{y \in \mathbb{R}^m, y \neq 0} \frac{\begin{Vmatrix} Df(x_0)y \end{Vmatrix}}{\begin{Vmatrix} y \end{Vmatrix}} = \sup_{y \in \mathbb{R}^m,\begin{Vmatrix} y \end{Vmatrix}=1} \begin{Vmatrix} Df(x_0)y \end{Vmatrix}\)
e quindi la sfera unitaria è compatta dunque se \( Df(x_0) \) fosse continua possiede un massimo sulla sfera unitaria che coincide con il sup. Ma cosa mi assicura che \( Df(x_0) \) continua? Se non continua cosa mi assicura che è limitata?
Il resto mi è chiaro.
Con "vale per tutti e due" intendi che siamo prolissi entrambi
Ah... it's possible
L'avevo capito...
Bravo, hai centrato il punto ed è una cosa importante. Anto sta facendo un po' di "spoilers" di analisi funzionale, ma se (come credo) hai poco tempo e molto da fare, fai un ragionamento più concreto e veloce.
La scrittura \(y=Df(x_0)x\) denota il prodotto di una matrice per il vettore \(x\in\mathbb R^n\). Potrà mai essere una funzione non continua di \((x_1, x_2, \ldots, x_n)\)? No, perché ogni entrata di \(y\) è della forma \(a_{j1}x_1+\ldots+a_{n1}x_n\), dove \(a_{ij}\) sono dei numeri fissati. Si tratta di un polinomio, peraltro di primo grado, è sicuramente una funzione continua.
Chiaro, se passi a spazi di dimensione infinita il discorso è più complicato. In quel caso si fa una telefonata ad anto_zoolander e gli si chiede di spiegarci gli operatori limitati. Ma per il momento, pensare ai polinomi è sufficiente.
Hai fatto bene. Ma io lo sapevo, se uno sta preparando una barca di esami difficili, a breve scadenza, l'ultima cosa di cui ha bisogno è di un forum che gli proponga ancora più esercizi, ancora più informazioni.
Non ti sembra troppo macchinosa la dimostrazione? E' una cosa semplice.
Secondo me il tutto diventa più chiaro alleggerendo le notazioni
uso le tue stesse ipotesi con la differenza che pongo $T$ il differenziale di $g$ in $f(x_0)$, $L$ il differenziale di $f$ in $x_0$ e $R_f$,$R_g$ i resti
per la differenziabilità di $g$ in $f(x_0)$
$g(f(x_0)+h)-g(x_0)=T(h)+R_(g) (h)$
per la differenziabilità di $f$ in $x_0$
$f(x_0+k)-f(x_0)=L(k)+R_(f) (k)$
dalla continuità di $f$ in $x_0$ in un opportuno intorno di $k=0$ si può scrivere
$g(f(x_0+k))-g(f(x_0))=T(L(k)+R_(f)(k))+R_(g)(f(x_0+k)-f(x_0))$
per la linearità di $T$, ponendo $Deltaf(k)=f(x_0+k)-f(x_0)$ per alleggerire la notazione, basta dimostrare che la quantità $T(R_(f)(k))+R_(g)(Deltaf(k))$ è un resto
Il primo è banale $norm(T(R_(f)(k)))leqnorm(T)_(op)norm(R_(f)(k))=> norm(T(R_(f)(k)))/norm(k)leqnorm(T)_(op)norm(R_(f)(k))/norm(k)->0$
Il pezzo complicatino da trattare è proprio la quantità $norm(R_(g)(Deltaf(k)))$
Per questo basta notare che fissato $epsilon>0$ possiamo trovare un intorno di $k=0$ nel quale sono contemporaneamente vere le seguenti affermazioni
$norm(R_(g)(Deltaf(k)))
$norm(R_(g)(Deltaf(k)))/(norm(k))
L’essere un resto segue dall’arbitrarietà di $epsilon$; fine.
L’essere un resto segue dall’arbitrarietà di $epsilon$; fine.
"anto_zoolander":
... Non ti sembra troppo macchinosa la dimostrazione? E' una cosa semplice.
Secondo me il tutto diventa più chiaro alleggerendo le notazioni



Non ci credo: qualcuno che è più prolisso di te? It's impossible

Oh, si scherza eh! Vale per tutti e due

Cordialmente, Alex
[ot]ci ""conosciamo"" da abbastanza tempo per poter apprezzare lo scherzo
[/ot]

"anto_zoolander":
Non ti sembra troppo macchinosa la dimostrazione? E' una cosa semplice.
Secondo me il tutto diventa più chiaro alleggerendo le notazioni
Innanzitutto grazie della risposta

Sebbene io lo trovi sì macchinosa non ho un problema con le notazioni, infatti è tutto il corso che il prof usa questa notazione, e inoltre questa è la dimostrazione proposta dal prof in corso e che può esigere. Ciò che semplicemente non mi è chiaro è il motivo per cui
\( (\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M+\lim\limits_{x \to x_0} \begin{Vmatrix} r_f(x) \end{Vmatrix} )\lim\limits_{x \to x_0} \begin{Vmatrix} r_g(f(x)) \end{Vmatrix}=0 \)
Dove \( \begin{Vmatrix} Df(x_0) \end{Vmatrix}_M=\sup_{y \in \mathbb{R}^m, y \neq 0} \frac{\begin{Vmatrix} Df(x_0)y \end{Vmatrix}}{\begin{Vmatrix} y \end{Vmatrix}} \)
Nel senso in quanto \(\begin{Vmatrix} Df(x_0) \end{Vmatrix}_M \) è un supremum potrebbe tecnicamente essere "uguale" a infinito. Cosa mi assicura che il sup sia un numero reale finito? Chiaramente abbiamo che
\(\sup_{y \in \mathbb{R}^m, y \neq 0} \frac{\begin{Vmatrix} Df(x_0)y \end{Vmatrix}}{\begin{Vmatrix} y \end{Vmatrix}} = \sup_{y \in \mathbb{R}^m,\begin{Vmatrix} y \end{Vmatrix}=1} \begin{Vmatrix} Df(x_0)y \end{Vmatrix}\)
e quindi la sfera unitaria è compatta dunque se \( Df(x_0) \) fosse continua possiede un massimo sulla sfera unitaria che coincide con il sup. Ma cosa mi assicura che \( Df(x_0) \) continua? Se non continua cosa mi assicura che è limitata?
Il resto mi è chiaro.
"axpgn":
Oh, si scherza eh! Vale per tutti e due![]()
Cordialmente, Alex
Con "vale per tutti e due" intendi che siamo prolissi entrambi


Ah... it's possible

Yes, it's possible
... comunque, no, era una battuta per tutti e due


"axpgn":
Yes, it's possible... comunque, no, era una battuta per tutti e due
L'avevo capito...

Ok allora perdonami ma non avevo colto il problema; in genere si richiede che il differenziale $Df(x_0)$ sia una applicazione continua e questo è equivalente al dire che la norma operatoriale sia finita.
Dimostra che per una funzione lineare $T:V->W$ tra due spazi normati sono equivalenti
- $T$ è continua in $0$
- $T$ è lipschitziana
- $norm(T)_(op)=s u p_(xne0)norm(T(x))_(W)/norm(x)_(V) in RR$
Dimostra che per una funzione lineare $T:V->W$ tra due spazi normati sono equivalenti
- $T$ è continua in $0$
- $T$ è lipschitziana
- $norm(T)_(op)=s u p_(xne0)norm(T(x))_(W)/norm(x)_(V) in RR$
Edit -> figurati mi ero espresso probabilmente male io.
- continuità in zero (non sono sicuro)
Poniamo \( \dim V = n \) e \( \dim W = m \)
Sia \( L \in \mathbb{R}^{m \times n } \) e \( b \in W \) tale che \( T(x)=L \cdot x + b \), \( \forall x \in V \)
abbiamo che \( T \) è continua in zero se \( \forall \epsilon>0 \) esiste \( \delta_{\epsilon,0} >0 \) tale che \( \forall x \in B(0,\delta_{\epsilon,0} ) \subset V \) risulta che \( \begin{Vmatrix} T(x) - T(0) \end{Vmatrix}_W \leq \epsilon \)
E verifichiamo che la scelta di \( \delta_{\epsilon,0} = \frac{ \epsilon}{\begin{Vmatrix} L \end{Vmatrix}_F} \) è sufficiente.
Infatti abbiamo \( \begin{Vmatrix} T(x) - T(0) \end{Vmatrix}_W = \begin{Vmatrix} L \cdot x \end{Vmatrix}_W \leq \begin{Vmatrix} L \end{Vmatrix}_F \begin{Vmatrix} x \end{Vmatrix}_V \leq \epsilon \)
Dove \( \begin{Vmatrix} \cdot \end{Vmatrix}_F \) indico la norma di Frobenius
- Lipschitzianità
\( T \) è lipschitziana se \( \exists K >0 \) tale che \( \forall x,y \in V \) abbiamo che \( \begin{Vmatrix} T(x) - T(y) \end{Vmatrix}_W \leq K \begin{Vmatrix} x - y \end{Vmatrix}_V \)
È facile verificare che \( \begin{Vmatrix} T(x) - T(y) \end{Vmatrix}_W = \begin{Vmatrix} L \cdot x - L \cdot y \end{Vmatrix}_W \leq \begin{Vmatrix} L \end{Vmatrix}_F \begin{Vmatrix} x - y \end{Vmatrix}_V \)
Pertanto \( K = \begin{Vmatrix} L \end{Vmatrix}_F \) soddifsa la lipschitzianità
- Ultimo punto
\( \begin{Vmatrix} L \end{Vmatrix}_F \in \mathbb{R} \)
\[ 0 \leq \begin{Vmatrix} L \end{Vmatrix}_{op}^2 = \sup_{\xi \in \mathbb{R}^n, \begin{Vmatrix} \xi \end{Vmatrix}=1 } \sum\limits_{i=1}^{m} \begin{pmatrix}
\sum\limits_{j=1}^{n} L_{ij}\xi_j
\end{pmatrix}^2 \leq \sup_{\xi \in \mathbb{R}^n, \begin{Vmatrix} \xi \end{Vmatrix}=1 } \sum\limits_{i=1}^{m} \begin{pmatrix}
\sum\limits_{j=1}^{n} L_{ij}^2
\end{pmatrix} \begin{pmatrix}
\sum\limits_{j=1}^{n} \xi_j^2
\end{pmatrix} = \begin{Vmatrix} L \end{Vmatrix}_F^2 \]
Dunque \( \begin{Vmatrix} L \end{Vmatrix}_{op} \in \mathbb{R} \)
- continuità in zero (non sono sicuro)
Poniamo \( \dim V = n \) e \( \dim W = m \)
Sia \( L \in \mathbb{R}^{m \times n } \) e \( b \in W \) tale che \( T(x)=L \cdot x + b \), \( \forall x \in V \)
abbiamo che \( T \) è continua in zero se \( \forall \epsilon>0 \) esiste \( \delta_{\epsilon,0} >0 \) tale che \( \forall x \in B(0,\delta_{\epsilon,0} ) \subset V \) risulta che \( \begin{Vmatrix} T(x) - T(0) \end{Vmatrix}_W \leq \epsilon \)
E verifichiamo che la scelta di \( \delta_{\epsilon,0} = \frac{ \epsilon}{\begin{Vmatrix} L \end{Vmatrix}_F} \) è sufficiente.
Infatti abbiamo \( \begin{Vmatrix} T(x) - T(0) \end{Vmatrix}_W = \begin{Vmatrix} L \cdot x \end{Vmatrix}_W \leq \begin{Vmatrix} L \end{Vmatrix}_F \begin{Vmatrix} x \end{Vmatrix}_V \leq \epsilon \)
Dove \( \begin{Vmatrix} \cdot \end{Vmatrix}_F \) indico la norma di Frobenius
- Lipschitzianità
\( T \) è lipschitziana se \( \exists K >0 \) tale che \( \forall x,y \in V \) abbiamo che \( \begin{Vmatrix} T(x) - T(y) \end{Vmatrix}_W \leq K \begin{Vmatrix} x - y \end{Vmatrix}_V \)
È facile verificare che \( \begin{Vmatrix} T(x) - T(y) \end{Vmatrix}_W = \begin{Vmatrix} L \cdot x - L \cdot y \end{Vmatrix}_W \leq \begin{Vmatrix} L \end{Vmatrix}_F \begin{Vmatrix} x - y \end{Vmatrix}_V \)
Pertanto \( K = \begin{Vmatrix} L \end{Vmatrix}_F \) soddifsa la lipschitzianità
- Ultimo punto
\( \begin{Vmatrix} L \end{Vmatrix}_F \in \mathbb{R} \)
\[ 0 \leq \begin{Vmatrix} L \end{Vmatrix}_{op}^2 = \sup_{\xi \in \mathbb{R}^n, \begin{Vmatrix} \xi \end{Vmatrix}=1 } \sum\limits_{i=1}^{m} \begin{pmatrix}
\sum\limits_{j=1}^{n} L_{ij}\xi_j
\end{pmatrix}^2 \leq \sup_{\xi \in \mathbb{R}^n, \begin{Vmatrix} \xi \end{Vmatrix}=1 } \sum\limits_{i=1}^{m} \begin{pmatrix}
\sum\limits_{j=1}^{n} L_{ij}^2
\end{pmatrix} \begin{pmatrix}
\sum\limits_{j=1}^{n} \xi_j^2
\end{pmatrix} = \begin{Vmatrix} L \end{Vmatrix}_F^2 \]
Dunque \( \begin{Vmatrix} L \end{Vmatrix}_{op} \in \mathbb{R} \)
Allora partiamo dal fatto che $T(x)=L*x+b$ non è una funzione lineare; basta notare che $T(0)=0$ sse $b=0$ e sopratutto ti serve che $b=0$ per definire la norma di fatto
$norm(T)_(op)=0$ deve implicare $T=0$ e quindi $b$ deve essere nullo, perché in particolare $T(0)=0$.
Inoltre è un fatto generale; non serve imporre che abbiano una dimensione finita puoi usare spazi anche di dimensione infinita.
Ti faccio l'esempio per quanto riguarda continuità in $0$ => $norm(T)_(op)<+infty$
se una funzione $T:X->Y$ è continua tra i due spazi normati allora
per ogni vettore $xne0$ basta considerare che $norm(delta/2*x/norm(x))_X=delta/2
quindi si conclude considerando che $forallx ne0$ si ha $norm(T(x))_Y/norm(x)_X norm(T)_(op)leqL$
come puoi notare ho soltanto usato la linearità della applicazione e le proprietà della norma.
$norm(T)_(op)=0$ deve implicare $T=0$ e quindi $b$ deve essere nullo, perché in particolare $T(0)=0$.
Inoltre è un fatto generale; non serve imporre che abbiano una dimensione finita puoi usare spazi anche di dimensione infinita.
Ti faccio l'esempio per quanto riguarda continuità in $0$ => $norm(T)_(op)<+infty$
se una funzione $T:X->Y$ è continua tra i due spazi normati allora
per $epsilon=1$ esiste $delta>0$ tale che $norm(x)_X norm(T(x))_Y<1$
per ogni vettore $xne0$ basta considerare che $norm(delta/2*x/norm(x))_X=delta/2
$1>norm(T(1/L*x/norm(x)))_Y=1/L*norm(T(x))_Y/norm(x)_X$
quindi si conclude considerando che $forallx ne0$ si ha $norm(T(x))_Y/norm(x)_X
come puoi notare ho soltanto usato la linearità della applicazione e le proprietà della norma.
Premessa che sono stanco e tralasciamo che ho confuso lineare con affine
ho pure malinterpretato il tuo messaggio...
l'avevo interpretato come dimostra 1) continua 2) lipschitz 3) ... come punti separati e non dimostra che continuita equivalente a norma spettarle un numero reale etc..
Detto ciò \( \frac{1}{L} \) non ha molto senso, \( L \) è una matrice. Domani con più freschezza ci riprovo

l'avevo interpretato come dimostra 1) continua 2) lipschitz 3) ... come punti separati e non dimostra che continuita equivalente a norma spettarle un numero reale etc..
Detto ciò \( \frac{1}{L} \) non ha molto senso, \( L \) è una matrice. Domani con più freschezza ci riprovo

No $1/L$ è un numero; l’ho definito come $L:=2/delta$ per sottintendere il simbolo usuale che si usa per la costante di Lipschitz
Non ho preso la tua applicazione $T(x)=Lx$ perché non avrebbe senso parlare di matrice rappresentativa se gli spazi hanno dimensione finita; il mio operatore è generico e non ha una “forma”
btw la dimostrazione che ho fatto si trova pari pari sul libro "Undegraduate Analysis" di Serg Lang a pag. 455 e questo sarebbe il motivo per cui quel termine è limitato nella dimostrazione del tuo prof.
Non ho preso la tua applicazione $T(x)=Lx$ perché non avrebbe senso parlare di matrice rappresentativa se gli spazi hanno dimensione finita; il mio operatore è generico e non ha una “forma”
btw la dimostrazione che ho fatto si trova pari pari sul libro "Undegraduate Analysis" di Serg Lang a pag. 455 e questo sarebbe il motivo per cui quel termine è limitato nella dimostrazione del tuo prof.
"3m0o":
se \( Df(x_0) \) fosse continua possiede un massimo sulla sfera unitaria che coincide con il sup. Ma cosa mi assicura che \( Df(x_0) \) continua?
Bravo, hai centrato il punto ed è una cosa importante. Anto sta facendo un po' di "spoilers" di analisi funzionale, ma se (come credo) hai poco tempo e molto da fare, fai un ragionamento più concreto e veloce.
La scrittura \(y=Df(x_0)x\) denota il prodotto di una matrice per il vettore \(x\in\mathbb R^n\). Potrà mai essere una funzione non continua di \((x_1, x_2, \ldots, x_n)\)? No, perché ogni entrata di \(y\) è della forma \(a_{j1}x_1+\ldots+a_{n1}x_n\), dove \(a_{ij}\) sono dei numeri fissati. Si tratta di un polinomio, peraltro di primo grado, è sicuramente una funzione continua.
Chiaro, se passi a spazi di dimensione infinita il discorso è più complicato. In quel caso si fa una telefonata ad anto_zoolander e gli si chiede di spiegarci gli operatori limitati. Ma per il momento, pensare ai polinomi è sufficiente.
@peppe
[ot]sei cattivo

Queste cose le ho fatte per conto mio
[/ot]
[ot]sei cattivo


Queste cose le ho fatte per conto mio

Grazie si, chiaro!
Per anto, comunque non ho dimenticato quello che mi hai detto di dimostrare, è che essendo in periodo esami ed essendo un po' con l'acqua alla gola, ho preferito dare precedenza alle cose che potenzialmente ci verrano richieste. Ma finito periodo esami ci riprovo.
Per anto, comunque non ho dimenticato quello che mi hai detto di dimostrare, è che essendo in periodo esami ed essendo un po' con l'acqua alla gola, ho preferito dare precedenza alle cose che potenzialmente ci verrano richieste. Ma finito periodo esami ci riprovo.

"anto_zoolander":
@peppe
sei cattivo![]()
Queste cose le ho fatte per conto mio

Hai fatto bene. Ma io lo sapevo, se uno sta preparando una barca di esami difficili, a breve scadenza, l'ultima cosa di cui ha bisogno è di un forum che gli proponga ancora più esercizi, ancora più informazioni.
Ciao! Sono il tuo Tutor AI, il compagno ideale per uno studio interattivo. Utilizzo il metodo maieutico per affinare il tuo ragionamento e la comprensione. Insieme possiamo:
- Risolvere un problema di matematica
- Riassumere un testo
- Tradurre una frase
- E molto altro ancora...
Il Tutor AI di Skuola.net usa un modello AI di Chat GPT.
Per termini, condizioni e privacy, visita la relativa pagina.
Per termini, condizioni e privacy, visita la relativa pagina.