Lemma di Gronwall
Buongiorno ragazz*!
Il professore di Analisi 3 ci ha presentato un enunciato sotto il nome di Lemma di Gronwall:
Sia $L > 0$, sia $I sube RR$ un intervallo reale, sia $t_0 in I$ e sia $omega : I rarr [0, +oo[$ una funzione continua tale che $AA t in I:$
$omega(t) <= Labs(\int_{t_0}^{t} omega(s) ds)$.
Allora $omega$ è identicamente nulla su $I$.
Vorrei chiedervi se la seguente dimostrazione è corretta.
DIM:
Si assuma $t >= t_0$ appartenente ad $I$.
Vale per ipotesi che $AAx in [t_0, t] : omega(x) <= L\int_{t_0}^{x} omega(s) ds$ e quindi, posto $M = max{omega(x) : x in [t_0,t]}$, ne deduco che $M <= ML(t-t_0)$.
Si supponga per assurdo che $omega$ non sia identicamente nulla; allora $M > 0$ e quindi $M <= ML(t-t_0) Leftrightarrow t-t_0 >= 1/L$.
E' ora corretto affermare che l'assurdo sta nello scegliere all'inizio un $tinI$ tale che $t-t_0 < 1/L$ e pervenire comunque alla diseguaglianza $t-t_0 >= 1/L$ ??
Se la dimostrazione è corretta per $t >= t_0$ allora sarà sufficiente usare un ragionamento analogo per la funzione $t -> omega(t_0 - t)$.
Il professore di Analisi 3 ci ha presentato un enunciato sotto il nome di Lemma di Gronwall:
Sia $L > 0$, sia $I sube RR$ un intervallo reale, sia $t_0 in I$ e sia $omega : I rarr [0, +oo[$ una funzione continua tale che $AA t in I:$
$omega(t) <= Labs(\int_{t_0}^{t} omega(s) ds)$.
Allora $omega$ è identicamente nulla su $I$.
Vorrei chiedervi se la seguente dimostrazione è corretta.
DIM:
Si assuma $t >= t_0$ appartenente ad $I$.
Vale per ipotesi che $AAx in [t_0, t] : omega(x) <= L\int_{t_0}^{x} omega(s) ds$ e quindi, posto $M = max{omega(x) : x in [t_0,t]}$, ne deduco che $M <= ML(t-t_0)$.
Si supponga per assurdo che $omega$ non sia identicamente nulla; allora $M > 0$ e quindi $M <= ML(t-t_0) Leftrightarrow t-t_0 >= 1/L$.
E' ora corretto affermare che l'assurdo sta nello scegliere all'inizio un $tinI$ tale che $t-t_0 < 1/L$ e pervenire comunque alla diseguaglianza $t-t_0 >= 1/L$ ??
Se la dimostrazione è corretta per $t >= t_0$ allora sarà sufficiente usare un ragionamento analogo per la funzione $t -> omega(t_0 - t)$.
Risposte
Ciao! Provo a risponderti (ma prendi con le pinze ciò che scrivo)
questo è vero per \(t\) sufficientemente grande, cioè devi avere un punto compreso tra \(t_0\) e \(t\) in cui \(\omega\) non si annulla
e qui chiedi che \(t\) sia sufficientemente piccolo, quindi non sembra tanto compatibile con l'ipotesi precedente.
Proviamo a sistemare un po': sia \(t_1 > t_0\) tale che \(\omega(t_1) \neq 0\) e sia $\overline{t} \in [t_0, t_1]$ il punto in cui \(\omega\) ottiene il massimo, allora hai $\omega(\overline{t}) \leq L \int_{t_0}^{\overline{t}} \omega(s) ds \leq L (\overline{t} - t_0) \omega(\overline{t})$ e quindi $1 \leq L (\overline{t} - t_0)$ da cui $t_1 \geq \overline{t} \geq t_0 + 1/L$, in particolare hai che \(\omega = 0\) nell'intervallo \([t_0, t_0 + 1/L)\) (contronominale di ciò che abbiamo appena dimostrato).
A questo punto $\int_{t_0}^{t_0 + 1/L} \omega(s) ds = 0$ e puoi ripetere lo stesso ragionamento per dimostrare che \(\omega = 0\) in \([t_0, t_0 + n/L)\), \(n\) arbitrario.
"AndrewA":
Si supponga per assurdo che ω non sia identicamente nulla; allora M>0
questo è vero per \(t\) sufficientemente grande, cioè devi avere un punto compreso tra \(t_0\) e \(t\) in cui \(\omega\) non si annulla
"AndrewA":
E' ora corretto affermare che l'assurdo sta nello scegliere all'inizio un t∈I tale che t−t0<1L
e qui chiedi che \(t\) sia sufficientemente piccolo, quindi non sembra tanto compatibile con l'ipotesi precedente.
Proviamo a sistemare un po': sia \(t_1 > t_0\) tale che \(\omega(t_1) \neq 0\) e sia $\overline{t} \in [t_0, t_1]$ il punto in cui \(\omega\) ottiene il massimo, allora hai $\omega(\overline{t}) \leq L \int_{t_0}^{\overline{t}} \omega(s) ds \leq L (\overline{t} - t_0) \omega(\overline{t})$ e quindi $1 \leq L (\overline{t} - t_0)$ da cui $t_1 \geq \overline{t} \geq t_0 + 1/L$, in particolare hai che \(\omega = 0\) nell'intervallo \([t_0, t_0 + 1/L)\) (contronominale di ciò che abbiamo appena dimostrato).
A questo punto $\int_{t_0}^{t_0 + 1/L} \omega(s) ds = 0$ e puoi ripetere lo stesso ragionamento per dimostrare che \(\omega = 0\) in \([t_0, t_0 + n/L)\), \(n\) arbitrario.
Sono d'accordo con tombino che c'è qualcosa che non va. (Questo tipo di dimostrazioni è facilmente soggetto a falle logiche: esempio). La falla, secondo me, sta nel fatto che \(M\) è una funzione di \(t\) (sto sostanzialmente riscoprendo il post di tombino), ovvero, da
\[
\omega(t')\le L\left\lvert \int_{t_0}^{t'} \omega(s)\, ds\right\rvert, \qquad \forall t'\in [t_0, t]\]
si deduce che
\[
\omega(t')\le L M(t) |t-t_0|,\qquad \forall t'\in [t_0, t]\]
e quindi che
\[\tag{1}M(t)\le L M(t) |t-t_0|.\]
Questa disuguaglianza dimostra solo che \(M(t)=0\) in un intorno (destro) di \(t_0\). Ad esempio, se \(L=10\), la funzione
\[
M(t)=\begin{cases}
0, & t\in [t_0, t_0+\frac{1}{10}) \\
1, & t\in [t_0+\frac{1}{10}, \infty)
\end{cases}
\]
verifica la disuguaglianza (1).
In effetti, il post di AndrewA è solo il primo passo dell'argomento. Dalla (1) si ottiene che \(M(t)=0\) per \(t\in[t_0, t_0+\frac{1}{L}]\), e ora si può ripetere l'argomento in \(t_0+\frac1L\) ottenendo che \(M(t)\) è nullo fino a \(t_0+\frac2L\), e così via fino a ricoprire tutto l'intervallo \(I\) (che può benissimo essere \(I=[t_0, \infty)\), ed è anzi il caso più interessante).
\[
\omega(t')\le L\left\lvert \int_{t_0}^{t'} \omega(s)\, ds\right\rvert, \qquad \forall t'\in [t_0, t]\]
si deduce che
\[
\omega(t')\le L M(t) |t-t_0|,\qquad \forall t'\in [t_0, t]\]
e quindi che
\[\tag{1}M(t)\le L M(t) |t-t_0|.\]
Questa disuguaglianza dimostra solo che \(M(t)=0\) in un intorno (destro) di \(t_0\). Ad esempio, se \(L=10\), la funzione
\[
M(t)=\begin{cases}
0, & t\in [t_0, t_0+\frac{1}{10}) \\
1, & t\in [t_0+\frac{1}{10}, \infty)
\end{cases}
\]
verifica la disuguaglianza (1).
In effetti, il post di AndrewA è solo il primo passo dell'argomento. Dalla (1) si ottiene che \(M(t)=0\) per \(t\in[t_0, t_0+\frac{1}{L}]\), e ora si può ripetere l'argomento in \(t_0+\frac1L\) ottenendo che \(M(t)\) è nullo fino a \(t_0+\frac2L\), e così via fino a ricoprire tutto l'intervallo \(I\) (che può benissimo essere \(I=[t_0, \infty)\), ed è anzi il caso più interessante).
Perfetto, grazie mille per le risposte!
Fila tutto liscio una volta formalizzato.
Immagino che per $t < t_0$ sarà sufficiente applicare lo stesso ragionamento alla funzione $t -> omega(t_0-t)$ e la tesi è ottenuta (?)
Fila tutto liscio una volta formalizzato.
Immagino che per $t < t_0$ sarà sufficiente applicare lo stesso ragionamento alla funzione $t -> omega(t_0-t)$ e la tesi è ottenuta (?)
A me la dimostrazione iniziale sembra sostanzialmente corretta. Riscrivo i passi.
1. Fissiamo \(t\in I\), \(t > t_0\) e definiamo
\[
M := \sup_{s\in [t_0, t]} \omega(s).
\]
2. Dalla disuguaglianza valida per ipotesi si ha che
\[
\omega(x) \leq LM(x-t_0) \leq LM(t-t_0)
\qquad
\forall x\in [t_0, t],
\]
da cui segue che \(M \leq LM (t-t_0)\).
3. Se \( L (t-t_0) < 1\), cioè se \(t-t_0 < 1/L\), dalla disuguaglianza precedente segue che \(M=0\), cioè che \(\omega(s) = 0\) per ogni \(s\in [t_0, t]\).
4. Da 3. segue che \(\omega = 0\) su tutto l'intervallo. Infatti, per ogni intervallo \([t_0, T]\subset I\) basta costruire una partizione \(t_0 < t_1 < \cdots < t_n := T\) di ampiezza \(\max(t_j - t_{j-1}) < 1/L\) e, applicando lo step 3, si ha che \(\omega = 0\) su \([t_0, t_1]\), dunque su \([t_1, t_2]\), etc.
(Analogamente si ragiona per i tempi \(t < t_0\).)
1. Fissiamo \(t\in I\), \(t > t_0\) e definiamo
\[
M := \sup_{s\in [t_0, t]} \omega(s).
\]
2. Dalla disuguaglianza valida per ipotesi si ha che
\[
\omega(x) \leq LM(x-t_0) \leq LM(t-t_0)
\qquad
\forall x\in [t_0, t],
\]
da cui segue che \(M \leq LM (t-t_0)\).
3. Se \( L (t-t_0) < 1\), cioè se \(t-t_0 < 1/L\), dalla disuguaglianza precedente segue che \(M=0\), cioè che \(\omega(s) = 0\) per ogni \(s\in [t_0, t]\).
4. Da 3. segue che \(\omega = 0\) su tutto l'intervallo. Infatti, per ogni intervallo \([t_0, T]\subset I\) basta costruire una partizione \(t_0 < t_1 < \cdots < t_n := T\) di ampiezza \(\max(t_j - t_{j-1}) < 1/L\) e, applicando lo step 3, si ha che \(\omega = 0\) su \([t_0, t_1]\), dunque su \([t_1, t_2]\), etc.
(Analogamente si ragiona per i tempi \(t < t_0\).)
Chiarissimo!
Grazie mille a tutti!
Grazie mille a tutti!
Per essere proprio pignoli, per tempi inferiori a \(t_0\) secondo me occorre la trasformazione seguente
\[
\tilde{\omega}(t)=\omega(2t_0-t).\]
Questa funzione \(\tilde{\omega}\) è definita nell'intervallo ottenuto riflettendo \(I\) attorno a \(t_0\) e verifica la stessa ipotesi di \(\omega\), come si vede con un cambio di variabile nell'integrale. Il ragionamento "in avanti" fatto prima mostra che \(\tilde{\omega}(t)=0\) per \(t\in I, t\ge t_0\) e quindi che \(\omega(t)=0\) per \(t\le t_0\).
\[
\tilde{\omega}(t)=\omega(2t_0-t).\]
Questa funzione \(\tilde{\omega}\) è definita nell'intervallo ottenuto riflettendo \(I\) attorno a \(t_0\) e verifica la stessa ipotesi di \(\omega\), come si vede con un cambio di variabile nell'integrale. Il ragionamento "in avanti" fatto prima mostra che \(\tilde{\omega}(t)=0\) per \(t\in I, t\ge t_0\) e quindi che \(\omega(t)=0\) per \(t\le t_0\).