Maratona di problemi di analisi
Faccio mia la benemerita idea di Tom Sawyer e propongo anche in questa sezione del forum una maratona di problemi. Daremo pero' la preferenza ad argomenti di analisi (in particolar modo analisi funzionale e teoria della misura) e di topologia.
Comincio io con un semplice quesito: Dimostrare che il teorema di Egorov conserva la sua validita' se invece di richiedere che lo spazio abbia misura finita si chiede che la successione di funzioni sia limitata da una funzione integrabile.
Comincio io con un semplice quesito: Dimostrare che il teorema di Egorov conserva la sua validita' se invece di richiedere che lo spazio abbia misura finita si chiede che la successione di funzioni sia limitata da una funzione integrabile.
Risposte
Non mi e' chiaro perche' $\int _{|g|>\epsilon /4} |g| dx \ge \epsilon /4 |{x\in E : |g|> \epsilon /4}|$. Potresti dimostrarlo piu' in dettaglio?
"Sandokan.":
Non mi e' chiaro perche' $\int _{|g|>\epsilon /4} |g| dx \ge \epsilon /4 |{x\in E : |g|> \epsilon /4}|$. Potresti dimostrarlo piu' in dettaglio?
Non è evidente?

Ok scusate non mi immischio...
Giustissimo!
Grazie Amel, sei sempre il benvenuto!
Dunque complimenti a Ficus2000 per l'eleganza della sua dimostrazione. Spetta ora a Elgiovo decidere a chi passare il testimone.

Dunque complimenti a Ficus2000 per l'eleganza della sua dimostrazione. Spetta ora a Elgiovo decidere a chi passare il testimone.
Per me è indifferente. Il primo che posta avrà il testimone.

Sia $E\subseteq RR^n$ misurabile con $|E|0$ tale che $||f||_{oo}\le M$, per ogni $j\in NN$). Provare che se $f_j$ converge in misura ad una funzione misurabile $f$, allora $f_j \to f$ in norma $L^p$ ($1\le p
Ricordo che:
$||f||_{oo}:=\text{ess sup}_E f$;
$f_j\to f$ in misura se per ogni $\alpha >0$ è $|{x\in E:|f_j(x)-f(x)|>\alpha}|\to 0$ per $j\to oo$;
$f_j\to f$ in norma $L^p$ se $||f_j-f||_p\to 0$ per $j\to oo$, dove $||\cdot||_p:=(\int_E |\cdot|^p dx)^(1/p)$.
Ricordo che:
$||f||_{oo}:=\text{ess sup}_E f$;
$f_j\to f$ in misura se per ogni $\alpha >0$ è $|{x\in E:|f_j(x)-f(x)|>\alpha}|\to 0$ per $j\to oo$;
$f_j\to f$ in norma $L^p$ se $||f_j-f||_p\to 0$ per $j\to oo$, dove $||\cdot||_p:=(\int_E |\cdot|^p dx)^(1/p)$.
Siccome $f_j \rightarrow f$ in misura, si ha anche $f_{j_k} \rightarrow f$ q. o., per un'opportuna estratta $(f_{j_k})$. Ne segue $||f||_oo <= M$.
Il resto a piu' tardi...
Il resto a piu' tardi...
Io ho pensato a questo:
per la convergenza in misura si ha che per ogni $epsilon >0$, $|{x in E : | f(x)-f_j(x)|>epsilon}|to 0$ per $j to oo$.
Facendo tendere $epsilon$ a $0$, mi sembra si possa dire che per ogni $jin NN$ esista $kinNN$ tale che $|f-f_j|<=1/2^k=g_k$.
Questo è dovuto alla sostanziale equilimitatezza di $f_j$: in pratica per $epsilon to 0$ si ha $M to 0$, con $M$
tale che $||f||_(oo)<=M$, come da consegna. Poichè quindi $|f_j-f|^p<=g_k^p in L^1$ e $|f_j(x)-f(x)|^p to 0$ q.o. in $E$,
grazie al teorema della convergenza dominata si può concludere che $||f_j-f||_pto 0$, con $1<=p
Ma forse Sandokan aveva in mente qualcosa di più chiaro e più corretto...
per la convergenza in misura si ha che per ogni $epsilon >0$, $|{x in E : | f(x)-f_j(x)|>epsilon}|to 0$ per $j to oo$.
Facendo tendere $epsilon$ a $0$, mi sembra si possa dire che per ogni $jin NN$ esista $kinNN$ tale che $|f-f_j|<=1/2^k=g_k$.
Questo è dovuto alla sostanziale equilimitatezza di $f_j$: in pratica per $epsilon to 0$ si ha $M to 0$, con $M$
tale che $||f||_(oo)<=M$, come da consegna. Poichè quindi $|f_j-f|^p<=g_k^p in L^1$ e $|f_j(x)-f(x)|^p to 0$ q.o. in $E$,
grazie al teorema della convergenza dominata si può concludere che $||f_j-f||_pto 0$, con $1<=p
Ma forse Sandokan aveva in mente qualcosa di più chiaro e più corretto...
"elgiovo":
per $epsilon to 0$ si ha $M to 0$, con $M$ tale che $||f||_(oo)<=M$
Non può essere $M\to 0$ perchè $M>0$ è una costante fissata.
"elgiovo":
$|f_j(x)-f(x)|^p to 0$ q.o. in $E$
In generale, non è vero che se $f_j->f$ in misura con $f_j$ equilimitate e $|E|
Pensa alla macchina da scrivere: $f_j:=\chi_{I_j}$ con
$I_0=[0,1],I_1=[0,1/2],I_2=[1/2,1],I_3=[0,1/4],I_4=[1/4,2/4],I_5=[2/4,3/4],I_6=[3/4,1],...$
"ficus2002":
Sia $E\subseteq RR^n$ misurabile con $|E|0$ tale che $||f||_{oo}\le M$, per ogni $j\in NN$). Provare che se $f_j$ converge in misura ad una funzione misurabile $f$, allora $f_j \to f$ in norma $L^p$ ($1\le p
Hint:
Ok, ficus2002, ho detto un pò di fesserie.
Vediamo se la situazione migliora: seguendo il tuo consiglio, stimiamo $int_(E_(j,alpha))$.
Poichè $f$ è misurabile e $f_j
L'ultima quantità tende a $0$, poichè $|E_(j,alpha)|to 0$ per l'ipotesi di convergenza in misura.
Dunque $int_(E_(j,alpha))to 0$. Va meglio?

Vediamo se la situazione migliora: seguendo il tuo consiglio, stimiamo $int_(E_(j,alpha))$.
Poichè $f$ è misurabile e $f_j
Dunque $int_(E_(j,alpha))to 0$. Va meglio?
"elgiovo":
Poichè $f$ è misurabile e $f_j
Ok, però è più prudente se dici $|f_j-f|\le 2M$ q.o. Infatti, $|f_j|\le M$ q.o per ipotesi, $|f|\le M$ q.o. per quanto osservato da Sandokan, così $|f_j-f|le |f_j|+|f|\le 2M$ q.o.
"elgiovo":
Dunque $int_(E_(j,alpha))to 0$
Ok, $\forall \alpha>0, \int_{E_{j,\alpha}\}\to 0$ per $j\to oo$. Invece $\int_{E\setminus E_{\alpha}}$...
Riesumazione!
Chi risolve il problema ne propone un altro.
Propongo questo problema (immagino sia classico, ma non so fino a che punto):
La variazione di una funzione [tex]f: [a,b] \to \mathbb{R}[/tex] è
\[
\text{Var}_a^b(f) = \text{sup} \sum_{k=1}^{n-1} |f(\zeta_k)-f(\zeta_{k+1})|, \hspace{1cm}
a = \zeta_1 \leq \cdots \leq \zeta_n = b,
\]
dove il sup è preso al variare di [tex]\zeta_1,\ldots,\zeta_n[/tex] come sopra. Se [tex]\text{Var}_a^b(f) < \infty[/tex] si dice che [tex]f[/tex] è "a variazione limitata".
L'insieme delle funzioni a variazione limitata su [tex][a,b][/tex] si indica con [tex]BV([a,b])[/tex] ("Bounded Variation").
Dimostrare che una funzione [tex]f:[a,b] \to \mathbb{R}[/tex] è a variazione limitata se e solo se [tex]f[/tex] è la differenza di due funzioni monotone crescenti.

Chi risolve il problema ne propone un altro.
Propongo questo problema (immagino sia classico, ma non so fino a che punto):
La variazione di una funzione [tex]f: [a,b] \to \mathbb{R}[/tex] è
\[
\text{Var}_a^b(f) = \text{sup} \sum_{k=1}^{n-1} |f(\zeta_k)-f(\zeta_{k+1})|, \hspace{1cm}
a = \zeta_1 \leq \cdots \leq \zeta_n = b,
\]
dove il sup è preso al variare di [tex]\zeta_1,\ldots,\zeta_n[/tex] come sopra. Se [tex]\text{Var}_a^b(f) < \infty[/tex] si dice che [tex]f[/tex] è "a variazione limitata".
L'insieme delle funzioni a variazione limitata su [tex][a,b][/tex] si indica con [tex]BV([a,b])[/tex] ("Bounded Variation").
Dimostrare che una funzione [tex]f:[a,b] \to \mathbb{R}[/tex] è a variazione limitata se e solo se [tex]f[/tex] è la differenza di due funzioni monotone crescenti.
Facile e classicissimo.
Un piccolo rilancio, in attesa della conferma di Martino:
Mostrare che ogni \(f\in BV([a,b])\) si può scrivere come differenza di due funzioni strettamente crescenti.
Un piccolo rilancio, in attesa della conferma di Martino:
Mostrare che ogni \(f\in BV([a,b])\) si può scrivere come differenza di due funzioni strettamente crescenti.
"gugo82":
Un piccolo rilancio, in attesa della conferma di Martino:
Mostrare che ogni \(f\in BV([a,b])\) si può scrivere come differenza di due funzioni strettamente crescenti.
Direi che basta...
OK?
In attesa della conferma di gugo, il quale è in attesa della conferma di Martino (

Confermo
ora facciamo il problema di Paolo sulle funzioni assolutamente continue, o è un riadattamento pari-pari dell'argomento di gugo? Nel secondo caso, chi propone un nuovo problema?


@Martino: come probabilmente avrai già capito, il mio era solo un rilancio, nel senso che è sufficiente adattare opportunamente l'argomento di gugo (basta prendere la sua dimostrazione e provare in più che che una "opportuna" funzione è assolutamente continua).
Direi quindi che è opportuno proporre un nuovo problema e direi anche che tale onere spetta a gugo
Direi quindi che è opportuno proporre un nuovo problema e direi anche che tale onere spetta a gugo
