Congettura: una generalizzazione dei teoremi di Cesàro
"gugo82":
I due teoremi di Cesàro dicono che se [tex]$(x_n)$[/tex] è una successione positiva (per farli funzionare entrambi contemporaneamente) e convergente, allora pure le due successioni di termini generali:
[tex]$\alpha_n:= A(x_1,\ldots ,x_n)$[/tex] e [tex]$\gamma_n:=G(x_1,\ldots ,x_n)$[/tex],
ove [tex]$A(\cdot)$[/tex] e [tex]$G(\cdot)$[/tex] denotano le media aritmetica e geometrica, convergono allo stesso limite di [tex]$(x_n)$[/tex].
Mi domando se sia vero che in generale, per [tex]$p> 0$[/tex], nelle ipotesi di Cesàro risulti anche:
[tex]$x_n\to L \ \Rightarrow \ M_p(x_1,\ldots ,x_n)\to L$[/tex]
ove [tex]$M_p(\cdot)$[/tex] è la media d'ordine [tex]$p$[/tex] (i.e. [tex]M_p(x_1,\ldots ,x_n)=\left\{ \frac{1}{n}\sum_{k=1}^n x_k^p\right\}^\frac{1}{p}[/tex]).
Per [tex]$p\in ]0,1[$[/tex] la cosa è certamente vera, giacché risulta:
[tex]$G(x_1,\ldots ,x_n)\leq M_p(x_1,\ldots ,x_n)\leq A(x_1,\ldots ,x_n)$[/tex]
(vedi qui) e per il teorema dei carabinieri; però che succede se [tex]$p>1$[/tex]?
Si tratta di un problema interessante, che credo meriti un topic tutto suo. Se qualcuno ha voglia di pensarci se ne potrebbe discutere insieme.

Proof. Poniamo
[tex]\displaystyle L = \limsup_{n\to+\infty}a_n[/tex]
Esiste allora una sottosuccessione [tex]x_{n_k}[/tex] tale che [tex]\displaystyle \lim_{k\to+\infty}x_{n_k} = L[/tex], da cui
[tex]\lim_{k\to+\infty}g(x_{n_k}) = g(L)[/tex]
per via della continuità della funzione [tex]g(\cdot)[/tex]. D'altra parte per ogni [tex]\epsilon > 0[/tex] esiste un [tex]\eta>0[/tex] tale che
[tex]|g(x) - g(L)| < \epsilon[/tex] se [tex]|x-L| < \eta[/tex]
Inoltre, esiste un [tex]\overline{n}\in \mathbb{N}[/tex] tale che per ogni [tex]n > \overline{n}[/tex] si ha [tex]a_n < L +\frac{\eta}{2}[/tex], sicché per la crescenza
[tex]g(a_n) < g(L+\frac{\eta}{2}) < g(L) + \epsilon[/tex]
Quindi [tex]g(a_n) < g(L)+\epsilon[/tex] definitivamente per ogni [tex]\epsilon > 0[/tex], da cui [tex]\limsup_{n\to +\infty}g(a_n) = g(L)[/tex]. [tex]\square[/tex]
Corollario. Per ogni successione [tex]\{a_n\}_{n\in\mathbb{N}}[/tex] di numeri reali positivi e per ogni [tex]p \in \mathbb{R}^+[/tex] si ha [tex]\displaystyle \limsup_{n\to+\infty} x_n^p = (\limsup_{n\to+\infty}x_n)^p[/tex]
Proof. Immediata conseguenza del lemma. [tex]\square[/tex]
Claim. Se [tex]\{x_n\}_{n\in\mathbb{N}[/tex] è una successione limitata [tex]\displaystyle \limsup_{n\to+\infty}M_p(x_1,\ldots,x_n) \le \limsup_{n\to+\infty}x_n[/tex]
Proof. Poniamo [tex]L = \limsup_{n\to+\infty} x_n[/tex]. Allora sappiamo che [tex]\limsup_{n\to+\infty}x_n^p = L^p[/tex], sicché per ogni [tex]\epsilon > 0[/tex] esiste un [tex]n_0 \in \mathbb{N}[/tex] tale che per ogni [tex]n > n_0[/tex] si abbia [tex]x_n^p < L^p + \epsilon[/tex].
Allora, posto [tex]\beta = \frac{1}{n}\sum_{k=1}^{n_0} x_k^p}[/tex] si ha che per [tex]n[/tex] sufficientemente grande [tex]\beta < \epsilon[/tex]. Quindi
[tex]M_p(x_1,\ldots,x_n) = \sqrt
{\beta+\frac{1}{n}\sum_{k=n_0+1}^nx_k^p} \le \sqrt
{\epsilon+\frac{1}{n}(L^p+\epsilon)(n-n_0)} = \sqrt
{L^p+K\epsilon}[/tex]
con [tex]K[/tex] costante opportunamente determinata. Per la continuità della radice p-esima segue che [tex]M_p(x_1,\ldots,x_n) \le L + \eta[/tex] per ogni [tex]\eta > 0[/tex], da cui la tesi. [tex]\square[/tex]
Analogamente si prova [tex]\liminf_{n}M_p(x_1,\ldots,x_n) \ge \liminf_{n}x_n[/tex], da cui infine si ottiene la tesi per le successioni limitate.
Nella dimostrazione del Corollario l'indice della sommatoria sotto radice parte da [tex]$n_0+1$[/tex].
Ma sono inezie; il tutto pare corretto.
Avrei tentato anch'io un adattamento del genere, ma dopopranzo non avevo sotto mano una dimostrazione di Cesàro (ed ero troppo preso dai fatti miei per ricavarla da capo); allora mi è venuto in mente il trucco del passaggio al logaritmo, che pure si usa spesso (cfr. la dimostrazione della AMGM generale, i.e. [tex]\sqrt[n]{x_1\cdots x_n} \leq \tfrac{1}{n}\sum_{k=1}^n x_k[/tex], fatta usando la convessità dell'esponenziale).
Il trucco del logaritmo non mi è venuto in mente! Avevo riletto la dimostrazione di Cesàro non molto tempo fa e ce l'avevo ancora in testa, tutto qua!


Ad ogni modo, mi pare fili via troppo liscio... Sicuri che la mia dimostrazione sia convincente?
Forse ti appelli all'andante: l'acqua cheta corrode i ponti per farli crollare!
Insomma, era più immediato di quanto credessi all'inizio.
[tex]$\alpha_n > 0,\quad \sum_{n=1}^\infty \alpha_n=1[/tex]
e definissimo
[tex]$M^{\alpha}_p(x_1 \ldots x_k)=\left( \alpha_1 x_1^p + \ldots + \alpha_k x_k^p\right)^{\frac{1}{p}}[/tex]
sarebbe ancora vero che
[tex]$x_n \to l \Rightarrow M^{\alpha}_p(x_1 \ldots x_n) \to l?[/tex]
L'ultima dimostrazione di Gugo non funziona più. Allora, o si dimostra l'asserto per [tex]M^\alpha_1[/tex] e poi si estende alla media di ordine [tex]p[/tex] (metodo Gugo) oppure si rifabbrica daccapo la dimostrazione direttamente nel caso generale (metodo Maurer) - IMHO.
Se qualcuno ha voglia di cimentarsi... Probabilmente è una semplice riscrittura della dimostrazione nel caso precedente. [edit]Ma probabilmente, no. Questo caso è diverso dal precedente, perché per ogni fissato [tex]k[/tex] la [tex]M^\alpha_p(x_1 \ldots x_k)[/tex] NON è una vera media, in quanto [tex]\sum_{j=1}^k \alpha_j <1[/tex]. Prima non ci avevo pensato.