Disuguaglianza medie potenziate
Ciao, amici! Leggo che le medie potenziate definite in statistica* come\[M_r(X)=\Big(\sum_{i=1}^n x_i^r p_i\Big)^{1/r}\]dove \(\{x_1,...,x_n\}\) è l'immagine di una variabile aleatoria $X$ discreta e \(p_i=P(X=x_i)\) e si ha \(\sum_{i=1}^n p_i=1\), verificano la disuguaglianza\[...\leq M_{-2}(X)\leq M_{-1}(X)\leq M_0(X)\leq M_1(X)\leq M_2(X)\leq ...\]in cui \(M_0=\lim_{r\to 0}M_r(X)=\prod_{i=1}^n x_i^{p_i}\), come osservo molto facilmente (supponendo \(\forall i=1,..,n\quad x_i>0\)).
Non riesco a verificare questa disuguaglianza. Prendendo $r$ continua e osservando il segno della derivata non arrivo a granché.
Qualcuno potrebbe aiutarmi?
$+\infty$ grazie a tutti!!!
*posto qui data la natura analitica del mio dubbio. Mi scuso con i moderatori se ho sbagliato sezione...
Non riesco a verificare questa disuguaglianza. Prendendo $r$ continua e osservando il segno della derivata non arrivo a granché.
Qualcuno potrebbe aiutarmi?
$+\infty$ grazie a tutti!!!
*posto qui data la natura analitica del mio dubbio. Mi scuso con i moderatori se ho sbagliato sezione...
Risposte
Ciao.
Potresti provare ad usare la disuguaglianza di Jensen. La conosci?
Potresti provare ad usare la disuguaglianza di Jensen. La conosci?
$\infty$ grazie!!! Ora che ci penso, sì, ho presente la disuguaglianza di Jensen: se \(f:(a,b)\to\mathbb{R}\) è convessa e \(\sum_{i=1}^n p_i=1\) allora\[\forall x_1,...,x_n\in (a,b)\quad f\Big(\sum_{i=1}^n p_i x_i\Big)\leq \sum_{i=1}^n p_if(x_i) \]che direi dimostri, per $r>0$, quanto voluto prendendo $f:(0,+\infty)\to\mathbb{R},x\mapsto x^{(r+1)/r}$. Verifico la convessità di $f$ per esempio osservando che $\text{d}^2/{\text{d}x^2}f (x)=(r+1)/r x^{(r-1)/r}>0$.
Per $r\leq 0$, invece, ho qualche difficoltà...
Per $r\leq 0$, invece, ho qualche difficoltà...
Fatti bene la dimostrazione per r>0. Ne sei convinto?
Per r>0, $M_{-r}(X)=...$
Per r>0, $M_{-r}(X)=...$
...già, che scemo a non averci pensato: mi pare che per $r>0$ si abbia
$(\sum_{i=1}^n p_i x_i^{-(r+1)})^{-1/(r+1)}\leq (\sum_{i=1}^n p_i x_i^{-r})^{-1/r}\iff (\sum_{i=1}^n p_i x_i^{-r})^{1/r}\leq (\sum_{i=1}^n p_i x_i^{-(r+1)})^{1/(r+1)}$
$\iff (\sum_{i=1}^n p_i (1/x_i)^{r})^{(r+1)/r}\leq \sum_{i=1}^n p_i (1/x_i)^{r+1}$ per la non-negatività della sommatoria e applicando la disuguaglianza di Jensen con \(f(x)=x^{\frac{r+1}{r}}\).
Mi pare che quanto detto per \(M_{k}(X)\), sia con $k=-r<0,r\in\mathbb{N}_{\geq 1}$ sia con $k=r>0$, valga anche per $r\in\mathbb{R}_{>0}$ non intero, prendendo \(f:x\mapsto x^{(r+\varepsilon)/r}\) al posto di \(f:x\mapsto x^{(r+1)/r}\); quindi ogni successione di \(M_{k}(X)\) per $k\to 0^{+}$, e rispettivamente per $k\to 0^{-}$, è decrescente, e rispettivamente crescente, per cui \(M_{0}(X)\) è non maggiore di ogni \(M_{k}(X)\) con $k>0$ e non minore di ogni \(M_{k}(X)\) con $k<0$ (altrimenti sarebbe violata l'arbitrarietà della distanza dal limite \(\lim_{r\to 0} M_r(X)\) degli elementi della successione con $r$ entro un certo raggio da 0).
Spero di non delirare...
$\infty$ grazie!!!
$(\sum_{i=1}^n p_i x_i^{-(r+1)})^{-1/(r+1)}\leq (\sum_{i=1}^n p_i x_i^{-r})^{-1/r}\iff (\sum_{i=1}^n p_i x_i^{-r})^{1/r}\leq (\sum_{i=1}^n p_i x_i^{-(r+1)})^{1/(r+1)}$
$\iff (\sum_{i=1}^n p_i (1/x_i)^{r})^{(r+1)/r}\leq \sum_{i=1}^n p_i (1/x_i)^{r+1}$ per la non-negatività della sommatoria e applicando la disuguaglianza di Jensen con \(f(x)=x^{\frac{r+1}{r}}\).
Mi pare che quanto detto per \(M_{k}(X)\), sia con $k=-r<0,r\in\mathbb{N}_{\geq 1}$ sia con $k=r>0$, valga anche per $r\in\mathbb{R}_{>0}$ non intero, prendendo \(f:x\mapsto x^{(r+\varepsilon)/r}\) al posto di \(f:x\mapsto x^{(r+1)/r}\); quindi ogni successione di \(M_{k}(X)\) per $k\to 0^{+}$, e rispettivamente per $k\to 0^{-}$, è decrescente, e rispettivamente crescente, per cui \(M_{0}(X)\) è non maggiore di ogni \(M_{k}(X)\) con $k>0$ e non minore di ogni \(M_{k}(X)\) con $k<0$ (altrimenti sarebbe violata l'arbitrarietà della distanza dal limite \(\lim_{r\to 0} M_r(X)\) degli elementi della successione con $r$ entro un certo raggio da 0).
Spero di non delirare...
$\infty$ grazie!!!
No, mi pare che tutto vada bene. Gli darò un'altra letta e se vedo qualcosa che non va te lo scrivo.
Comunque $ forall r>s>0, quad f(x)=x^{r/s}$ è convessa e, con Jensen, dimostra la disuguaglianza che vuoi.
Poi $M_{-r}(X)=1/(M_{r}(1/X))$.
Comunque $ forall r>s>0, quad f(x)=x^{r/s}$ è convessa e, con Jensen, dimostra la disuguaglianza che vuoi.
Poi $M_{-r}(X)=1/(M_{r}(1/X))$.
