Hamiltoniana di Hamilton-Jacobi-Bellman è convessa
Considero l'equazione alle derivate parziali di Hamilton-Jacobi-Bellman $\frac{\partial V}{\partial t}(x,t) + "inf"_u \{ \frac{\partial V}{\partial x}(x,t) \cdot F(x,u) + C(x,u) \}= 0$.
Si tratta dell'equazione di Hamilton-Jacobi $\frac{\partial V}{\partial t}(x,t) + H(\frac{\partial V}{\partial x}(x,t),x)$ dove l'hamiltoniana è $H(p,x)="inf"_u \{ p \cdot F(x,u) + C(x,u) \}$.
Come faccio a provare che $H(p,x)$ è convessa in $p \in R^n$?
Si tratta dell'equazione di Hamilton-Jacobi $\frac{\partial V}{\partial t}(x,t) + H(\frac{\partial V}{\partial x}(x,t),x)$ dove l'hamiltoniana è $H(p,x)="inf"_u \{ p \cdot F(x,u) + C(x,u) \}$.
Come faccio a provare che $H(p,x)$ è convessa in $p \in R^n$?
Risposte
È l'inf di una famiglia di funzioni affini (in \(p\)), quindi è convessa.
Che ogni funzione affine sia convessa segue dalla disuguaglianza triangolare, ma come si dimostra che l'inf (o il sup) di una famiglia di funzioni convesse è convesso?
Non si dimostra perché è falso. Mi sono sbagliato.
Il sup di funzioni convesse è una funzione convessa, ma non necessariamente l'inf. Per esempio, \(\inf ( x, -x)=-\lvert x \rvert\), che non è una funzione convessa nonostante \(x\mapsto x\) e \(x\mapsto -x\) siano convesse.
Il sup di funzioni convesse è una funzione convessa, ma non necessariamente l'inf. Per esempio, \(\inf ( x, -x)=-\lvert x \rvert\), che non è una funzione convessa nonostante \(x\mapsto x\) e \(x\mapsto -x\) siano convesse.
Ok, quindi l'inf di funzioni convesse non è una funzione convessa, mentre per mostrare che il sup di funzioni convesse è una funzione convessa come potrei procedere?
È facile. Segue direttamente dalla definizione di funzione convessa. Usa il fatto che il sup della somma è più piccolo della somma dei sup.
Vediamo...
$"sup"_u f_u(\lambda p + (1-\lambda) q) \le$ ($f_u$ è convessa per ogni $u$)
$\le "sup"_u (\lambda f_u(p) + (1-\lambda) f_u(q)) \le$ (sup della somma è minore o uguale a somma dei sup)
$\le "sup"_u (\lambda f_u(p)) + "sup"_u ((1-\lambda) f_u(q)) =$
$= \lambda "sup"_u f_u(p) + (1-\lambda) "sup"_u f_u(q)$
Sembra funzionare, cosa ne dici?
Approfitto per un altro dubbio riguardante la convessità in più variabili.
Intuitivamente la funzione $f:RR^n->RR$, $f(p)=|p|^2$ è convessa (si tratta del quadrato della distanza dall'origine).
Non riesco però a dimostrare che effettivamente lo è, cioè non riesco a dimostrare che $|\lambda p +(1-\lambda)q|^2 \le \lambda |p|^2 + (1-\lambda)|q|^2$, qualche suggerimento?
$"sup"_u f_u(\lambda p + (1-\lambda) q) \le$ ($f_u$ è convessa per ogni $u$)
$\le "sup"_u (\lambda f_u(p) + (1-\lambda) f_u(q)) \le$ (sup della somma è minore o uguale a somma dei sup)
$\le "sup"_u (\lambda f_u(p)) + "sup"_u ((1-\lambda) f_u(q)) =$
$= \lambda "sup"_u f_u(p) + (1-\lambda) "sup"_u f_u(q)$
Sembra funzionare, cosa ne dici?
Approfitto per un altro dubbio riguardante la convessità in più variabili.
Intuitivamente la funzione $f:RR^n->RR$, $f(p)=|p|^2$ è convessa (si tratta del quadrato della distanza dall'origine).
Non riesco però a dimostrare che effettivamente lo è, cioè non riesco a dimostrare che $|\lambda p +(1-\lambda)q|^2 \le \lambda |p|^2 + (1-\lambda)|q|^2$, qualche suggerimento?
Non è difficile;
\[
\lvert \lambda p + (1-\lambda)q\rvert^2 =\sum_{j=1}^n (\lambda p_j +(1-\lambda)q_j)^2\le \sum\lambda p_j^2+(1-\lambda)q_j^2=\lambda \lvert p\rvert^2 + (1-\lambda)\lvert q \rvert^2, \]
perché la funzione di una variabile \(p_j\mapsto p_j^2\) è convessa.
\[
\lvert \lambda p + (1-\lambda)q\rvert^2 =\sum_{j=1}^n (\lambda p_j +(1-\lambda)q_j)^2\le \sum\lambda p_j^2+(1-\lambda)q_j^2=\lambda \lvert p\rvert^2 + (1-\lambda)\lvert q \rvert^2, \]
perché la funzione di una variabile \(p_j\mapsto p_j^2\) è convessa.
Grazie mille!!