Che cos'è la formula di Hopf-Lax?
Leggendo il libro di Evans sono arrivato alla formula di Hopf-Lax:
se [tex]H\colon \mathbb{R}^n \to \mathbb{R}[/tex] è una funzione convessa, liscia, e coerciva, se [tex]L=H^\star[/tex] è la trasformata di Legendre di [tex]H[/tex], e se [tex]g\colon \mathbb{R}^n \to \mathbb{R}[/tex] è una funzione Lipschitziana allora la funzione [tex]u=u(x, t)[/tex] definita ponendo
[tex]$u(x, t)=\inf_{w \in C^1}\left( \int_0^t L(\dot{w}(s))\, ds + g(w(0)) \mid w(t)=x \right)[/tex] (1)
ammette la rappresentazione
[tex]$u(x, t)=\min_{y \in \mathbb{R}^n} \left( tL\left(\frac{x-y}{t}\right)+g(y)\right)[/tex] (2)
detta formula di Hopf-Lax.
Ok. Ora ho cercato di informarmi un po' sull'argomento, consultando questo libro e questo articolo, nel quale leggo:
se [tex]H\colon \mathbb{R}^n \to \mathbb{R}[/tex] è una funzione convessa, liscia, e coerciva, se [tex]L=H^\star[/tex] è la trasformata di Legendre di [tex]H[/tex], e se [tex]g\colon \mathbb{R}^n \to \mathbb{R}[/tex] è una funzione Lipschitziana allora la funzione [tex]u=u(x, t)[/tex] definita ponendo
[tex]$u(x, t)=\inf_{w \in C^1}\left( \int_0^t L(\dot{w}(s))\, ds + g(w(0)) \mid w(t)=x \right)[/tex] (1)
ammette la rappresentazione
[tex]$u(x, t)=\min_{y \in \mathbb{R}^n} \left( tL\left(\frac{x-y}{t}\right)+g(y)\right)[/tex] (2)
detta formula di Hopf-Lax.
Ok. Ora ho cercato di informarmi un po' sull'argomento, consultando questo libro e questo articolo, nel quale leggo:
The major restriction involved in the Hopf Lax formula is the fact that H is not allowed to depend on t, x or u. The reason for this is that the formula is derived from a variational characterization of the function u in which straight lines are proved to be the optimal trajectories.Un discorso analogo l'ho sentito durante un corso universitario: queste "traiettorie ottimali" diritte che permettono di esprimere con la relativamente semplice formula (2) la soluzione del complicato problema (1). Qualcuno mi saprebbe dare qualche spiegazione, a livello intuitivo?
Risposte
Detto in parole molto povere, la funzione valore $u(x,t)$ del problema di minimo è una soluzione di viscosità dell'equazione di Hamilton-Jacobi
$u_t + H(Du) = 0$, dove $Du$ indica il gradiente rispetto alle variabili spaziali.
Le soluzioni di questa equazione possono essere costruite col metodo delle caratteristiche; in questo caso le caratteristiche sono segmenti.
Se tu invece consideri una lagrangiana generale $L = L(t, x, \dot{x})$, il metodo delle caratteristiche è ancora applicabile, ma le caratteristiche non sono più segmenti.
Se vuoi, un'introduzione a soluzioni di viscosità e legami con la teoria dei controlli la trovi in queste dispense di Alberto Bressan:
http://www.math.psu.edu/bressan/PSPDF/hj.pdf
$u_t + H(Du) = 0$, dove $Du$ indica il gradiente rispetto alle variabili spaziali.
Le soluzioni di questa equazione possono essere costruite col metodo delle caratteristiche; in questo caso le caratteristiche sono segmenti.
Se tu invece consideri una lagrangiana generale $L = L(t, x, \dot{x})$, il metodo delle caratteristiche è ancora applicabile, ma le caratteristiche non sono più segmenti.
Se vuoi, un'introduzione a soluzioni di viscosità e legami con la teoria dei controlli la trovi in queste dispense di Alberto Bressan:
http://www.math.psu.edu/bressan/PSPDF/hj.pdf
Vado un po' a masticare questo materiale nuovo che mi hai fornito, Rigel. Ti ringrazio! Avrei tantissime domande da fare (
) ma siccome sono troppe per il momento non ne faccio neanche una.

Ecco ho trovato una domanda che si può fare qui sul forum. Sul pdf di Bressan, a pagina 4, leggo:
P.S.: Ah ecco ho trovato delle informazioni su questo. Se ne parla sul Cannarsa Sinestrari, §1.2-1.4. Comunque sono graditissime informazioni (specialmente a livello intuitivo) e/o riferimenti bibliografici. Grazie!
______________
(*) A proposito: come si traduce in italiano?
[...]In the case where (1.1) [l'equazione in questione] is the Hamilton-Jacobi equation for the value function of some optimization problem [...]Cos'è questa interpretazione dell'equazione di Hamilton-Jacobi? Non la conosco: per quanto ne so l'equazione di Hamilton-Jacobi emerge in meccanica, e la sua risoluzione equivale all'integrazione delle equazioni del moto di Hamilton. Però vedo che in questo contesto si parla di funzioni valore, di running costs [size=75](*)[/size] e di initial costs che di meccanico hanno ben poco, almeno nel nome.
P.S.: Ah ecco ho trovato delle informazioni su questo. Se ne parla sul Cannarsa Sinestrari, §1.2-1.4. Comunque sono graditissime informazioni (specialmente a livello intuitivo) e/o riferimenti bibliografici. Grazie!
______________
(*) A proposito: come si traduce in italiano?
Se arrivi alla seconda parte della dispensa di Bressan vedi anche come salta fuori l'equazione di HJB per la funzione valore dei problemi di ottimizzazione.
(Ti devi prima beccare il PMP - Principio di Massimo di Pontryagin - che comunque è una di quelle cose che è bene conoscere, almeno a grandi linee.)
Comunque sia, i problemi che saltano fuori in meccanica sono una classe particolare di problemi estremali (vedi il principio di minima azione), che rientrano, per vari aspetti, nella teoria generale dei problemi di ottimizzazione (la quale ha, peraltro, numerose altre applicazioni).
(Ti devi prima beccare il PMP - Principio di Massimo di Pontryagin - che comunque è una di quelle cose che è bene conoscere, almeno a grandi linee.)
Comunque sia, i problemi che saltano fuori in meccanica sono una classe particolare di problemi estremali (vedi il principio di minima azione), che rientrano, per vari aspetti, nella teoria generale dei problemi di ottimizzazione (la quale ha, peraltro, numerose altre applicazioni).
Dimenticavo: running cost lo puoi tradurre con costo corrente (non so se ci sia una traduzione più calzante, queste cose le ho sempre viste su testi in inglese...).
Il running cost, nel caso della meccanica, non è altro che l'azione (l'integrale nel tempo della lagrangiana).
Il running cost, nel caso della meccanica, non è altro che l'azione (l'integrale nel tempo della lagrangiana).
Si, inizio mooolto vagamente a capirci qualcosa. Ma soprattutto ho capito dove devo andare a sbattere la capoccia. Grazie Rigel!
P.S.: Comunque running cost mi dà maggiormente l'idea di costo d'esercizio. No? E' brutto?
P.S.: Comunque running cost mi dà maggiormente l'idea di costo d'esercizio. No? E' brutto?
Se pensi $t$ come parametro temporale, mi sembra che costo corrente sia più adeguato; comunque, de gustibus...
Eureka! Quello che stiamo facendo è trovare l'inf del funzionale costo
[tex]$J_t[w]:=\int_0^t L(\dot{w}(s))\, ds + g(w(0))[/tex]
sulla classe ammissibile
[tex]$ \mathcal{A}_{(t, x)}:=\{ w \in W^{1, 1}([0, t]; \mathbb{R}^n) \mid w(t)=x\}[/tex]
ovvero, abbiamo prescritto che all'istante [tex]t[/tex] dobbiamo trovarci nello stato [tex]x[/tex] e dobbiamo ottimizzare la spesa necessaria. Siccome [tex]H[/tex] è convessa e dipende solo da [tex]p[/tex] (ovvero dal termine corrispondente alle derivate prime), succede che la traiettoria da seguire è sicuramente un segmento, quindi l'unico parametro da ottimizzare è lo stato iniziale [tex]y[/tex]. Il segmento congiungente [tex](0, y)[/tex] a [tex](t, x)[/tex] è [tex]w(s)=(x-y)\frac{s}{t}+y[/tex] e quindi
[tex]$\inf_{w \in\mathcal{A}_{(t, x)}} J_t[w] = \inf_{y \in \mathbb{R}^n} \left[ \int_0^t L\left(\frac{x-y}{t}\right)\, ds + g(y)\right] = \min_{y \in \mathbb{R}^n} \left[ tL\left(\frac{x-y}{t}\right) + g(y)\right][/tex]
che è la formula di Hopf-Lax. Direi che l'idea è questa, vero?
[tex]$J_t[w]:=\int_0^t L(\dot{w}(s))\, ds + g(w(0))[/tex]
sulla classe ammissibile
[tex]$ \mathcal{A}_{(t, x)}:=\{ w \in W^{1, 1}([0, t]; \mathbb{R}^n) \mid w(t)=x\}[/tex]
ovvero, abbiamo prescritto che all'istante [tex]t[/tex] dobbiamo trovarci nello stato [tex]x[/tex] e dobbiamo ottimizzare la spesa necessaria. Siccome [tex]H[/tex] è convessa e dipende solo da [tex]p[/tex] (ovvero dal termine corrispondente alle derivate prime), succede che la traiettoria da seguire è sicuramente un segmento, quindi l'unico parametro da ottimizzare è lo stato iniziale [tex]y[/tex]. Il segmento congiungente [tex](0, y)[/tex] a [tex](t, x)[/tex] è [tex]w(s)=(x-y)\frac{s}{t}+y[/tex] e quindi
[tex]$\inf_{w \in\mathcal{A}_{(t, x)}} J_t[w] = \inf_{y \in \mathbb{R}^n} \left[ \int_0^t L\left(\frac{x-y}{t}\right)\, ds + g(y)\right] = \min_{y \in \mathbb{R}^n} \left[ tL\left(\frac{x-y}{t}\right) + g(y)\right][/tex]
che è la formula di Hopf-Lax. Direi che l'idea è questa, vero?
A meno di dettagli il discorso è corretto.
Si usa la convessità di $L$, unita alla disuguaglianza di Jensen, per far vedere che il costo lungo il segmento è $\le$ del costo lungo una qualsiasi altra curva congiungente i medesimi punti.
Si usa la convessità di $L$, unita alla disuguaglianza di Jensen, per far vedere che il costo lungo il segmento è $\le$ del costo lungo una qualsiasi altra curva congiungente i medesimi punti.
Giusto per curiosità, in che corso stai trattando questi argomenti?
Certo. La dimostrazione in realtà è pure facile, quello che proprio non riuscivo a capire era il senso di tutto il discorso. Meno male che mi hai dato una mano!
Uuh, lobacevksij (avrò scritto bene? mah) non avevo proprio visto la tua risposta. Senti, questa roba io l'ho intravista in un corso di Fisica Matematica ma credo sia materiale che più facilmente puoi trovare in qualche corso superiore di Analisi.
@dissonance: Puoi buttare uno sguardo, come al solito per questo tipo di cose, al libro di Evans (pagg. 120 e segg. della seconda edizione, ad esempio).
Non vorrei invadere questa discussione ma ho una domanda inerente la formula di Hopf-Lax e quindi la posto qui in spoiler. Se inquino il post eliminate pure! Scusa dissonance per l'invasione!
Non "invadi" proprio nulla, figuriamoci. Comunque, sì, la proprietà che citi ha una dimostrazione relativamente semplice e ti stai solo confondendo un po'. Attenzione perché quanto dici è falso: una funzione limitata inferiormente non ha obbligo di ammettere minimo: un esempio semplice è [tex]\arctan[/tex]. Prova a dimostrare questo:
Se [tex]f\colon \mathbb{R}^n \to \mathbb{R}[/tex] è una funzione continua e tale che
[tex]$\lim_{\lvert x \rvert \to \infty} f(x)=+\infty[/tex]
allora [tex]f[/tex] ha minimo.
Se [tex]f\colon \mathbb{R}^n \to \mathbb{R}[/tex] è una funzione continua e tale che
[tex]$\lim_{\lvert x \rvert \to \infty} f(x)=+\infty[/tex]
allora [tex]f[/tex] ha minimo.
Credo che l'influenza mi abbia dato una bella botta. Ho scritto una castroneria. Grazie per avermelo fatto notare!!

non sono ancora arrivato alla dimostrazione

Ma la proposizione del mio post precedente ti è chiara? E' quello il punto saliente. Poi il resto segue dal fatto che $L$ è coerciva (nel senso che $lim_{|v|\to \infty} \frac{L(v)}{|v|}=+\infty$) e che, essendo $g$ Lipschitziana, essa può divergere al più con un primo ordine perché $|g(x)|\le |g(0)|+|g(x)-g(0)| \le |g(0)|+"Lip"(g)|x|$.
La proposizione penso sia chiara (penso perchè se dici che è una cavolata la dimostrazione e io non l'ho capita allora qualcosa mi sarò perso!). La sua applicazione nel dimostrare che l'inf sia min mi sfugge. O meglio non riesco a capirlo!
La proposizione poi la dimostriamo. Adesso vediamo l'applicazione. Vogliamo dimostrare che, per ogni fissati $t \in RR, x \in RR^n$, la funzione $tL((x-y)/t)+g(y)$ ha minimo. Grazie alla proposizione, è sufficiente dimostrare che
$lim_{|y|\to \infty} tL((x-y)/t)+g(y)=+\infty$.
Questa è conseguenza dell'osservazione dell'ultimo post: il primo addendo è un infinito di ordine superiore al primo, il secondo è limitato oppure è un infinito al più del primo ordine.
Infine dimostriamo la proposizione. Sia $f: RR^n \to RR$ una funzione continua e tale che $lim_{|x|\to infty}f(x)=+\infty$. In particolare esiste $K>0$ tale che per ogni $x\in RR^n, |x|>K$ si ha $f(x)>f(0)$. Ora sappiamo, dal teorema di Weierstrass, che $f$ ammette minimo in ${x \in RR^n\ :\ |x|<=K}$, sia esso $m$. Siccome $m<=f(0)$, è anche $m<=f(x)$ ogniqualvolta $|x|>K$. Di conseguenza $m$ è il minimo globale di $f$.
$lim_{|y|\to \infty} tL((x-y)/t)+g(y)=+\infty$.
Questa è conseguenza dell'osservazione dell'ultimo post: il primo addendo è un infinito di ordine superiore al primo, il secondo è limitato oppure è un infinito al più del primo ordine.
Infine dimostriamo la proposizione. Sia $f: RR^n \to RR$ una funzione continua e tale che $lim_{|x|\to infty}f(x)=+\infty$. In particolare esiste $K>0$ tale che per ogni $x\in RR^n, |x|>K$ si ha $f(x)>f(0)$. Ora sappiamo, dal teorema di Weierstrass, che $f$ ammette minimo in ${x \in RR^n\ :\ |x|<=K}$, sia esso $m$. Siccome $m<=f(0)$, è anche $m<=f(x)$ ogniqualvolta $|x|>K$. Di conseguenza $m$ è il minimo globale di $f$.