Centro di massa e inviluppo convesso

dissonance
Supponiamo di avere un insieme limitato [tex]\mathcal{S}\subset \mathbb{R}^n[/tex] nel quale distribuire una massa con densità [tex]\mu \in L^1(\mathcal{S})[/tex] (i.e. ad ogni sottoinsieme misurabile [tex]\mathcal{A}\subset \mathcal{S}[/tex] possiamo associare lo scalare positivo [tex]$m(\mathcal{A})=\int_A \mu(x)\, dx[/tex]). E' allora definito il centro di massa di [tex]\mathcal{S}[/tex] come il punto [tex]C[/tex] di coordinate

[tex]$C_j= \frac{\int_{\mathcal{S}}x_j \mu(x)\, dx}{m(\mathcal{S})},\ j=1 \ldots n[/tex].

Se [tex]\mathcal{S}[/tex] è contenuto in qualche insieme convesso [tex]\mathcal{C}[/tex], allora anche [tex]C \in \mathcal{C}[/tex]. Ma come dimostrarlo? Se [tex]\mathcal{S}[/tex] è finito è molto semplice, ma nel caso generale? L'unica soluzione che mi è venuta in mente passa da un teorema di convessità piuttosto complicato, letto in un pdf consigliato da Fioravante Patrone qui:

"Corollary 1.3.5, pag.13":
Each nonempty closed convex set in [tex]\mathbb{R}^n[/tex] is the intersection of its supporting halfspaces.


Con questo teorema, e aggiungendo l'ipotesi che [tex]\mathcal{C}[/tex] sia chiuso, si arriva a destinazione in poco tempo. Ma ho l'impressione di stare usando strumenti troppo avanzati per una cosa che si potrebbe fare anche in cucina. Che ne dite?

Risposte
gugo82
Prendila con le molle.

Visto che [tex]$\int_S \frac{\mu (x)}{m(S)} =1$[/tex], moralmente il risultato dell'integrale vettoriale [tex]$\int_S x \frac{\mu(x)}{m(S)}$[/tex] è una "combinazione convessa continua" di punti di [tex]$\mathcal{C}$[/tex].
L'idea è ridursi a una combinazione convessa standard (i.e. di un numero finito di punti) per sfruttare la convessità, e poi passare in qualche modo al limite.

Supponiamo che [tex]$S$[/tex] sia un intervallo e che [tex]$\mu \in C_c$[/tex] (tanto basta, perchè dagli intervalli passi ai pluriintervalli, agli aperti, poi ai compatti ed infine ai misurabili e dalle funzioni [tex]$C_c$[/tex] ad [tex]$L^1$[/tex] per densità).
In tal caso ogni componente dell'integrale vettoriale [tex]$\int_S x\ \frac{\mu (x)}{m(S)}$[/tex] è un integrale di Riemann e si può approssimare con una somma finita; se riesci a far vedere che questa somma finita è una combinazione convessa di punti di [tex]$S$[/tex] e perciò sta nella proiezione di [tex]$\mathcal{C}$[/tex] nella rispettiva direzione (che è convessa), allora passi al limite infittendo la decomposizione e trovi che pure l'integrale sta nella proiezione di [tex]$\mathcal{C}$[/tex].
Fatto ciò hai finito.

Ovviamente c'è da ragionarci un po' sù... Prova e vedi se funziona effettivamente o ho detto baggianate.


P.S.: Libri carini sulla convessità sono il Rockafellar ed il Webster; poi, se vuoi approfondire, ci sono diversi trattati: uno bello è quello di Schneider (che fa tutta la teoria di Minkowski).

ViciousGoblin
Mi sembra che, bene o male, si stia girando intorno alla disuguaglianza di Jensen (http://en.wikipedia.org/wiki/Jensen%27s_inequality), che per quanto intuitiva ha bisogno di un certo lavoro per essere dimostrata. Nel caso di dissonance la funzione convessa $\phi$ dovrebbe essere l'indicatrice del convesso.

dissonance
Speravo proprio che rispondesse uno di voi due. Avete risposto addirittura tutti e due! :-)

@Gugo: Ho capito. Tu vuoi approssimare la "combinazione convessa continua" con combinazioni convesse vere e proprie usando lo strumento delle somme di Riemann. Devo provare a metterci le mani, ma purtroppo non adesso, c'è un esame che mi aspetta a breve :-( . Ti ringrazio per i riferimenti bibliografici: il pdf che consigliava Fioravante è proprio il primo capitolo del libro di Schneider. Questo argomento mi intriga assai.

@VG: "Indicatrice del convesso"=...? Intendi la funzione che vale $1$ sul convesso e $infty$ altrove? Se è così non riesco a capire come applicare Jensen, perché mi aspetterei una funzione $\phi: RR \to RR$...

ViciousGoblin
Credo di aver detto una cavolata senza riflettere - - mi ritiro a meditare

gugo82
"dissonance":
@Gugo: Ho capito. Tu vuoi approssimare la "combinazione convessa continua" con combinazioni convesse vere e proprie usando lo strumento delle somme di Riemann. Devo provare a metterci le mani, ma purtroppo non adesso, c'è un esame che mi aspetta a breve :-( .

Sì, l'idea era proprio quella. Lascio la palla a te, visto che in questi giorni sono un po' incasinato.

"dissonance":
Ti ringrazio per i riferimenti bibliografici: il pdf che consigliava Fioravante è proprio il primo capitolo del libro di Schneider. Questo argomento mi intriga assai.

Ah, ieri non l'avevo aperto il link. Comunque è stato la mia main reference per la tesi; ottimo testo, forse un po' arido.
Questa roba di Geometria Convessa è abbastanza simpatica... :-D

ViciousGoblin
Dunque, nel messaggio avevo in mente (ma me ne sono reso conto poi :oops: ) la seguente diseguaglianza:

se $\phi:RR^N\to RR$ è convessa, se $X$ è uno spazio con una misura $\mu$ tale che $\mu(X)=1$ , allora
(J) $\phi(\int_X f d\mu ) \leq\int_X\phi\circ f d\mu$ per ogni $f:X\to RR^N$ $\mu$-integrabile
(con opportuni discorsi sull'integrabilità di $\phi\circ f$, non completamente standard, di cui possiamo parlare - se per esempio $\phi\geq0$ la cosa ha un senso comunque, ammettendo $+\infty$ nel termine di destra).

Istintivamente ho chiamato la disuguaglianza scritta sopra "Disuguaglianza di Jensen" anche se mi sono accorto poi che di solito la $\phi$ parte da $RR$; nel link citato peraltro c'è alla fine
anche questo caso, anche se in veste ancora più generale ...

Se dovessi dimostrare la (J) io la dimostrerei prima per le funzioni $f$ costanti a tratti, cioè $f=\sum_{i=1}^{n}c_i 1_{E_i}$, con $E_i$ misurabili e $c_i\in RR^N$ ($1_{E}$ vale $1$ su $E$ e zero fuori). Dato che
$\sum_{i=1}^{n}\mu(E_i)=1$ (possiamo sempre supporlo dato che la misura complessiva fa uno) si ha
$\phi(\int_X f d\mu)=\phi(\sum_{i=1}^{n}c_i\mu(E_i))\leq\sum_{i=1}^{n}\mu(E_i)\phi(c_i)=\int_X\phi\circ f d\mu$

CHE E' IL DISCORSO DI GUGO. A questo punto con un po' di giri più o meno standard (approssimo ogni funzione $f$ con costanti a tratti ....) si dovrebbe dimostrare (J).

Se abbiamo (J) la proprietà cercata si deduce usando $\phi(X)=dist(X,K)$ e $\mu=1/|K| 1_K dx$- si potrebbe anche usare l'indicatrice di $K$ come volevo fare all'inizio, ma per questo bisognerebbe passare al caso $\phi:RR^n\to [0,+\infty]$ (che non e' difficile).


Quello che mi premeva dire è che se si prende la strada di Gugo ho l'impressione che convenga puntare direttamente a (J), pensare al caso specifico non mi pare si più economico.

Rimane la questione se non ci sia qualcosa di più elementare, ma ho la sensazione di no dato che, secondo me la (J) dice esattamente qual è la relazione tra integrazione e convessità.

Spero di non aver fatto errori, dato che ho scritto tutto piuttosto in fretta.

dissonance
Ah, una versione multidimensionale della disuguaglianza di Jensen. Ma certo. Questa è sicuramente la strada più lineare per dimostrare questa proprietà, come dicevi tu è questa la relazione tra integrazione e convessità. Grazie mille VG, appena ho un po' di tempo (ci vorrà qualche giorno, purtroppo) vedo di mettere a punto tutti i dettagli e poi li riporto qui.

dissonance
Stasera ho pensato un po' a come dimostrare la disuguaglianza (J) (di Jensen multidimensionale). Non ci sono riuscito e spiego perché.
Intanto, cosa vorrei dimostrare: sia [tex]\varphi \colon \mathbb{R}^N \to (-\infty, +\infty][/tex] convessa non identicamente [tex]+\infty[/tex], sia [tex](\Omega, \mathfrak{X}, \mu)[/tex] uno spazio di misura con [tex]\mu(\Omega)=1[/tex] e [tex]f: \Omega \to \mathbb{R}^N[/tex] una funzione integrabile. Allora

(J) [tex]$\varphi(\int_{\Omega} f\, d\mu) \le \int_{\Omega} \varphi \circ f\, d\mu[/tex] a patto che l'integrale a secondo membro abbia senso. (E' la stessa cosa che diceva VG, solo che ho permesso a [tex]\varphi[/tex] di assumere il valore [tex]+\infty[/tex]. La disuguaglianza dovrebbe essere vera lo stesso, se ho capito bene).

Ora, la vostra ("vostra"="di Gugo e di VG") idea di approssimare [tex]f[/tex] con funzioni semplici proprio non riesco a farla fruttare. Il punto è, io arrivo ad una cosa come [tex]f_n \to f[/tex] in qualche senso "misuroso", e poi che faccio con [tex]\varphi\circ f_n[/tex]? Non mi vengono in mente teoremi di passaggio al limite che mi aiutino.

___________________

Invece, pensavo di generalizzare la dimostrazione che conosco del caso monodimensionale, la quale si basa sul seguente fatto (cfr. Real and complex analysis, §3.3):

se [tex]\varphi \colon \mathbb{R} \to (-\infty, +\infty][/tex] è convessa, per ogni [tex]s \in D(\varphi)[/tex] (dominio effettivo, l'insieme dei punti su cui [tex]\varphi < +\infty[/tex]) esiste [tex]\beta[/tex] tale che

(SD1) [tex]\varphi(t) \ge \varphi(s) + \beta(t-s)[/tex] per ogni [tex]t \in \mathbb{R}[/tex].

Così mi sono informato sulla generalizzazione di questo risultato approdando alla nozione di sottodifferenziale. Mi sono convinto che sia vero un risultato analogo a (SD2) multidimensionale, ovvero

se [tex]\varphi \colon \mathbb{R}^N \to (-\infty, +\infty][/tex] è convessa, per ogni [tex]\bold{s} \in D(\varphi)[/tex] esiste [tex]\mathbf{\beta}\in \mathbb{R}^N[/tex] tale che

(SD2) [tex]\varphi(\bold{t}) \ge \varphi(\bold{s}) + \mathbf{\beta}\cdot(\bold{t}-\bold{s})[/tex] per ogni [tex]\bold{t} \in \mathbb{R}^N[/tex].

E questo, se non ho capito male, significa che il sottodifferenziale di una funzione convessa definita in uno spazio finito-dimensionale è non vuoto su tutto il dominio effettivo della funzione. Mi pare plausibile, perché se [tex]\varphi[/tex] è differenziabile è vero con [tex]\bold{\beta}=\nabla \varphi[/tex]. Però non ho ancora trovato il modo di dimostrarlo. Vedremo...

dissonance
Ecco perché non ci riuscivo. Questo:
"dissonance":
E questo, se non ho capito male, significa che il sottodifferenziale di una funzione convessa definita in uno spazio finito-dimensionale è non vuoto su tutto il dominio effettivo della funzione.
è falso, come ho scoperto consultando il Rockafellar stamattina. Per esempio la $f(x)={(-(1-|x|^2)^{1/2}, |x|\le 1), (+\infty, "altrimenti"):}$ non è sottodifferenziabile per $|x|>=1$.

P.S.: E' sorprendente quanto sia complicata questa teoria dell'analisi convessa. E dire che mi sembrava tanto una fesseria, ai tempi di Analisi 1!

dissonance
Ok, ci sono. L'idea era buona ma ero andato decisamente troppo al largo (per le mie forze) con quelle funzioni a valori in [tex](-\infty, +\infty][/tex] e quei sottodifferenziali. Mi ha fatto da salvagente il libro di Webster [size=75](*)[/size] che invece fornisce dei risultati più semplici e intuitivi, e una trattazione delle applicazioni affini di supporto:

Def. (Webster 1994, pag.220) Sia [tex]\emptyset \ne X \subset \mathbb{R}^N[/tex] un sottoinsieme aperto convesso, [tex]x_0[/tex] un punto di [tex]X[/tex], e sia [tex]\varphi \colon X \to \mathbb{R}[/tex]. Diremo che l'applicazione affine [tex]T\colon \mathbb{R}^N \to \mathbb{R}[/tex] supporta [tex]\varphi[/tex] in [tex]x_0[/tex] sse

[tex]\displaymath \begin{cases} T(x_0)=\varphi(x_0) \\ T(x) \le \varphi(x)\ \forall x \in X\end{cases}[/tex].

Il risultato notevole:

Teorema (Webster 1994, §5.4.5) Sia [tex]\emptyset \ne X \subset \mathbb{R}^N[/tex] un sottoinsieme aperto convesso, [tex]x_0[/tex] un punto di [tex]X[/tex], e sia [tex]\varphi \colon X \to \mathbb{R}[/tex].
[tex]\varphi[/tex] è convessa se e solo se essa ammette supporto in ogni punto di [tex]X[/tex].

Veniamo alla disuguaglianza (J).

Proposizione (Disuguaglianza di Jensen) Sia [tex]\varphi \colon \mathbb{R}^N \to \mathbb{R}[/tex] convessa, [tex](\Omega, \mathfrak{X}, \mu)[/tex] uno spazio di misura con [tex]\mu(X)=1[/tex], [tex]f\colon \Omega \to \mathbb{R}^N[/tex] una applicazione integrabile. Allora

(J) [tex]\displaymath
\varphi(\int_{\Omega}f\, d\mu) \le \int_{\Omega} \varphi(f)\, d\mu[/tex]

a patto che l'integrale a secondo membro abbia senso.

dim. Sia [tex]$x_0= \int_{\Omega}f\, d\mu[/tex].
Esiste allora [tex]T(x)=\beta \cdot (x-x_0)+\varphi(x_0)[/tex] che supporta [tex]\varphi[/tex] in [tex]x_0[/tex], da cui

[tex]$\varphi(x_0)+\beta\cdot(x-x_0) \le \varphi(x)[/tex] per ogni [tex]x\in\mathbb{R}^N[/tex].

Ponendo [tex]x=f(\omega)[/tex] nella precedente disuguaglianza, si ottiene la

[tex]$\varphi(\int_\Omega f \,d\mu)+\beta\cdot\left(f(\omega)-\int_\Omega f \,d\mu\right) \le \varphi(f(\omega))[/tex] per ogni [tex]\omega \in \Omega[/tex]

da cui la tesi integrando ambo i membri. /////

Come diceva VG più su, applicando la (J) alla funzione distanza dal convesso si ottiene immediatamente la proprietà del centro di massa che volevamo mostrare. Due osservazioni:

1) Il teorema 5.4.5 discende direttamente da una proprietà geometrica degli insiemi convessi, più o meno quella citata da me nel mio primo post:

un insieme convesso in [tex]\mathbb{R}^N[/tex] ha in ogni punto del proprio bordo un iperpiano di supporto.

Quindi dimostrare la proprietà voluta usando la strada della disuguaglianza di Jensen oppure usando direttamente questa proprietà geometrica degli insiemi convessi (la strada che avevo proposto nel primo post) è sostanzialmente la stessa cosa.

2) In tutti i casi quello che si dimostra effettivamente è che il centro di massa è posto a distanza zero dal convesso. Questo non esclude, se il convesso non è chiuso, che il centro di massa possa trovarsi sul bordo in un punto non appartenente al convesso.

*** [EDIT] *** Rileggendo mi sono accorto che questo esempio è errato: togliendo un punto al lato del quadrato, si ottiene un insieme non convesso. Costruire un esempio per il punto 2), se un tale esempio esiste e non ne sono sicuro, deve essere una impresa molto più difficile di così.

Non è neanche difficile costruire degli esempi: prendiamo un quadrato in [tex]\mathbb{R}^2[/tex] a cui asportiamo il punto medio di un lato. Otteniamo un convesso non chiuso. Piazziamo due masse uguali nei due vertici del lato bucato: il centro di massa di questo sistema è posto esattamente nel buco, quindi non appartiene al convesso ma solo alla propria chiusura.

*** [/edit] ***
________________
(*) @Gugo: grazie per avermi consigliato questo libro che mi piace moltissimo. Quello di Rockafellar invece è più difficile, per il momento lo sto lasciando perdere.

ViciousGoblin
@dissonance

Non so come mai ma non ho ricevuto la notifica dei due messaggi precedenti all'ultimo. Stamane avendo visto per caso il thread mi ero messo a pensare alla dimostrazione.
Dall'ultimo post deduco che hai risolto il problema, seguendo la strada che mi sembra essere quella proposta dal link su wikipedia (che corrisponde a un approccio "duale"
per cui un convesso viene individuato da tutti i suoi piani tangenti) e che alla fin fine sembra la piu' semplice.

Mando comunque un riassunto di quello che avevo messo insieme. Se vuoi tentare l'approccio di cui si parlava potresti fare cosi':

1) considerare prima il caso di $\phi:RR^N\to RR$ lipschitziana (e convessa). Sotto questa ipotesi non dovrebbe essere
difficile costruire una successione di funzioni semplici $f_n$ tendente puntualmente a $f$ e tali che $|\phi(f_n(x))|\leq M+L|f(x)|$
per opportune costanti.
Allora chiaramente la tesi segue dal teorema della convergenza dominata.

2) Nel caso generale si può usare il fatto che esiste una successione di funzioni $\phi_n:RR^n\to RR$, convesse e lipschitziane, tali che $\phi_{n+1}\geq\phi_n$ e $\phi_n\to\phi$ puntualmente. Se questo è vero il teorema segue dal caso precedente mediante il teorema di convergenza monotona.


Per l'esistenza delle $\phi_n$ mi vengono in mente varie strade:
1) nel caso reale si puo' usare il fatto che $\phi$ ha derivata destra e sinistra in ogni punto del dominio (che è un intervallo) che coincidono eccetto che su un insieme numerabile, considerare $g_n(x)="max"("min"(\phi_n(x),n),-n)$ e definire $\phi_n(x)=\phi(x_0)+\int_{x_0}^{x}g_n(y) dy$ (con $x_0$ nel dominio - se non ce n'è nessumo pace...).
2) le approssimanti di Yosida
$\phi_n(x):="min\{\phi(x')+n/2 ||x'-x||^2, x'\in RR^N\}$
Con un (bel) po'di pazienza si verificano tuttele proprietà delle $\phi_n$.
3) l'inviluppo dei piani sottotangenti: si possono prendere degli insiemi finiti $I_n=\{x_{n,1}..x_{n,k_n}\}$ con $I_n\subset I_{n+1}$ e
$\cup_NN I_n$ denso nel dominio e dei $V_{n,i}$ nel sottodifferenziale di ogni $x_{n,i}$ e definire $\phi_n(X)$ =$"max"_i(\phi(x_{n,i})+)$.
Anche qui, con un po' di pazienza si dovrebbe vedere che le $\phi_n$ convergono in maniera monotona alla $\phi$. NON MI SFUGGE il fatto che questo ultimo approccio
somiglia molto alla strada proposta dell'ultimo messaggio.

Visto che stavo già scrivendo quanto sopra ve lo sottopongo (sperando che non ci siano grosse sviste)- concordo comunque che l'altro modo sembra più facile.

EDIT. Mi sono già accorto di una svista. L'approssimante di Yosida non è lipschitziana in generale se si prende quella definizione: in effetti ha crescita quadratica. Si potrebbe
comunque sistemare la cosa ma non so quanto sia interessante.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.