Teorema di Eulero

fede.unive
Buongiorno a tutti,
solitamente ci si riferisce al teorema come teorema di Eulero sulle funzioni omogenee. Questo però vale solo per le funzioni positivamente omogenee o, in generale, per le funzioni omogenee?

Pagani-Salsa fa la dimostrazione assumendo che la funzione sia positivamente omogenea; per questo chiedo.

Grazie in anticipo.

Risposte
fede.unive
Niente? :-)

Rigel1
Una funzione omogenea è anche positivamente omogenea...

vanez92
Buon giorno a tutti.
Qualcuno di potrebbe scrivermi la dimostrazione di tale teorema o mandarmela per mail?
Grazie!

gugo82
Sul libro non c'è?

fede.unive
La dimostrazione che conosco io è un po' lunghetta, ma abbastanza semplice.

Definizione: Una funzione $ f: RR^n -> RR $, si dice omogenea di grado $k$, se $ f (lambda * bb{x})=lambda^k * f ( bb{x})$

Teorema: Data una funzione $ f (bb{x})$ di $ n$ variabili, ossia $ f: RR^n -> RR $, con derivate parziali continue nel suo domino $ D$, essa è omogenea di grado $k$ se e solo se $bb{x}^t * grad f(bb{x})=k*f(bb{x})$ (dove $bb{x}$ è un vettore colonna di $n$ elementi $x_i$ , $grad f(bb{x})$ è il vettore (colonna) gradiente e l'apice $t$ è l'operazione di trasposizione).

Dimostrazione:
$text {a)}$ $ f (lambda * bb{x})=lambda^k * f ( bb{x}) rArr bb{x}^t * grad f(bb{x})=k*f(bb{x})$

Se $f (lambda * bb{x})=lambda^k * f ( bb{x})$, allora risulta:

$ f (lambda *x_1, lambda *x_2, ..., lambda *x_n)=lambda^k * f ( x_1, x_2, ..., x_n)$
${partial f (lambda *x_1, lambda *x_2, ..., lambda *x_n)}/{partial lambda}={partial[lambda^k * f ( x_1, x_2, ..., x_n)]}/{partial lambda}$

Posto $x_i(lambda)=lambda * x_i$ con $i=1,2,...n$, risulta:

${partial f (lambda *x_1, lambda *x_2, ..., lambda *x_n)}/{partial x_1}*{partial(lambda*x_1)}/{partial lambda}+{partial f (lambda *x_1, lambda *x_2, ..., lambda *x_n)}/{partial x_2}*{partial(lambda*x_2)}/{partial lambda}+...+{partial f (lambda *x_1, lambda *x_2, ..., lambda *x_n)}/{partial x_n}*{partial(lambda*x_n)}/{partial lambda}=k*lambda^{k-1}*f ( x_1, x_2, ..., x_n)$

${partial f (lambda * bb{x})}/{partial x_1}*x_1+{partial f (lambda * bb{x})}/{partial x_2}* x_2+...+{partial f ( lambda * bb{x})}/{partial x_n}* x_n=k*lambda^{k-1}*f ( bb{x})$

Posto $lambda =1$, risulta:

${partial f ( bb{x})}/{partial x_1}*x_1+{partial f ( bb{x})}/{partial x_2}* x_2+...+{partial f ( bb{x})}/{partial x_n}* x_n=k*f ( bb{x})$
$ bb{x}^t * grad f(bb{x})=k*f(bb{x})$

$text {b)} $ $ bb{x}^t * grad f(bb{x})=k*f(bb{x}) rArr f (lambda * bb{x})=lambda^k * f ( bb{x}) $

Si introduce una funzione ausiliaria $g(lambda)=lambda^{-k}*f (lambda * bb{x}) - f ( bb{x})$, la cui derivata rispetto a $lambda$ risulta:

$g'(lambda)={partial(lambda^{-k})}/{partial lambda} *f (lambda * bb{x}) + lambda^{-k}* {partial f (lambda * bb{x})}/{partial lambda} - 0= -k*lambda^{-k-1}*f (lambda * bb{x}) +lambda^{-k} * [{partial f (lambda * bb{x})}/{partial x_1}*x_1+{partial f (lambda * bb{x})}/{partial x_2}* x_2+...+{partial f ( lambda * bb{x})}/{partial x_n}* x_n]$
$=-k*lambda^{-k-1}*f (lambda * bb{x}) +lambda^{-k} *bb{x}^t * grad f(lambda*bb{x})$

Poichè se $bb{x} in D rArr lambda *bb{x} in D$ (la funzione è definita su un cono), e poichè per ipotesi $ bb{x}^t * grad f(bb{x})=k*f(bb{x})$, allora risulta:

$ (lambda *bb{x})^t * grad f(lambda*bb{x})=k*f(lambda*bb{x})$

ossia:

$bb{x}^t * grad f(lambda*bb{x})=lambda^{-1}*k*f(lambda*bb{x})$

Sostituendo tale espressione in $g'(lambda)$, risulta:

$g'(lambda)=-k*lambda^{-k-1}*f (lambda * bb{x}) +lambda^{-k} *[lambda^{-1}*k*f(lambda*bb{x})]=-k*lambda^{-k-1}*f (lambda * bb{x})+k*lambda^{-k-1}*f (lambda * bb{x})=0$

Pertanto, per il teorema di Lagrange, la funzione $g(lambda)=text{costante}$ in $D$. Inoltre, poiché:

$g(1)=1^{-k}*f (1 * bb{x}) - f ( bb{x})=f ( bb{x}) - f ( bb{x})=0$

risulta $g(lambda)=0$, da cui:

$g(lambda)=lambda^{-k}*f (lambda * bb{x}) - f ( bb{x})$
$0=lambda^{-k}*f (lambda * bb{x}) - f ( bb{x})$
$lambda^{-k}*f (lambda * bb{x})=f ( bb{x}) $
$f (lambda * bb{x})=lambda^{k}*f ( bb{x}) $

che è la tesi.

vanez92
perfetto, preciso e gentilissimo. ti ringrazio! :)

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.