Gradiente, massimi e minimi
Ciao a tutti! Stavo riflettendo sui massimi e minimi in più variabili e mi sono posto questo quesito...
Come fa il gradiente nullo essere garanzia di punto stazionario?
Cioè, che un punto stazionario implichi gradiente nullo ok, ma il contrario non lo capisco.
Gradiente nullo implica che le derivate direzionali lungo x e y (mi riconduco a 2 variabili per semplicità) siano nulle, ma questo in che modo mi impone il fatto che le derivate siano nulle in tutte le altre direzioni? per esempio lungo una retta inclinata di 45 gradi la derivata potrebbe essere non nulla, quindi in questo caso la curva in quel punto non è stazionaria (se ho ben capito cosa vuol dire essere punto stazionario).
Come si risolve la (per me) spinosa questione?
Come fa il gradiente nullo essere garanzia di punto stazionario?
Cioè, che un punto stazionario implichi gradiente nullo ok, ma il contrario non lo capisco.
Gradiente nullo implica che le derivate direzionali lungo x e y (mi riconduco a 2 variabili per semplicità) siano nulle, ma questo in che modo mi impone il fatto che le derivate siano nulle in tutte le altre direzioni? per esempio lungo una retta inclinata di 45 gradi la derivata potrebbe essere non nulla, quindi in questo caso la curva in quel punto non è stazionaria (se ho ben capito cosa vuol dire essere punto stazionario).
Come si risolve la (per me) spinosa questione?
Risposte
Mi sono appena risposto! 
ricordando che $f(x_0 + t*v) = f(x_0) + + o(t)$, facendo il limite del rapporto incrementale $(f(x_0 + tv) - f(x_0))/t$ per $t->0$ si ottiene
$(df)/(dv) (x_0) = lim_(t->0) (f(x_0) + + o(t) - f(x_0))/t = lim_(t->0) (t* + o(t))/t = lim_(t->0) + (o(t))/t = $
quindi $(df)/(dv) (x_0) =$
Perciò gradiente nullo implica ogni derivata direzionale nulla
(ecco ora la domanda cambia... qualcuno mi aiuta a ricordare da dove deriva $f(x_0 + t*v) = f(x_0) + + o(t)$? ricordo solo la dimostrazione in una variabile
)

ricordando che $f(x_0 + t*v) = f(x_0) +
$(df)/(dv) (x_0) = lim_(t->0) (f(x_0) +
quindi $(df)/(dv) (x_0) =
Perciò gradiente nullo implica ogni derivata direzionale nulla

(ecco ora la domanda cambia... qualcuno mi aiuta a ricordare da dove deriva $f(x_0 + t*v) = f(x_0) +

Si risolve aggiungendo alle ipotesi la differenziabilità della funzione. Il gradiente di per sé non significa molto: come osservavi tu ti informa solo sul tasso di accrscimento lungo $x$ e lungo $y$. Ma se aggiungi la differenziabilità della funzione, allora cambia il mondo: tra gli altri teoremi sulla differenziabilità c'è anche la cosiddetta regola del gradiente $(delf)/(delv)=nablaf*v$.
sisi c'ero arrivato... è come si arriva all'ipotesi di quella regola che non ricordo (come ho scritto prima).
In una variabile diventa l'esistenza di una funzione lineare che meglio approssima la funzione data, ma in più variabili non mi riesce di capirne il significato.,,
In una variabile diventa l'esistenza di una funzione lineare che meglio approssima la funzione data, ma in più variabili non mi riesce di capirne il significato.,,
E' proprio questa la differenziabilità. Una funzione $f:Omega\subRR^n\toRR$ è differenziabile in un punto $x_0\inOmega$ se e solo se esiste una mappa lineare $L_(x_0):RR^n\toRR$ tale che $f(x_0+h)=f(x_0)+L_(x_0)(h)+o(|h|)$. Si dimostra velocemente che, se una tale mappa esiste, allora essa è certamente data da $L_(x_0)(h)=nablaf(x_0)*h$.
In altre parole, devi sapere a priori che la tua $f$ è differenziabile. Se questo è vero, allora mediante il gradiente ottieni una approssimazione lineare "buona". Se questo non è vero, il gradiente te lo puoi buttare in faccia.
In altre parole, devi sapere a priori che la tua $f$ è differenziabile. Se questo è vero, allora mediante il gradiente ottieni una approssimazione lineare "buona". Se questo non è vero, il gradiente te lo puoi buttare in faccia.