Direzione pendenza massima
Qualcuno mi può spiegare perchè, data la generica funzione z= f(x,y), il vettore gradiente ha sempre come componenti il valore delle derivate parziali, fatte queste ultime, secondo due direzioni tra loro ortogonali ?
Non potrei ottenere il vettore gradiente utilizzando una base non ortogonale ?
grazie a tutti
Non potrei ottenere il vettore gradiente utilizzando una base non ortogonale ?
grazie a tutti

Risposte
"LUCIANO74":
Non potrei ottenere il vettore gradiente utilizzando una base non ortogonale ?
No, ne abbiamo parlato in passato da qualche parte sul forum. Cerca tra i contributi miei e di meck. Sono cose che si capiscono bene nel contesto della geometria differenziale, in cui agli strumenti del calcolo con più variabili viene data una veste sistematica. Infatti in una varietà Riemanniana (quale ad esempio \(\mathbb{R}^n\) munita del prodotto scalare usuale \(\cdot\)) il gradiente di una funzione \(f\) è per definizione il diesis del differenziale \(df\), ovvero l'unico vettore tale che \((df)X=g(\nabla f, X)\) per ogni campo vettoriale \(X\). In \(\mathbb{R}^n\) questa condizione equivale a
\[(df)(X)= \nabla f \cdot X, \forall X \in \mathbb{R}^n, \]
che diventa la usuale \(\nabla f=(\partial_{x_1} f \ldots \partial_{x_n} f)\) solo se le coordinate \((x_1 \ldots x_n)\) sono cartesiane ortonormali.
Questa è la spiegazione più sofisticata possibile (e anche la meno convincente, se questi concetti non sono noti). Sono possibili approcci molto più elementari, che abbiamo già proposto qui sopra e che potrai trovare facilmente usando la funzione CERCA.
Grazie 1000 per la risposta, la spiegazione che hai dato è decisamente fuori dalla mia portata. Seguo il tuo consiglio e cerco la trattazione più semplificata del problema.
Ho notato comunque che nei testi più comuni di analisi 2 il problema non è per niente trattato.
grazie ancora
Ho notato comunque che nei testi più comuni di analisi 2 il problema non è per niente trattato.
grazie ancora
Sul Bramanti - Salsa - Pagani, Analisi matematica 1 (edizione per i vecchi corsi quadriennali), c'è un bel capitolo dedicato al "calcolo differenziale 2", dove si parla anche di questo (mi pare ci sia un esercizio apposta).
Qui c'è una spiegazione in termini elementari. In ultima analisi, il discorso di geometria Riemanniana che facevamo prima non è altro che la sistematizzazione di quanto scritto qui:
post472502.html#p472502
post472502.html#p472502
Grazie per il prezioso aiuto.
Da principiante, quale sono, ho provato a sviluppare i calcoli partendo da una generica funzione in due variabili. Mi farebbe molto piacere se puoi date un'occhiata.
$z=f(y_1,y_2)$
Introduco il cambiamento di variabili: $z=f(AX)$ con $X$ vettore di $R^2$ ed $A$=$((a,b),(c,d))$ matrice ortogonale.
Le variabili $y_1$ ed $y_2$ dipenderanno da $x_1$ e $x_2$ nel seguente modo:
y_1=$ax_1+bx_2$
y_2=$cx_1+dx_2$
Calcolo le derivate della funzione composta:
$(delf)/(delx_1)$=$(delf)/(dely_1)$*$(dely_1)/(delx_1)$+$(delf)/(dely_2)$*$(dely_2)/(delx_1)$=$(delf)/(dely_1)$*$a$+$(delf)/(dely_2)$*$c$
$(delf)/(delx_2)$=$(delf)/(dely_1)$*$(dely_1)/(delx_2)$+$(delf)/(dely_2)$*$(dely_2)/(delx_2)$=$(delf)/(dely_1)$*$b$+$(delf)/(dely_2)$*$d$
che posso scrivere come:
($(delf)/(delx_1)$,$(delf)/(delx_2)$)=($(delf)/(dely_1)$,$(delf)/(dely_2)$)*$((a,b),(c,d))$
o anche
($(delf)/(delx_1)$,$(delf)/(delx_2)$)$^T$=$((a,b),(c,d))^T$*($(delf)/(dely_1)$,$(delf)/(dely_2)$)$^T$
quindi
$\nabla$ $g(x)$ = $A$ $^T$ $\nabla$ $f(y)$ (con $y$ vettore colonna)
o anche, essendo la matrice $A$ ortogonale
$A$ $\nabla$ $g(x)$ = $ $$\nabla$ $f(y)$
ovvero
$A$ $\nabla$ $g(x)$= $\nabla$ $f(y)$
mi rendo conto che i passaggi sono tremendamente noiosi per un esperto ma nel mio caso servono parecchio.
grazie ancora
Da principiante, quale sono, ho provato a sviluppare i calcoli partendo da una generica funzione in due variabili. Mi farebbe molto piacere se puoi date un'occhiata.
$z=f(y_1,y_2)$
Introduco il cambiamento di variabili: $z=f(AX)$ con $X$ vettore di $R^2$ ed $A$=$((a,b),(c,d))$ matrice ortogonale.
Le variabili $y_1$ ed $y_2$ dipenderanno da $x_1$ e $x_2$ nel seguente modo:
y_1=$ax_1+bx_2$
y_2=$cx_1+dx_2$
Calcolo le derivate della funzione composta:
$(delf)/(delx_1)$=$(delf)/(dely_1)$*$(dely_1)/(delx_1)$+$(delf)/(dely_2)$*$(dely_2)/(delx_1)$=$(delf)/(dely_1)$*$a$+$(delf)/(dely_2)$*$c$
$(delf)/(delx_2)$=$(delf)/(dely_1)$*$(dely_1)/(delx_2)$+$(delf)/(dely_2)$*$(dely_2)/(delx_2)$=$(delf)/(dely_1)$*$b$+$(delf)/(dely_2)$*$d$
che posso scrivere come:
($(delf)/(delx_1)$,$(delf)/(delx_2)$)=($(delf)/(dely_1)$,$(delf)/(dely_2)$)*$((a,b),(c,d))$
o anche
($(delf)/(delx_1)$,$(delf)/(delx_2)$)$^T$=$((a,b),(c,d))^T$*($(delf)/(dely_1)$,$(delf)/(dely_2)$)$^T$
quindi
$\nabla$ $g(x)$ = $A$ $^T$ $\nabla$ $f(y)$ (con $y$ vettore colonna)
o anche, essendo la matrice $A$ ortogonale
$A$ $\nabla$ $g(x)$ = $ $$\nabla$ $f(y)$
ovvero
$A$ $\nabla$ $g(x)$= $\nabla$ $f(y)$
mi rendo conto che i passaggi sono tremendamente noiosi per un esperto ma nel mio caso servono parecchio.
grazie ancora
I passaggi non sono noiosi, io non sono un esperto e tu non ti devi buttare giù. Siamo qui apposta per discutere! 
Comunque hai capito perfettamente. Tieni conto che il gradiente è un vettore come tutti gli altri, e come tale in genere si rappresenta come una colonna. Con questa convenzione possiamo riscrivere le formule di cambiamento di coordinate e di trasformazione del gradiente così:
\[\begin{cases} y=Ax \\ \nabla_x f = A^T \nabla_y f\end{cases}\]
Ora la cosa che ci dà proprio fastidio è la seconda formula. Cosa c'entra quel trasposto, e poi la \(A\) è dalla parte sbagliata. Un vettore infatti dovrebbe trasformarsi nella stessa maniera delle coordinate: infatti se \(v=v_1^x\hat{x}_1+\ldots+v_n^x\hat{x}_n=v_1^y\hat{y}_1+\ldots+v_n^y\hat{y}_n\), dove \(\hat{x}_j, \hat{y}_j\) sono i versori coordinati, allora
\[v^y=Av^x,\]
proprio come le coordinate che si trasformano così:
\[y=Ax.\]
(Questo è un punto delicato da capire, se hai difficoltà ne possiamo riparlare in un altro momento. Dai un'occhiata qui per tutte le informazioni del caso: post500966.html#p500966 )
Quindi il gradiente è anomalo, si trasforma male, a meno che \(A\) non sia una matrice ortogonale, il che significa \(A^{-1}=A^T\) e che quindi possiamo riscrivere \(\nabla_x f=A^T\nabla_y f\) come
\[\nabla_y f= A \nabla_x f, \]
che è proprio la legge di trasformazione giusta. Ora è un fatto di algebra lineare che la matrice di cambiamento di coordinate è ortogonale se e solo se i due sistemi di coordinate \(x\) e \(y\) sono entrambi cartesiani ortonormali. Ecco perché il gradiente si comporta bene solo rispetto a sistemi ortonormali, se accettiamo sistemi di coordinate diversi farà storie e andrà trattato con più attenzione.

Comunque hai capito perfettamente. Tieni conto che il gradiente è un vettore come tutti gli altri, e come tale in genere si rappresenta come una colonna. Con questa convenzione possiamo riscrivere le formule di cambiamento di coordinate e di trasformazione del gradiente così:
\[\begin{cases} y=Ax \\ \nabla_x f = A^T \nabla_y f\end{cases}\]
Ora la cosa che ci dà proprio fastidio è la seconda formula. Cosa c'entra quel trasposto, e poi la \(A\) è dalla parte sbagliata. Un vettore infatti dovrebbe trasformarsi nella stessa maniera delle coordinate: infatti se \(v=v_1^x\hat{x}_1+\ldots+v_n^x\hat{x}_n=v_1^y\hat{y}_1+\ldots+v_n^y\hat{y}_n\), dove \(\hat{x}_j, \hat{y}_j\) sono i versori coordinati, allora
\[v^y=Av^x,\]
proprio come le coordinate che si trasformano così:
\[y=Ax.\]
(Questo è un punto delicato da capire, se hai difficoltà ne possiamo riparlare in un altro momento. Dai un'occhiata qui per tutte le informazioni del caso: post500966.html#p500966 )
Quindi il gradiente è anomalo, si trasforma male, a meno che \(A\) non sia una matrice ortogonale, il che significa \(A^{-1}=A^T\) e che quindi possiamo riscrivere \(\nabla_x f=A^T\nabla_y f\) come
\[\nabla_y f= A \nabla_x f, \]
che è proprio la legge di trasformazione giusta. Ora è un fatto di algebra lineare che la matrice di cambiamento di coordinate è ortogonale se e solo se i due sistemi di coordinate \(x\) e \(y\) sono entrambi cartesiani ortonormali. Ecco perché il gradiente si comporta bene solo rispetto a sistemi ortonormali, se accettiamo sistemi di coordinate diversi farà storie e andrà trattato con più attenzione.