Gradiente x^TAx
Ho trovato questa identità $\nabla (\mathbf{x}^T\mathbf{Ax})=2\mathbf{Ax}$ mentre studiavo e ho provato a buttare giù una dimostrazione:
$$ \nabla (\mathbf{x}^T.\mathbf{Ax} )
=\nabla\mathbf{x}^T.\mathbf{Ax}
+\mathbf{x}^T.\mathbf{A}\nabla \mathbf{x}
=\mathbf{Ax}+(\mathbf{x}^T\mathbf{A} )^T= (\mathbf{A}+\mathbf{A}^T )\mathbf{x}=2\mathbf{Ax}$$
con $\mathbf{x}={x_1,..., x_n}^T$ e $\mathbf{A}$ matrice simmetrica di ordine $n$. Potrebbe andare oppure è piuttosto rozza?
$$ \nabla (\mathbf{x}^T.\mathbf{Ax} )
=\nabla\mathbf{x}^T.\mathbf{Ax}
+\mathbf{x}^T.\mathbf{A}\nabla \mathbf{x}
=\mathbf{Ax}+(\mathbf{x}^T\mathbf{A} )^T= (\mathbf{A}+\mathbf{A}^T )\mathbf{x}=2\mathbf{Ax}$$
con $\mathbf{x}={x_1,..., x_n}^T$ e $\mathbf{A}$ matrice simmetrica di ordine $n$. Potrebbe andare oppure è piuttosto rozza?

Risposte
Guarda scrivo di getto dopo aver letto il post, senza libri e senza niente...ma...sei sicuro che non sia:
$nabla[x^TAx]=2x^TAnablax$
Anche da un punto di visto logico non vedo perchè l'operatore debba sparire e ho ragionato prendendo A=D ovvero una matrice diagonale a cui alla fine applico una rotazione (che è la stessa cosa di diagonalizzare A).
Ripeto: è la prima volta che ci ragiono e probabilmente sbaglio ma qualcosa non mi torna.
Edit: corretta la formula
$nabla[x^TAx]=2x^TAnablax$
Anche da un punto di visto logico non vedo perchè l'operatore debba sparire e ho ragionato prendendo A=D ovvero una matrice diagonale a cui alla fine applico una rotazione (che è la stessa cosa di diagonalizzare A).
Ripeto: è la prima volta che ci ragiono e probabilmente sbaglio ma qualcosa non mi torna.
Edit: corretta la formula
"Magma":
Ho trovato questa identità $\nabla (\mathbf{x}^T\mathbf{Ax})=2\mathbf{Ax}$ mentre studiavo e ho provato a buttare giù una dimostrazione:
$$ \nabla (\mathbf{x}^T.\mathbf{Ax} )
=\nabla\mathbf{x}^T.\mathbf{Ax}
+\mathbf{x}^T.\mathbf{A}\nabla \mathbf{x}
=\mathbf{Ax}+(\mathbf{x}^T\mathbf{A} )^T= (\mathbf{A}+\mathbf{A}^T )\mathbf{x}=2\mathbf{Ax}$$
con $\mathbf{x}={x_1,..., x_n}$ e $\mathbf{A}$ matrice simmetrica di ordine $n$. Potrebbe andare oppure è piuttosto rozza?
Il concetto e' quello, ma quelle trasposizioni di vettori mi sembrano un po' fantasiose. E' l'unica cosa che mi fa storcere il naso.
Io mi limiterei a:
$\nabla(\mathbf{x}^T\mathbf{Ax}) = \nabla(\sum_i \sum_j A_{ij}x_i x_j) = 2\mathbf{Ax}$
"Quinzio":
Il concetto e' quello, ma quelle trasposizioni di vettori mi sembrano un po' fantasiose. E' l'unica cosa che mi fa storcere il naso. Io mi limiterei a:
$\nabla(\mathbf{x}^T\mathbf{Ax}) = \nabla(\sum_i \sum_j A_{ij}x_i x_j) = 2\mathbf{Ax}$
L'idea era di vedere $\mathbf{x}^T\cdot \mathbf{Ax}$ come il prodotto di due funzioni $fg$ con $f=\mathbf{x}^T$ e $g= \mathbf{Ax}$, su cui applicare la regola del prodotto $\nabla(fg)=(\nabla f)g+g(\nabla g)$. Ho considerato $(\mathbf{x}^T\mathbf{A} )^T $ per far in modo che $\mathbf{x}^T\mathbf{A}$ sia anch'esso un vettore colonna.
Quello che secondo me non e' ben definito nei tuoi passaggi e' questo: $\nabla \mathbf{x}$.
Cosa scriveresti dopo l'uguale in $\nabla \mathbf x = ...$ ?
Cosa scriveresti dopo l'uguale in $\nabla \mathbf x = ...$ ?
"Quinzio":
Cosa scriveresti dopo l'uguale in $\nabla \mathbf x = ...$ ?
Lo immagino così

$$\nabla \mathbf{x}=\frac{dx_i}{dx_j} \mathbf{e}_i \otimes \mathbf{e}_j=\delta_{ij}\mathbf{e}_i \otimes \mathbf{e}_j=\mathbf{I}$$
Ecco il mio dubbio e' proprio se \[ \nabla \mathbf{x}=\mathbf{I} \]
Io rimarrei con la definizione di gradiente
$$\displaystyle \nabla f=
{\begin{bmatrix}
{\frac {\partial f}{\partial x_{1}}} \\ \vdots \\ {\frac {\partial f}{\partial x_{n}}}
\end{bmatrix}} $$
e poi
$$\frac {\partial }{\partial x_{j}} \mathbf{x}^T \mathbf{Ax} = [\delta_{1j}\ \cdots \ \delta_{nj}] \mathbf{Ax} + \mathbf{x^TA} \begin{bmatrix} \delta_{1j} \cr \cdots \cr \delta_{nj} \end{bmatrix}$$
Io rimarrei con la definizione di gradiente
$$\displaystyle \nabla f=
{\begin{bmatrix}
{\frac {\partial f}{\partial x_{1}}} \\ \vdots \\ {\frac {\partial f}{\partial x_{n}}}
\end{bmatrix}} $$
e poi
$$\frac {\partial }{\partial x_{j}} \mathbf{x}^T \mathbf{Ax} = [\delta_{1j}\ \cdots \ \delta_{nj}] \mathbf{Ax} + \mathbf{x^TA} \begin{bmatrix} \delta_{1j} \cr \cdots \cr \delta_{nj} \end{bmatrix}$$
"Quinzio":
Ecco il mio dubbio e' proprio se \[ \nabla \mathbf{x}=\mathbf{I} \]
Non mi è chiaro il perché

"Quinzio":
Io rimarrei con la definizione di gradiente
\[ \displaystyle \nabla f= {\begin{bmatrix} {\frac {\partial f}{\partial x_{1}}} ,\cdots ,{\frac {\partial f}{\partial x_{n}}} \end{bmatrix}}^T \]
Questa però è la definizione del gradiente di uno scalare
$$\nabla f= \frac{\partial f}{\partial x_i}\mathbf{e}_i$$
con cui si ricava anche che il gradiente di $\mathbf{u}\cdot \mathbf{v}$ è
$$\nabla \mathbf{u}\cdot \mathbf{v}=(\nabla \mathbf{u}^T )\mathbf{v}+(\nabla \mathbf{v}^T)\mathbf{u}$$
dove il gradiente di un vettore $\mathbf{u}(\mathbf{x})$ è
$$\nabla \mathbf{u}=\frac{\partial u_i}{\partial x_i} \mathbf{e}_i\otimes \mathbf{e}_j$$
Mi sembrerebbe che sia corretto però non vorrei trascurare qualcosa

Secondo me Quinzio ha ragione. @Magma: puoi certamente vedere $\nabla$ come l'operatore che associa ad una funzione a valori vettoriali la sua matrice Jacobiana, e il tuo ragionamento fila perfettamente. Ma alla fine, nella pratica é spesso piú semplice scrivere tutto in coordinate e fare i calcoli direttamente (questo é un consiglio che ricordo bene da un corso di Juan Luis Vazquez). Ci perdi in eleganza, sicuramente, ma perdi meno tempo a definire ogni oggetto e poi a convincere i tuoi interlocutori che i tuoi calcoli sono corretti.
"dissonance":
@Magma: puoi certamente vedere $\nabla$ come l'operatore che associa ad una funzione a valori vettoriali la sua matrice Jacobiana, e il tuo ragionamento fila perfettamente.
Thank you!

"dissonance":
Secondo me Quinzio ha ragione. [...] nella pratica é spesso piú semplice scrivere tutto in coordinate e fare i calcoli direttamente (questo é un consiglio che ricordo bene da un corso di Juan Luis Vazquez). Ci perdi in eleganza, sicuramente, ma perdi meno tempo a definire ogni oggetto e poi a convincere i tuoi interlocutori che i tuoi calcoli sono corretti.
La dimostrazione in coordinate è stata svolta anche dal professore, però a volte trovo faticoso lavorare con la notazione indiciale: per questo ho cercato di farne a meno.

"Quinzio":
Ecco il mio dubbio e' proprio se \[ \nabla \mathbf{x}=\mathbf{I} \]
E' così, dato che il vettore $x$ non dipende da nessuna variabile (l'ho scoperto dal successivo commento di Magma), allora la jacobiana è (ovviamente) la matrice identità.
Visto che Magma non ha specificato, ero andato per il caso più comune, ovvero in cui le componenti del vettore $x$ dipendessero da un parametro, diciamo, $t$.
P.S. E adesso che vedo avevo scordato un $x^T$ nella formula...

P.S.2 E sarebbe anche corretto specificare che il tutto vale se le entrate della matrice A non dipendono da nulla.
@Bokonon: Mea culpa, rimedio subito!
Dati $\phi_1,..., \phi_n\in \mathcal{A}_o:={\phi \in H(\Omega) : \phi=0 \text{ in } \partial \Omega}$ e l'approssimante $u_n:=c_j\phi_j$ al variare di $\mathbf{x}:={c_1, ..., c_n}\in RR^n$, ho la seguente funzione
$$ H(\mathbf{x}):=J[c_j\phi_j]=\frac{\mathbf{x}^T\mathbf{A}\mathbf{x}}{\mathbf{x}^T\mathbf{B}\mathbf{x}}$$ con $J$ coefficiente di Rayleigh, $\mathbf{A}$ e $\mathbf{B}$ matrici simmetriche le cui componenti sono
$$A_{ij}:= \int_{\Omega} p\nabla \phi_i \nabla \phi_j+q \phi_i \phi_j \, d\Omega \, , \qquad B_{ij}:= \int_{\Omega} r\phi_i \phi_j \, d\Omega $$ Le forme bilineari $ \mathbf{x}^T\mathbf{A}\mathbf{x}$ e $ \mathbf{x}^T\mathbf{B}\mathbf{x}$ sono definite positive in quanto $p,r>0$ e $q\ge 0$.
Applicando il metodo dei moltiplicatori di Lagrange alla funzione $G:=\mathbf{x}^T\mathbf{A}\mathbf{x}+\lambda (1-\mathbf{x}^T\mathbf{B}\mathbf{x})$
$$ \left\{\begin{aligned}
\nabla_{ \{\mathbf{x}\}}G= 0 \\
\nabla_{ \{\lambda\}}G= 0
\end{aligned}\right.
\iff
\left\{\begin{aligned}
\nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{A}\mathbf{x}
)&= \tilde\lambda \nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{B}\mathbf{x}) \\
\mathbf{x}^T\mathbf{B}\mathbf{x}&=1
\end{aligned}\right.
$$
e sfruttando l'dentità $\nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{A}\mathbf{x}) =2\mathbf{Ax}$ e $\nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{B}\mathbf{x}) =2\mathbf{Bx}$, arrivo a dimostrare che la ricerca del minimo vincolato di $H(\mathbf{x})$ equivale a risolvere un problema agli autovalori generalizzato: $$\underset{\mathbf{x}\ne\mathbf{0}}{\min H(\mathbf{x})}\iff
\left\{\begin{aligned}
\mathbf{A}\mathbf{x} =\tilde{\lambda} \mathbf{B}\mathbf{x} \\
\mathbf{x}^T\mathbf{B}\mathbf{x}=1
\end{aligned}\right.$$
È nato tutto da qui
Dati $\phi_1,..., \phi_n\in \mathcal{A}_o:={\phi \in H(\Omega) : \phi=0 \text{ in } \partial \Omega}$ e l'approssimante $u_n:=c_j\phi_j$ al variare di $\mathbf{x}:={c_1, ..., c_n}\in RR^n$, ho la seguente funzione
$$ H(\mathbf{x}):=J[c_j\phi_j]=\frac{\mathbf{x}^T\mathbf{A}\mathbf{x}}{\mathbf{x}^T\mathbf{B}\mathbf{x}}$$ con $J$ coefficiente di Rayleigh, $\mathbf{A}$ e $\mathbf{B}$ matrici simmetriche le cui componenti sono
$$A_{ij}:= \int_{\Omega} p\nabla \phi_i \nabla \phi_j+q \phi_i \phi_j \, d\Omega \, , \qquad B_{ij}:= \int_{\Omega} r\phi_i \phi_j \, d\Omega $$ Le forme bilineari $ \mathbf{x}^T\mathbf{A}\mathbf{x}$ e $ \mathbf{x}^T\mathbf{B}\mathbf{x}$ sono definite positive in quanto $p,r>0$ e $q\ge 0$.
Applicando il metodo dei moltiplicatori di Lagrange alla funzione $G:=\mathbf{x}^T\mathbf{A}\mathbf{x}+\lambda (1-\mathbf{x}^T\mathbf{B}\mathbf{x})$
$$ \left\{\begin{aligned}
\nabla_{ \{\mathbf{x}\}}G= 0 \\
\nabla_{ \{\lambda\}}G= 0
\end{aligned}\right.
\iff
\left\{\begin{aligned}
\nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{A}\mathbf{x}
)&= \tilde\lambda \nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{B}\mathbf{x}) \\
\mathbf{x}^T\mathbf{B}\mathbf{x}&=1
\end{aligned}\right.
$$
e sfruttando l'dentità $\nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{A}\mathbf{x}) =2\mathbf{Ax}$ e $\nabla_{ \{\mathbf{x}\}} (\mathbf{x}^T\mathbf{B}\mathbf{x}) =2\mathbf{Bx}$, arrivo a dimostrare che la ricerca del minimo vincolato di $H(\mathbf{x})$ equivale a risolvere un problema agli autovalori generalizzato: $$\underset{\mathbf{x}\ne\mathbf{0}}{\min H(\mathbf{x})}\iff
\left\{\begin{aligned}
\mathbf{A}\mathbf{x} =\tilde{\lambda} \mathbf{B}\mathbf{x} \\
\mathbf{x}^T\mathbf{B}\mathbf{x}=1
\end{aligned}\right.$$
È nato tutto da qui
