Traccia del gradiente secondo
Ciao. Se ho una matrice $2xx2$, $A$, perché se faccio $trnablanablaA=DeltaA$? ($Delta=$Laplaciano)
Grazie.
Grazie.
Risposte
Abbiamo il gradiente di una funzione $f$:
$\grad f = (f_x, f_y)$
Ora, $\grad f_x = (f_{"xx"}, f_(xy))$
Quindi posso scrivere, (anche se non l'ho mai visto):
$\grad \grad f = ((f_{"xx"}, f_(xy)),(f_(xy), f_(xy)))$
la sua traccia è :
$tr (\grad \grad f) = f_{"xx"}+ f_(xy)$
Ti torna ?
$\grad f = (f_x, f_y)$
Ora, $\grad f_x = (f_{"xx"}, f_(xy))$
Quindi posso scrivere, (anche se non l'ho mai visto):
$\grad \grad f = ((f_{"xx"}, f_(xy)),(f_(xy), f_(xy)))$
la sua traccia è :
$tr (\grad \grad f) = f_{"xx"}+ f_(xy)$
Ti torna ?
Se lo scrivo per componenti $A_((i,j)|hk)$, con $|$ che indica la derivata, se devo fare la traccia devo mettere $j=i$. Perché venga fuori il laplaciano, dovrebbe essere anche $h=k$: perché?
Puoi fare il gradiente di una funzione scalare, non di una matrice intera.... non saprei....
$sigma_((i,j)|hk)$, con $sigma$ tensore degli sforzi di Cauchy.
@Quinzio: Questo a cui fa riferimento Mirino06 è un tipo di calcolo avanzato che si usa in meccanica dei continui (e anche in altre discipline, come la relatività generale) e che si chiama calcolo tensoriale.
@Mirino: Mi pare che quando prendi la traccia devi saturare tutti gli indici alti con tutti gli indici bassi. Per esempio, la traccia del tensore \(t^{\alpha \beta}{ }{ }_{\rho\sigma}\) è \(\sum_\alpha t^{\alpha \alpha}{ }{ }_{\alpha \alpha}\). Quindi quando prendi la traccia di \(\nabla\nabla A\) vai a saturare anche i due indici covarianti in più che ti vengono fuori dalle derivate.
Però riflettici bene perché io il calcolo tensoriale fatto così non lo conosco quasi per niente. Faccio riferimento al libro di M. Itskov Tensor Algebra and Tensor Analysis for Engineers, che trovi pure su google ebooks.
@Mirino: Mi pare che quando prendi la traccia devi saturare tutti gli indici alti con tutti gli indici bassi. Per esempio, la traccia del tensore \(t^{\alpha \beta}{ }{ }_{\rho\sigma}\) è \(\sum_\alpha t^{\alpha \alpha}{ }{ }_{\alpha \alpha}\). Quindi quando prendi la traccia di \(\nabla\nabla A\) vai a saturare anche i due indici covarianti in più che ti vengono fuori dalle derivate.
Però riflettici bene perché io il calcolo tensoriale fatto così non lo conosco quasi per niente. Faccio riferimento al libro di M. Itskov Tensor Algebra and Tensor Analysis for Engineers, che trovi pure su google ebooks.