$det A = det A^(t)$
come dimostro che il $det A= det A^t$ ?
Risposte
Le formule per calcolarlo sono simmetrico rispetto alle due componenti $i$, $j$. Oppure anche procedendo per induzione.
sia per simmetria che per induzione... se per favore riesci a essere il più chiaro e semplice possibile

(non riesco a ridimensionare l'immagine per non tagliarla: visualizzala in un'altra finestra)
il mio problema è un po capire questa dimostrazione, se riuscissi a spiegarmela meglio.. cmq grazie
Hai capito cos’è il gruppo delle permutazioni?
Facciamo un esempio con le matrici \(\displaystyle 3\times 3 \).
Le permutazioni di \(\displaystyle 3 \) elementi sono (espresse in tabella e come matrice ortogonale):
\[\iota = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 2 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix}\]
\[\alpha = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 3 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1\end{pmatrix}\]
\[\beta = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 3 & 2 \end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 1 & 0\end{pmatrix}\]
\[\gamma = \begin{pmatrix} 1 & 2 & 3 \\ 3 & 2 & 1 \end{pmatrix}= \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0\end{pmatrix}\]
\[\sigma = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 3 & 1 \end{pmatrix}= \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 0 & 0\end{pmatrix}\]
\[\sigma^2 = \begin{pmatrix} 1 & 2 & 3 \\ 3 & 1 & 2 \end{pmatrix}= \begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0\end{pmatrix}\]
Il segno è sostanzialmente il determinante della matrice e l'inversa è quella che ha la matrice inversa come rappresentazione matriciale.
A questo punto prendiamo per esempio \(\displaystyle \sigma \). Per \(\displaystyle A = (a_{ij}) \) si ha che \[ \mathrm{sgn}(\sigma)a_{1\sigma(1)}a_{2\sigma(2)}a_{3\sigma(3)} = a_{12}a_{23}a_{31} \]
Similmente nel caso di \(\displaystyle A^t = (a'_{ij}) \) si ha che \[ \mathrm{sgn}(\sigma^2)a'_{1\sigma^2(1)}a'_{2\sigma^2(2)}a'_{3\sigma^2(3)} = a'_{13}a'_{21}a'_{32} = a_{31}a_{12}a_{23} \]
Capisci che la somma quindi produce lo stesso risultato.
P.S.: \(\displaystyle \sigma \) e \(\displaystyle \sigma^2 \) sono inversi l’una dell’altra. Gli altri elementi sono inversi di loro stessi.
Facciamo un esempio con le matrici \(\displaystyle 3\times 3 \).
Le permutazioni di \(\displaystyle 3 \) elementi sono (espresse in tabella e come matrice ortogonale):
\[\iota = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 2 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix}\]
\[\alpha = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 3 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1\end{pmatrix}\]
\[\beta = \begin{pmatrix} 1 & 2 & 3 \\ 1 & 3 & 2 \end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 1 & 0\end{pmatrix}\]
\[\gamma = \begin{pmatrix} 1 & 2 & 3 \\ 3 & 2 & 1 \end{pmatrix}= \begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0\end{pmatrix}\]
\[\sigma = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 3 & 1 \end{pmatrix}= \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 0 & 0\end{pmatrix}\]
\[\sigma^2 = \begin{pmatrix} 1 & 2 & 3 \\ 3 & 1 & 2 \end{pmatrix}= \begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0\end{pmatrix}\]
Il segno è sostanzialmente il determinante della matrice e l'inversa è quella che ha la matrice inversa come rappresentazione matriciale.
A questo punto prendiamo per esempio \(\displaystyle \sigma \). Per \(\displaystyle A = (a_{ij}) \) si ha che \[ \mathrm{sgn}(\sigma)a_{1\sigma(1)}a_{2\sigma(2)}a_{3\sigma(3)} = a_{12}a_{23}a_{31} \]
Similmente nel caso di \(\displaystyle A^t = (a'_{ij}) \) si ha che \[ \mathrm{sgn}(\sigma^2)a'_{1\sigma^2(1)}a'_{2\sigma^2(2)}a'_{3\sigma^2(3)} = a'_{13}a'_{21}a'_{32} = a_{31}a_{12}a_{23} \]
Capisci che la somma quindi produce lo stesso risultato.
P.S.: \(\displaystyle \sigma \) e \(\displaystyle \sigma^2 \) sono inversi l’una dell’altra. Gli altri elementi sono inversi di loro stessi.
"xnix":
il mio problema è un po capire questa dimostrazione, se riuscissi a spiegarmela meglio.. cmq grazie
E' la definizione di determinante... la seconda uguaglianza discende dal fatto che quando sommi su un insieme di indici finito (e questo e' il caso) la somma e il prodotto (essendo operazioni commutative) non cambiano quando mescoli gli addendi/fattori con una qualsiasi permutazione.