Matrici simmetriche e antisimmetriche
Ciao a tutti! Vi propongo ancora un paio di dimostrazioni di tarda serata
i) Mostrare che ogni matrice quadrata può essere scritta in un unico modo come somma di una matrice simmetrica e di una matrice antisimmetrica.
Allora, se $B$ è una matrice simmetrica, in particolare posso scrivere \(\displaystyle B=(A+A^T)/2 \): infatti \(\displaystyle B^T=(A+A^T)^T/2=(A+A^T)/2=B \).
Voglio trovare $C$ antisimmetrica tale che \(\displaystyle A=(A+A^T)/2+C \); a tal fine considero la coppia di equazioni
\(\displaystyle \begin{cases} A=(A+A^T)/2+C \\ A^T=(A+A^T)/2-C \end{cases} \).
Sottraendo membro a membro, ho \(\displaystyle A-A^T=2C \Rightarrow C=(A-A^T)/2 \). Pertanto ogni matice quadrata $A$ può essere scritta nella forma \(\displaystyle A=(A+A^T)/2+(A-A^T)/2 \).
Cosa ne pensate? E' molto carina come espressione, non vorrei che fosse sbagliata! Per l'unicità invece: supponiamo \(\displaystyle A=B'+C' \) con \(\displaystyle B' \) simmetrica e \(\displaystyle B' \) antisimmetrica. Allora \(\displaystyle B+C=B'+C'=(A+A^T)/2+(A-A^T)/2 \); trasponendo, ho
\(\displaystyle \begin{cases} (A+A^T)/2-(A-A^T)/2=B'-C' \\ (A+A^T)/2+(A-A^T)^2=B'+C' \end{cases}\)
da cui sommando ho \(\displaystyle 2B'=A+A^T \Rightarrow B'=B \) e sostituendo ho \(\displaystyle C'=(A-A^T)/2=C \).
ii) Sia $A$ una matrice quadrata simmetrica a entrate reali. Mostrare che \(\displaystyle \text{tr} A^2\ge 0 \) e se \(\displaystyle A\ne O \) allora \(\displaystyle \text{tr} A^2>0 \).
Innanzitutto, \(\displaystyle \text{tr} A^2=\text{tr} AA \); il generico elemento $ik$ di questa matrice è quindi \(\displaystyle \sum_{j=1}^n a_{ij}a_{jk} \). Scegliendo $i=k$, l'elemento della diagonale è \(\displaystyle \sum_{j=1}^n a_{ij}a_{ji }\). Qui entra in gioco l'ipotesi di simmetria, poiché la diagonale è invariante per trasposizione e quindi posso scambiare impunemente il ruolo di $i$ e di $j$. In altre parole \(\displaystyle a_{ij}=a_{ji} \) e quindi l'elemento i-esimo della diagonale di $A^2$ è proprio \(\displaystyle \sum_{j=1}^n a_{ij}^2\ge 0 \). Quindi \(\displaystyle \text{tr} A^2= \sum_{i=1}^n \sum_{j=1}^n a_{ij}^2 \ge 0 \). La somma di numeri non negativi è nulla se e solo se ogni addendo è nullo, ma l'unica matrice con questa caratteristica è proprio la matrice nulla $O$.
Dubbi, idee, suggerimenti? E' il secondo esercizio a preoccuparmi di più, gli indici mi mettono in confusione facilmente! (ho verificato che funziona con le $2times2$, sono troppo pigro per fare le $3times3$!).

i) Mostrare che ogni matrice quadrata può essere scritta in un unico modo come somma di una matrice simmetrica e di una matrice antisimmetrica.
Allora, se $B$ è una matrice simmetrica, in particolare posso scrivere \(\displaystyle B=(A+A^T)/2 \): infatti \(\displaystyle B^T=(A+A^T)^T/2=(A+A^T)/2=B \).
Voglio trovare $C$ antisimmetrica tale che \(\displaystyle A=(A+A^T)/2+C \); a tal fine considero la coppia di equazioni
\(\displaystyle \begin{cases} A=(A+A^T)/2+C \\ A^T=(A+A^T)/2-C \end{cases} \).
Sottraendo membro a membro, ho \(\displaystyle A-A^T=2C \Rightarrow C=(A-A^T)/2 \). Pertanto ogni matice quadrata $A$ può essere scritta nella forma \(\displaystyle A=(A+A^T)/2+(A-A^T)/2 \).
Cosa ne pensate? E' molto carina come espressione, non vorrei che fosse sbagliata! Per l'unicità invece: supponiamo \(\displaystyle A=B'+C' \) con \(\displaystyle B' \) simmetrica e \(\displaystyle B' \) antisimmetrica. Allora \(\displaystyle B+C=B'+C'=(A+A^T)/2+(A-A^T)/2 \); trasponendo, ho
\(\displaystyle \begin{cases} (A+A^T)/2-(A-A^T)/2=B'-C' \\ (A+A^T)/2+(A-A^T)^2=B'+C' \end{cases}\)
da cui sommando ho \(\displaystyle 2B'=A+A^T \Rightarrow B'=B \) e sostituendo ho \(\displaystyle C'=(A-A^T)/2=C \).
ii) Sia $A$ una matrice quadrata simmetrica a entrate reali. Mostrare che \(\displaystyle \text{tr} A^2\ge 0 \) e se \(\displaystyle A\ne O \) allora \(\displaystyle \text{tr} A^2>0 \).
Innanzitutto, \(\displaystyle \text{tr} A^2=\text{tr} AA \); il generico elemento $ik$ di questa matrice è quindi \(\displaystyle \sum_{j=1}^n a_{ij}a_{jk} \). Scegliendo $i=k$, l'elemento della diagonale è \(\displaystyle \sum_{j=1}^n a_{ij}a_{ji }\). Qui entra in gioco l'ipotesi di simmetria, poiché la diagonale è invariante per trasposizione e quindi posso scambiare impunemente il ruolo di $i$ e di $j$. In altre parole \(\displaystyle a_{ij}=a_{ji} \) e quindi l'elemento i-esimo della diagonale di $A^2$ è proprio \(\displaystyle \sum_{j=1}^n a_{ij}^2\ge 0 \). Quindi \(\displaystyle \text{tr} A^2= \sum_{i=1}^n \sum_{j=1}^n a_{ij}^2 \ge 0 \). La somma di numeri non negativi è nulla se e solo se ogni addendo è nullo, ma l'unica matrice con questa caratteristica è proprio la matrice nulla $O$.
Dubbi, idee, suggerimenti? E' il secondo esercizio a preoccuparmi di più, gli indici mi mettono in confusione facilmente! (ho verificato che funziona con le $2times2$, sono troppo pigro per fare le $3times3$!).
Risposte
1 è giusto, si dimostra così; prova a generalizzare a questo risultato. Per la polarizzazione di un polinomio omogeneo ad una generica forma multilineare vedi ad esempio eq. 2.6.5 qui.
Per 2, pure; hai sostanzialmente dimostrato che \((A,B)\mapsto tr(A^tB)\) è un prodotto scalare sullo spazio vettoriale delle matrici $n\times n$.
Per 2, pure; hai sostanzialmente dimostrato che \((A,B)\mapsto tr(A^tB)\) è un prodotto scalare sullo spazio vettoriale delle matrici $n\times n$.
Volendo si potrebbe far vedere anche così?
L'insieme delle matrici simmetriche $Sim^(n,n)$ di ordine $n$ a coefficienti in un fissato campo $K$ forma un sottospazio vettoriale di $K^(n,n)$, così come anche l'insieme delle matrici asimmetriche $As^(n,n)$. L'intersezione dei due sottospazi è la sola matrice nulla $O_n$ per cui $Sim^(n,n)$ e $As^(n,n)$ sonk in somma diretta. Inoltre il primo dovrebbe avere dimensione $\frac{n(n+1)}{2}$ e il secondo $\frac{n(n-1)}{2}$ per cui lo spazio somma coincide proprio con $K^(n,n)$.
L'insieme delle matrici simmetriche $Sim^(n,n)$ di ordine $n$ a coefficienti in un fissato campo $K$ forma un sottospazio vettoriale di $K^(n,n)$, così come anche l'insieme delle matrici asimmetriche $As^(n,n)$. L'intersezione dei due sottospazi è la sola matrice nulla $O_n$ per cui $Sim^(n,n)$ e $As^(n,n)$ sonk in somma diretta. Inoltre il primo dovrebbe avere dimensione $\frac{n(n+1)}{2}$ e il secondo $\frac{n(n-1)}{2}$ per cui lo spazio somma coincide proprio con $K^(n,n)$.
@Cantor: "Antisimmetriche", non "asimmetriche", è diverso.
Comunque, va bene SE mi dimostri che le dimensioni sono proprio quelle lì.
Comunque, va bene SE mi dimostri che le dimensioni sono proprio quelle lì.
Ciao, grazie a tutti per le risposte! Bella idea Cantor, mi piace la tua dimostrazione.
Provo a giustificare le affermazioni sulle dimensioni: una generica matrice quadrata ha dimensione $ntimesn=n^2$. Se essa è simmetrica, allora ogni elemento $a_(ij)$ che non si trova sulla diagonale si trova in corrispondenza con l'elemento $a_(ji)$ nel triangolo opposto (non so se sia un'espressione corretta
), quindi basta considerarne uno per fissare l'altro in modo univoco.
Dato che questa considerazione non vale per gli elementi sulla diagonale, che sono $n$, la dimensione dello spazio sarà \(\displaystyle \dim S = \frac{n^2-n}{2}+n=\frac{n(n+1)}{2} \). Per le matrici antisimmetriche vale un ragionamento analogo, ma siccome la diagonale principale presenta entrate tutte nulle, considero solo \(\displaystyle \frac{n^2-n}{2}=\frac{n(n-1)}{2} \).
Provo a giustificare le affermazioni sulle dimensioni: una generica matrice quadrata ha dimensione $ntimesn=n^2$. Se essa è simmetrica, allora ogni elemento $a_(ij)$ che non si trova sulla diagonale si trova in corrispondenza con l'elemento $a_(ji)$ nel triangolo opposto (non so se sia un'espressione corretta

Dato che questa considerazione non vale per gli elementi sulla diagonale, che sono $n$, la dimensione dello spazio sarà \(\displaystyle \dim S = \frac{n^2-n}{2}+n=\frac{n(n+1)}{2} \). Per le matrici antisimmetriche vale un ragionamento analogo, ma siccome la diagonale principale presenta entrate tutte nulle, considero solo \(\displaystyle \frac{n^2-n}{2}=\frac{n(n-1)}{2} \).
Sì @Uomograsso dovrebbe essere proprio questo il motivo!
Comunque @dissonance per matrici asimmetriche che si intenderebbe?
Comunque @dissonance per matrici asimmetriche che si intenderebbe?
Non ho mai sentito questo aggettivo. "Antisimmetrico", si, ma "asimmetrico" riferito a una matrice, mai sentito.
Ah ok, avevi detto "è diverso" e avevo pensato fosse qualche altra definizione