Matrici commutative

ale.b14
Da dove posso partire per dimostrare che le matrici nXn che commutano con tutte le matrici nXn sono tutti e soli i multipli scalari dell'identità?

Risposte
dissonance
Io lo dimostrerei in astratto: se $A$ è la nostra matrice che commuta con tutte le matrici $n \times n$, in particolare per ogni matrice invertibile $U$ si ha

$U^{-1}AU=A$,

ovvero l'operatore lineare associato ad $A$ è rappresentato dalla stessa matrice rispetto a tutte le basi. Da qui si dovrebbe riuscire a concludere senza troppe difficoltà.

ale.b14
ok, qui ci sono... ora ho provato a fissare due basi dello spazio vettoriale su cui opera l'endomorfismo associato ad A, però non riesco a concludere...

dissonance
Eh si, hai ragione, pensavo fosse più semplice. Altrimenti, hai provato a fare un discorso di autovalori-autovettori? In fondo, se $v$ è un $\lambda$-autovettore di $A$, allora

$A(Uv)=UAv=lambda(Uv)$ per ogni matrice $U$,

quindi tutti i vettori sono $lambda$-autovettori, e questa è la tesi. Naturalmente resta da dimostrare che esiste almeno un autovettore...

ale.b14
Scusa se insisto, ma non capisco dove posso mettermi le mani per dimostrare che una matrice quadrata che commuta con tutte le altre matrici dello stesso tipo ha sempre almeno un autovettore...

dissonance
Non ti devi scusare! :-) Questi miei post sono solo idee sfuse, in realtà neanche io saprei risolvere l'esercizio in questo momento. Non è immediato.

gugo82
La butto lì, da non esperto...

Sappiamo tutti che una matrice [tex]$A$[/tex] di dimensioni [tex]$n\times n$[/tex] o è diagonalizzabile o ha una forma canonica di Jordan non diagonale; ciò significa che o esiste una matrice invertibile [tex]$U$[/tex] che o diagonalizza [tex]$A$[/tex] o la riduce in forma di Jordan non diagonale.
Il fatto che [tex]$U$[/tex] commuti con [tex]$A$[/tex] implica che o [tex]$A$[/tex] è diagonale o è uguale alla sua forma canonica di Jordan non diagonale.
Quindi il succo dell'esercizio, secondo me, sta nel fare quanto segue:

i. dimostrare che una tale matrice [tex]$A$[/tex] non può avere una forma di Jordan non diagonale;

ii. dimostrare che ogni matrice diagonale che commuti con tutte le altre matrici è necessariamente un multiplo della matrice identità [tex]$I$[/tex].

Ovviamente è solo un'idea di uno che con le matrici non ci ha a che fare da un bel po'... Quindi probabile che non funzioni, o che ci sia una strada più breve.
A voi vedere come và. :-D

rbtqwt
Se $A \in M(n,\mathbb R)$ commuta con ogni $B \in M(n,\mathbb R)$, in particolare commuta con una matrice $B$ tale che $B_{ij} = i\delta_{ij}$ ($1 \leq i,j \leq n$). La condizione $AB = BA$ diventa dunque $iA_{ij} =jA_{ij}$ da cui $A_{ij} = 0$ se $i \ne j$, ossia $A$ è diagonale. Similmente, costruendo opportune matrici $B$ si mostra che gli elementi sulla diagonale di $A$ sono uguali fra loro.

gugo82
Appunto... Il grosso sforzo è ricondursi al caso diagonale; poi di là il passo è breve.

Infatti, nel caso [tex]$3\times 3$[/tex], presa la matrice diagonale con elementi [tex]$a, b, c$[/tex] si ha:

[tex]$\begin{pmatrix} 1 & 1 & 1 \\ 0 & 0 & 0 \\ 0 & 0& 0 \end{pmatrix}\ \begin{pmatrix} a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c \end{pmatrix} =\begin{pmatrix} a & b & c \\ 0 & 0 & 0 \\ 0 & 0& 0 \end{pmatrix}$[/tex]

[tex]$\begin{pmatrix} a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c \end{pmatrix}\ \begin{pmatrix} 1 & 1 & 1 \\ 0 & 0 & 0 \\ 0 & 0& 0 \end{pmatrix} =\begin{pmatrix} a & a & a \\ 0 & 0 & 0 \\ 0 & 0& 0 \end{pmatrix}$[/tex]

da cui [tex]$a=b=c$[/tex].
Analogamente si procede nel caso di dimensione arbitraria.

ale.b14
"rbtqwt":
Se $A \in M(n,\mathbb R)$ commuta con ogni $B \in M(n,\mathbb R)$, in particolare commuta con una matrice $B$ tale che $B_{ij} = i\delta_{ij}$ ($1 \leq i,j \leq n$). La condizione $AB = BA$ diventa dunque $iA_{ij} =jA_{ij}$ da cui $A_{ij} = 0$ se $i \ne j$, ossia $A$ è diagonale. Similmente, costruendo opportune matrici $B$ si mostra che gli elementi sulla diagonale di $A$ sono uguali fra loro.


Non mi quadra una cosa... Così dimostri che per commutare con una matrice B così definita, la matrice A deve essere diagonale. E qui ok... ma così facendo non ti sei messo in un caso particolare? Non so se mi spiego, ma in linea teorica che cosa ti dice che la matrice A non debba avere caratteristiche in più per commutare con altri tipi di matrice?

rbtqwt
Provo a spiegarmi meglio :). Supponi che $A \in M(n,\mathbb R)$ sia tale che $AB = BA$ per ogni $B \in M(n,\mathbb R)$. La relazione $AB = BA$ in particolare vale se considero $B$ della forma $B_{ij} = i\delta_{ij}$ (anche $B \in M(n,\mathbb R)$!). Dal ragionamento del post di sopra questo mostra che $A$ è diagonale. Detto in altro modo
$ \{ A \in M(n,\mathbb R) : AB = BA, \forall B \in M(n,\mathbb R) \} \subseteq \{ A \in M(n,\mathbb R) : AB = BA, \mbox{ con } B_{ij} = i\delta_{ij} \} \subseteq \{ A \in M(n,\mathbb R) : A \mbox{ diagonale}\}$.

gugo82
Provvedo un esempio pratico al ragionamento di rbtqwt.

Prendiamo [tex]$n=3$[/tex] e diciamo che [tex]$A$[/tex] commuta con tutte le altre matrici [tex]$3\time 3$[/tex]; in particolare [tex]$A$[/tex] commuta con la matrice:

[tex]$B:=(i\ \delta_{ij}) =\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3\end{pmatrix}$[/tex] ([tex]$\delta_{ij}$[/tex] è il simbolo di Kronecker)

e perciò risulta:

[tex]$\begin{pmatrix} a_{11} & 2a_{12} & 3a_{13} \\ a_{21} & 2a_{22} & 3a_{23} \\ a_{31} & 2a_{32} & 3a_{33}\end{pmatrix} = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}\end{pmatrix}\ \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3\end{pmatrix} =AB$[/tex]
[tex]$=BA=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3\end{pmatrix}\ \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}\end{pmatrix}= \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ 2a_{21} & 2a_{22} & 2a_{23} \\ 3a_{31} & 3a_{32} & 3a_{33}\end{pmatrix}$[/tex],

da cui si ricavano le uguaglianze:

[tex]$\begin{cases} 2a_{12} =a_{12},\ 3a_{13}=a_{13} \\ a_{21} =2a_{21},\ 3a_{23} =2a_{23} \\ a_{31} =3a_{31},\ 2a_{32} =3a_{32}\end{cases}$[/tex].

Dalle suddette uguaglianze segue immediatamente che:

[tex]$a_{12}=a_{13}=a_{21}=a_{23}=a_{31}=a_{32}=0$[/tex],

sicché [tex]$A$[/tex] è necessariamente diagonale, ossia del tipo:

[tex]$A=\begin{pmatrix} a_{11} & 0 & 0 \\ 0 & a_{22} & 0 \\ 0 & 0 & a_{33}\end{pmatrix}$[/tex].

A questo punto, per finire l'esercizio si usa quanto ho scritto nel mio post precedente.

Ovviamente nel caso generale (cioè con [tex]$n$[/tex] qualsiasi) i conti vengono come esposto da rbtqwt.

ale.b14
Vi ringrazio tutti!
Però il dubbio che cercavo di esprimere prima è rimasto un po'... sarà l'inesperienza!
Cerco di spiegarmi meglio: immaginate che il testo del problema chiedesse semplicemente di descrivere come sono fatte le matrici che comutano con tutte le altre, senza dare indicazioni nè sulla diagonalità nè sul fatto che devono essere multiple dell'identità; non credo che in questo caso sarebbe bastato questo ragionamento! Sto in crisi mistica, aiutatemi... :(

gugo82
Perchè credi che non sarebbe bastato?

Certo, sarebbe stato più difficile arrivare ad una conclusione, perchè avresti dovuto farti prima un'idea del risultato che avresti dovuto ottenere*... Però saresti arrivato proprio lì e sempre e solo lì (sempre nell'ipotesi in cui tutti i conti fossero stati fatti bene).

Infatti abbiamo dimostrato il seguente teorema:

Una matrice [tex]$A$[/tex] di dimensioni [tex]$n\times n$[/tex] commuta con ogni altra matrice [tex]$n\times n$[/tex] se e solo se [tex]$A= \alpha I$[/tex] (ove [tex]$\alpha$[/tex] è un numero ed [tex]$I$[/tex] la matrice unitaria)

e chiaramente da ciò non si può sfuggire in alcun modo (a parte in casi particolari, cfr. il mio poscritto).


P.S.: Ad occhio e croce direi che il teorema funziona anche se le matrici sono prese a coefficienti in un anello con caratteristica [tex]$0$[/tex] oppure [tex]$> n$[/tex]... O no?


__________
* Questa è una delle grosse difficoltà della ricerca in generale; probabilmente essa viene anche amplificata nella ricerca matematica, in cui per lo più non si hanno "dati" su cui basare le proprie intuizioni (contrariamente a quanto avviene in biologia, chimica, fisica, etc...).

ale.b14
quello che cerco di dire è:
in una dimostrazione di questo fatto, dopo essere arrivati al fatto che per commutare con le due matrici scelte ad hoc la matrice deve essere necessariamente un multiplo scalare dell'identità, non bisognerebbe mostrare in due righe (lo so che qui è banale!!) che effettivamente le matrici scalari commutano con tutte le matrici dello stesso tipo?

gugo82
"ale.b":
in una dimostrazione di questo fatto, dopo essere arrivati al fatto che per commutare con le due matrici scelte ad hoc la matrice deve essere necessariamente un multiplo scalare dell'identità, non bisognerebbe mostrare in due righe (lo so che qui è banale!!) che effettivamente le matrici scalari commutano con tutte le matrici dello stesso tipo?

Certo, bisogna dimostrare che la condizione [tex]$A=\alpha I$[/tex] è pure sufficiente... Ma è talmente banale che l'abbiamo dato per assodato e siamo andati direttamente "alla ciccia" (ossia alla condizione necessaria, che è la più difficile). :wink:

ale.b14
Claro!! :)

dissonance
Vorrei riesumare per una dimostrazione alternativa che ho trovato proprio adesso e che reputo interessante.

Proposizione Sia $V$ uno spazio vettoriale di dimensione finita e $T$ un endomorfismo tale che $TS=ST$ per ogni endomorfismo $S$. Allora esiste uno scalare $alpha$ tale che $T=alphaI$.

Dimostrazione Fissiamo $f$ una forma lineare non nulla su $V$. Per ogni $v \in V$ definiamo un endomorfismo $Sx=f(x)v$. Allora per ogni $x \in V$ si ha

$f(x)Tv=TSx=STx=f(Tx)v$.

Preso un $x_0\in V$ tale che $f(x_0)ne 0$, abbiamo allora che

$Tv=frac{f(Tx_0)}{f(x_0)}v$

ovvero, posto $alpha=frac{f(Tx_0)}{f(x_0)}$,

$Tv=alpha v$.

Osserviamo che $alpha$ non dipende da $v$. Quindi la precedente identità ci dice esattamente che $T=alphaI$. ////

Carino, no? E si presta a generalizzare al contesto degli spazi di dimensione infinita, l'unica cosa che serve è l'esistenza di una forma lineare non banale. Riferimento:

http://math.stackexchange.com/questions ... 7832#27832

claudiamatica
Se $A=(a_{ij})$ deve commutare con tutti in particolare deve commutare con le matrici del tipo $(E_{ij})$ cioè quelle che hanno tutti 0 e un unico 1 nel posto $i,j$. Viceversa, se $A$ commuta con le matrici di base $E_{ij}$ allora commuta con tutte. Quindi possiamo provarlo per le $E_{ij}$.

Per esempio da $E_{11}*A = A*E_{11}$ segue $a_{1j}=a_{j1}=0 \forall j$, e così via per gli altri prodotti di questo tipo.

Quindi necessariamente $A$ è almeno diagonale.

Per vedere che gli elementi della diagonale sono uguali tra loro, se prendiamo:
$E_{ij}*A = A*E_{ij}$ abbiamo che il primo membro è uguale a $a_{jj}E_{ij}$ (cioè ha tutti 0 e $a_{jj}$ in posizione $ij$) mentre il secondo membro è uguale a $a_{ii}E_{ij}$.

Segue che $a_{ii} = a_{jj}$ per ogni coppia di indici, è la matrice $A$ è scalare.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.