Teorema di Cayley-Hamilton e densità
Ciao a tutti.
Parlando di spettri e risolventi a lezione è capitato di imbatterci nel teorema di Cayley-Hamilton. Cercando un po' su internet ho visto che esistono svariate dimostrazioni ma l'unica che riesco a capire (per mia ignoranza algebrica) dimostra il teorema per le matrici diagonalizzabili e poi conclude affermando che siccome le matrici diagonalizzabili sono dense nello spazio delle matrici e i polinomi sono continui il risultato può essere esteso con continuità a tutto lo spazio....dopo essermi ripreso dallo shock (a intuito avrei detto che le matrici diagonalizzabili erano "poche" rispetto alle altre) sono cominciate le domande. Densità e continuità sono concetti topologici e quindi le affermazioni di prima sono vere rispetto a quale topologia? Poi, visto che si può definire una norma per le matrici e questa a sua volta induce una distanza, le affermazioni di prima sono vere anche rispetto alla topologia delle sfere indotte dalla distanza?
Grazie dell'attenzione...
Parlando di spettri e risolventi a lezione è capitato di imbatterci nel teorema di Cayley-Hamilton. Cercando un po' su internet ho visto che esistono svariate dimostrazioni ma l'unica che riesco a capire (per mia ignoranza algebrica) dimostra il teorema per le matrici diagonalizzabili e poi conclude affermando che siccome le matrici diagonalizzabili sono dense nello spazio delle matrici e i polinomi sono continui il risultato può essere esteso con continuità a tutto lo spazio....dopo essermi ripreso dallo shock (a intuito avrei detto che le matrici diagonalizzabili erano "poche" rispetto alle altre) sono cominciate le domande. Densità e continuità sono concetti topologici e quindi le affermazioni di prima sono vere rispetto a quale topologia? Poi, visto che si può definire una norma per le matrici e questa a sua volta induce una distanza, le affermazioni di prima sono vere anche rispetto alla topologia delle sfere indotte dalla distanza?
Grazie dell'attenzione...
Risposte
Il teorema di Hamilton Cayley è un risultato puramente algebrico, nel senso che si può dimostrare per qualsiasi spazio di matrici, non necessariamente dotato di una particolare topologia come le matrici reali o complesse. Comunque la tua domanda non era su questo, ma sulla topologia dello spazio delle matrici. In realtà sono tutte cose che già conosci in un contesto molto più generale, quello degli spazi di Hilbert (o addirittura di Banach): la famosa "norma operatoriale" di cui parlavamo nella sezione di Analisi si riduce, essenzialmente, ad una norma di matrice nel caso finito-dimensionale. Inoltre lo spazio delle matrici ha esso stesso dimensione finita, cosicché tutte le norme che puoi definirci sopra sono equivalenti: dunque, in particolare, puoi definire sullo spazio delle matrici un'unica topologia di spazio normato e questa è indotta da una qualsiasi norma di matrice.
In conclusione tutte le proposizioni di carattere topologico che dimostri relativamente ad una norma di matrice sono vere rispetto a qualsiasi altra norma e riguardano l'unica topologia "buona" che le matrici possiedono.
In conclusione tutte le proposizioni di carattere topologico che dimostri relativamente ad una norma di matrice sono vere rispetto a qualsiasi altra norma e riguardano l'unica topologia "buona" che le matrici possiedono.
[OT]
Anche i razionali sono "pochi" rispetto ai reali, però [tex]$\mathbb{Q}$[/tex] è lo stesso denso in [tex]$\mathbb{R}$[/tex].
[/OT]
"alle.fabbri":
a intuito avrei detto che le matrici diagonalizzabili erano "poche" rispetto alle altre
Anche i razionali sono "pochi" rispetto ai reali, però [tex]$\mathbb{Q}$[/tex] è lo stesso denso in [tex]$\mathbb{R}$[/tex].

[/OT]
Bene, grazie a entrambi. Quindi per dimostrare la completezza mi basta prendere una matrice non diagonalizzabile [tex]M[/tex] e far vedere che esiste una successione di matrici diagonalizzabili [tex]A_n[/tex] che converge fortemente a [tex]M[/tex]?? Nella stessa filosofia di [tex]C_0^{\infty}[/tex] e [tex]L^2[/tex]...
Esatto. (Molto) tempo fa avevo affrontato il problema qui, ma solo per matrici complesse e non so quanto ti possa essere utile.
Ho letto il post ma non ci ho capito molto... Mi risulta più chiaro l'approccio di costruire una successione. Mi verrebbe da ragionare in termini di autovalori ma non so se funziona, mi pare troppo semplice. Quello che ho in mente è questo. Prendiamo [tex]\mathbb{C}^n[/tex] qualunque matrice [tex]M[/tex] non diagonalizzabile ammette esattamente [tex]n[/tex] autovalori, alcuni ripetuti chiaramente. Siano [tex]\{\lambda^{i}\}_{i=1,...,n}[/tex] questi autovalori, posso sempre costruire [tex]n[/tex] successioni [tex]\{\lambda_k^{i}\}[/tex] di numeri complessi tali che
[tex]$\lim_{k\rightarrow\infty} \lambda^i_k = \lambda^i$[/tex]
E qua comincia il punto che non mi convince tanto. Mi verrebbe da dire che posso scegliere una qualsiasi sequenza (non dico successione perchè non mi interessano le proprietà all'infinito) di [tex]n[/tex] vettori linearmente indipendenti, chiamiamoli [tex]\{v_k^{i}\}_{i=1,...,n}[/tex] e costruire una successione di matrici usando la decomposizione spettrale, in formule
[tex]$A_k = \sum_{i=1}^n \lambda_k^i P_k^i$[/tex]
dove [tex]P_k^i[/tex] è il proiettore sulla varietà lineare generata da [tex]v_k^i[/tex]. Siccome la norma di una matrice [tex]B[/tex] è data da
[tex]\lVert B \rVert = max\{ \lVert Ax \rVert_{\mathbb{C}^n} \, ; \, \lVert x \rVert_{\mathbb{C}^n} = 1 \} = max\{|\lambda| \, ; \, \lambda \in \sigma(B)\}[/tex]
ho che
[tex]\lVert A_k - M \rVert = max |\lambda_k^i - \lambda^i| \rightarrow 0[/tex]
Che ne dite?
[tex]$\lim_{k\rightarrow\infty} \lambda^i_k = \lambda^i$[/tex]
E qua comincia il punto che non mi convince tanto. Mi verrebbe da dire che posso scegliere una qualsiasi sequenza (non dico successione perchè non mi interessano le proprietà all'infinito) di [tex]n[/tex] vettori linearmente indipendenti, chiamiamoli [tex]\{v_k^{i}\}_{i=1,...,n}[/tex] e costruire una successione di matrici usando la decomposizione spettrale, in formule
[tex]$A_k = \sum_{i=1}^n \lambda_k^i P_k^i$[/tex]
dove [tex]P_k^i[/tex] è il proiettore sulla varietà lineare generata da [tex]v_k^i[/tex]. Siccome la norma di una matrice [tex]B[/tex] è data da
[tex]\lVert B \rVert = max\{ \lVert Ax \rVert_{\mathbb{C}^n} \, ; \, \lVert x \rVert_{\mathbb{C}^n} = 1 \} = max\{|\lambda| \, ; \, \lambda \in \sigma(B)\}[/tex]
ho che
[tex]\lVert A_k - M \rVert = max |\lambda_k^i - \lambda^i| \rightarrow 0[/tex]
Che ne dite?
Purtroppo non va bene. Avresti bisogno di usare la decomposizione spettrale anche per la matrice non diagonalizzabile, ma per definizione la decomposizione spettrale è propria delle matrici diagonalizzabili (e in base ortonormale per di più). E' per questo motivo che nell'altro post usai la forma canonica di Shur, che è applicabile a qualsiasi matrice complessa e ti dice:
per ogni matrice complessa $n \times n$ $A$ esistono almeno una matrice unitaria $U$ e almeno una matrice triangolare $T=[[\lambda_1, **, ldots, **], [0, \lambda_2, ldots,**], [,,ddots,],[0,ldots,0,lambda_n]]$ ($\lambda_1 \ldots \lambda_n$ sono gli autovalori di $A$, e possono essercene di ripetuti) tali che
$A=UTU^{-1}$.
Ora supponiamo che $A$ non sia diagonalizzabile. Allora necessariamente $A$ ha almeno un autovalore ripetuto: supponiamo per semplicità che sia $lambda_1=lambda_2$ e che $lambda_2!=lambda_3!=...!=lambda_n$ (il caso generale potrà essere ottenuto raffinando un po' il ragionamento). Consideriamo la successione di matrici
$A_n=U[[\lambda_1+1/n, **, ldots, **], [0, \lambda_2, ldots,**], [,,ddots,],[0,ldots,0,lambda_n]]U^{-1}$
ogni $A_n$ ha tutti autovalori distinti e perciò è diagonalizzabile. Inoltre
$A_n-A=U[[1/n, 0, ldots, 0], [0, 0, ldots, 0], [ldots, ldots, ldots, ldots], [0, 0, ldots, 0]]U^{-1}$
quindi (*)
$||A_n-A||=1/n \to 0$.
Questo è quello che ho fatto nell'altro post, solo che all'epoca mi sono spiegato davvero male.
_________
(*) Sto usando la norma di matrice indotta dalla norma euclidea di $CC^n$, ovvero
$||A||="max"_{||z||_2=1} ||Az||_2$
dove $||z||_2^2=|z_1|^2+...+|z_n|^2$.
per ogni matrice complessa $n \times n$ $A$ esistono almeno una matrice unitaria $U$ e almeno una matrice triangolare $T=[[\lambda_1, **, ldots, **], [0, \lambda_2, ldots,**], [,,ddots,],[0,ldots,0,lambda_n]]$ ($\lambda_1 \ldots \lambda_n$ sono gli autovalori di $A$, e possono essercene di ripetuti) tali che
$A=UTU^{-1}$.
Ora supponiamo che $A$ non sia diagonalizzabile. Allora necessariamente $A$ ha almeno un autovalore ripetuto: supponiamo per semplicità che sia $lambda_1=lambda_2$ e che $lambda_2!=lambda_3!=...!=lambda_n$ (il caso generale potrà essere ottenuto raffinando un po' il ragionamento). Consideriamo la successione di matrici
$A_n=U[[\lambda_1+1/n, **, ldots, **], [0, \lambda_2, ldots,**], [,,ddots,],[0,ldots,0,lambda_n]]U^{-1}$
ogni $A_n$ ha tutti autovalori distinti e perciò è diagonalizzabile. Inoltre
$A_n-A=U[[1/n, 0, ldots, 0], [0, 0, ldots, 0], [ldots, ldots, ldots, ldots], [0, 0, ldots, 0]]U^{-1}$
quindi (*)
$||A_n-A||=1/n \to 0$.
Questo è quello che ho fatto nell'altro post, solo che all'epoca mi sono spiegato davvero male.

_________
(*) Sto usando la norma di matrice indotta dalla norma euclidea di $CC^n$, ovvero
$||A||="max"_{||z||_2=1} ||Az||_2$
dove $||z||_2^2=|z_1|^2+...+|z_n|^2$.
Molto bella...in effetti devo ammettere che dall'altro post non avevo capito....così è chiaro ed elegante.....davvero bella. Poi ignoravo dell'esistenza della decomposizione di Shur che mi sembra molto comoda, una di quelle da tenere sempre a mente. Due cose però. La prima è che non capisco perchè dici che nel mio ragionamento serve la decomposizione spettrale anche per [tex]M[/tex]....a me non sembra, l'unica cosa di cui non sono sicuro è se posso dire che la norma di una matrice non diagonalizzabile sia il massimo modulo degli autovalori....
Sono confuso e non colgo il buco nel mio ragionamento.
Sono confuso e non colgo il buco nel mio ragionamento.
@gugo
Però ho letto che con le matrici invece è diverso. E' il sottoinsieme delle matrici non diagonalizzabili ad avere misura nulla. Mentre per razionali e irrazionali è il contrario...sbaglio?
Però ho letto che con le matrici invece è diverso. E' il sottoinsieme delle matrici non diagonalizzabili ad avere misura nulla. Mentre per razionali e irrazionali è il contrario...sbaglio?
"alle.fabbri":Eccolo, il buco. Questo non è sempre vero. Per esempio prendi $[[0, 1], [0,0]]$. Infatti questo che stai citando è un teorema valido per operatori autoaggiunti:
è se posso dire che la norma di una matrice non diagonalizzabile sia il massimo modulo degli autovalori....
se $A$ è un operatore autoaggiunto e limitato allora norma e raggio spettrale coincidono.
In dimensione finita, questo significa che la norma (euclidea - attenzione, adesso è importante, deve essere una norma di matrice proveniente da una norma di vettore Hilbertiana) di una matrice Hermitiana coincide con il massimo modulo degli autovalori.
So che questo teorema rimane valido se sostituisci "operatore normale" ad "operatore autoaggiunto", ma di sicuro in generale è falso, come mostra l'esempio dell'inizio post.
Ok, capito. Grazie mille.
"alle.fabbri":
@gugo
Però ho letto che con le matrici invece è diverso. E' il sottoinsieme delle matrici non diagonalizzabili ad avere misura nulla. Mentre per razionali e irrazionali è il contrario...sbaglio?
Non so, non mi occupo abitualmente di questioni di misura in spazi strani.
Il post precedente serviva solo per segnalarti che tra densità e misura non c'è un gran rapporto, nel senso che esistono insiemi densi ma aventi misura nulla.