Diagonalizzazione di matrici simmetriche

DajeForte
Salve.
Come prima domanda vi chiederei un buon riferimento testuale per questi argomenti su cui sono carente.

Il problema, di natura concettuale, è il seguente:

Data una matrice simmetrica $A$ essa è diagonalizzabile e possiede una matrice di cambiamento ortonormale $M$.
Innazitutto mi chiedo se questa è una proprietà caratteristica delle matrici simmetriche.

Questa è tale che $M^(-1)=M'$.

Ora se costruiamo un'applicazione da $RR^n$ in $RR^n$ descritta come $y=M'\ x$, questa è un'applicazione biettiva che conserva proprietà di prodotto scalare e distanze. Ma questo vuole dire che se prendo $x_1,x_2$ ed una distanza $d$ allora $d(x_1,x_2)=d(M'\ x_1,M'\ x_2)$?

Consideriamo questa matrice $M=1/sqrt(2)((1,1),(-1,1))$; e di conseguenza $y=1/sqrt(2)((x_1-x_2),(x_1+x_2))$

Ora consideriamo $X={x in RR^2\ :\ ||x||_1=1}$

Ora se considero $Y=M'\ X$ dovrei ottenere che $Y={y in RR^2\ :\ ||y||_(+infty)=1}$ e quindi è come se io avessi ruotato di 45 gradi in senso antiorario l'insieme $X$. Come si dovrebbe relazionare questa struttura con il fatto che $M$ descrive una isometria?

Non so se sono stato molto chiaro, qualsiasi dubbio chiedete ed espliciterò.
Ciao

Risposte
dissonance
Una risposta al volo, come antipasto.
"DajeForte":
Salve.
Come prima domanda vi chiederei un buon riferimento testuale per questi argomenti su cui sono carente.
Algebra lineare di Lang è (IMHO) un buon riferimento, leggibile ma allo stesso tempo completo.

Data una matrice simmetrica $A$ essa è diagonalizzabile e possiede una matrice di cambiamento ortonormale $M$.
Innazitutto mi chiedo se questa è una proprietà caratteristica delle matrici simmetriche.
No. Si può dimostrare, sconfinando in campo complesso, che le matrici diagonalizzabili in base ortonormale sono tutte e sole le matrici normali, ovvero tali da commutare con la propria trasposta coniugata:

[tex]A \in \mathbb{C}^{n\times n}[/tex] è normale [tex]\iff[/tex] [tex]A\overline{A}^T=\overline{A}^TA[/tex].

dissonance
Ah, però mi sto accorgendo solo adesso che tu parli di matrici reali. In questo caso l'essere diagonalizzabile in base ortonormale è condizione necessaria e sufficiente perché la matrice sia simmetrica, come avevi congetturato tu. E' quando si va nel caso complesso che bisogna raffinare un po' il discorso. Scusa per l'inutile complicazione.

dissonance
"DajeForte":
Ora se costruiamo un'applicazione da $RR^n$ in $RR^n$ descritta come $y=M'\ x$, questa è un'applicazione biettiva che conserva proprietà di prodotto scalare e distanze. Ma questo vuole dire che se prendo $x_1,x_2$ ed una distanza $d$ allora $d(x_1,x_2)=d(M'\ x_1,M'\ x_2)$?
Esatto. Rimarcherei che la distanza deve essere quella euclidea ($d(x, y)=\sqrt{\sum_j(y_j-x_j)^2}$), altrimenti la classe delle isometrie (applicazioni che conservano la distanza) cambia e il discorso diventa più complicato. Con la distanza euclidea invece c'è un teorema, non banale, che cito:

Teorema Sia $f: RR^n \to RR^n$. Sono equivalenti:

a) $f$ è una isometria rispetto alla distanza euclidea, ovvero $d(f(x), f(y))=d(x, y)$ per ogni $x, y \in RR^n$;
b) esistono una matrice ortogonale $M$ e un vettore $v$ tali che

$f(x)=Mx+v$ per ogni $x\in RR^n$.

Consideriamo questa matrice $M=1/sqrt(2)((1,1),(-1,1))$; e di conseguenza $y=1/sqrt(2)((x_1-x_2),(x_1+x_2))$

Ora consideriamo $X={x in RR^2\ :\ ||x||_1=1}$

Ora se considero $Y=M'\ X$ dovrei ottenere che $Y={y in RR^2\ :\ ||y||_(+infty)=1}$ e quindi è come se io avessi ruotato di 45 gradi in senso antiorario l'insieme $X$. Come si dovrebbe relazionare questa struttura con il fatto che $M$ descrive una isometria?

Non so se sono stato molto chiaro, qualsiasi dubbio chiedete ed espliciterò.
Ciao
Secondo me pensare a norme diverse ti confonde. Come accennavo prima, cambiando la norma su $RR^n$ cambiano le isometrie e non vale un teorema come quello di prima. Per esempio l'applicazione che hai portato ad esempio tu (rotazione di 45° in senso antiorario) NON è una isometria rispetto alla norma $||*||_infty$: è infatti $f(1, 0)=(\sqrt(2)/2, \sqrt(2)/2)$, dunque

$1=d_infty((1, 0);(0,0))!=d_infty(f(1, 0), f(0, 0))=\sqrt(2)/2$.

Questo discorso di rappresentazione matriciale delle isometrie vale quando la norma origina da un prodotto scalare. Infatti si può generalizzare dallo spazio $RR^n$ al più generale "spazio vettoriale euclideo": uno spazio vettoriale reale di dimensione finita e munito di un prodotto scalare definito positivo.

Inoltre, io controllerei i calcoli: l'applicazione che hai scritto sopra non mi pare sia la corretta rotazione di 45°, così come sono sicuro che ruotando $X$, sfera unitaria rispetto $||*||_infty$, NON si ottiene $Y$, sfera unitaria rispetto $||*||_1$.

DajeForte
Purtroppo ho un problema che mi richiede di lavorare nell'insieme $S$ e non posso farne a meno.

Mi sono rifatto i conti e $Y=M'\ X$ mi produce un quadrato (nel mondo $y$) di vertici $(1/sqrt(2),1/sqrt(2))\ (-1/sqrt(2),1/sqrt(2))\ (-1/sqrt(2),-1/sqrt(2))\ (1/sqrt(2),-1/sqrt(2))$ e quindi gli ${y in RR^2\ :\ ||y||_(+infty)=1/sqrt(2)}$, non so se era questo quello che intendevi.

dissonance
Si adesso mi ritrovo con i conti. Ma cosa ti serve esattamente? Fino adesso ho parlato a ruota libera, spero di non avere detto cose inutili o, peggio, di averti confuso...

DajeForte
No tranquillo non mi hai confuso; anzi grazie del riferimento bibbliografico che ho iniziato a spulciare dall'inizio; sono arrivato al prodotto scalare ed è interessante come lo introduce.

Comunque il mio problema è massimizzare una forma $x'Sigma x$ dove sigma è simmetrica definita positiva sotto un insieme di vincoli; volevo vedere sotto diagonalizzazione come mi si trasformano gli insiemi dei vincoli.
Ti chiedo inoltre si può concludere qualcosa sulla concavità/convesstità della forma quadratica?

dissonance
Per quanto riguarda concavità e convessità delle forme quadratiche il risultato è molto semplice.

Proposizione

Sia [tex]A\in\mathbb{R}^{n\times n}[/tex] una matrice simmetrica e [tex]q(x)=x \cdot Ax[/tex] la corrispondente forma quadratica.
    Se [tex]A[/tex] è
    [*:tx27p5cy]Semidefinita positiva (risp. definita positiva) allora [tex]q[/tex] è una funzione convessa (risp. strettamente convessa);[/*:m:tx27p5cy]
    [*:tx27p5cy]Semidefinita negativa (risp. definita negativa) allora [tex]q[/tex] è una funzione concava (risp. strettamente concava);[/*:m:tx27p5cy]
    [*:tx27p5cy]Non definita allora [tex]q[/tex] non è concava né convessa. [/*:m:tx27p5cy][/list:u:tx27p5cy]
    Questo è proprio l'analogo multidimensionale del classico teorema che collega convessità e segno della derivata seconda. Una giustificazione intuitiva si ha pensando al grafico nel caso [tex]n=2[/tex]:

      [1]
      se [tex]A[/tex] è definita positiva;


      [2]
      se [tex]A[/tex] non è definita.[/list:u:tx27p5cy]
      (se [tex]A[/tex] è definita negativa allora [tex]-A[/tex] è definita positiva; il grafico quindi è un paraboloide come al punto [1] ma con la concavità rivolta verso il basso).

      ______________

      Per quanto riguarda il problema di massimizzare tieni presente che non sono un esperto; comunque se non è di troppo disturbo per te prova a postare le equazioni dei vincoli e vediamo se posso esserti d'aiuto in qualche modo (il che non è garantito affatto).

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.