Diagonalizzazione di matrici simmetriche
Salve.
Come prima domanda vi chiederei un buon riferimento testuale per questi argomenti su cui sono carente.
Il problema, di natura concettuale, è il seguente:
Data una matrice simmetrica $A$ essa è diagonalizzabile e possiede una matrice di cambiamento ortonormale $M$.
Innazitutto mi chiedo se questa è una proprietà caratteristica delle matrici simmetriche.
Questa è tale che $M^(-1)=M'$.
Ora se costruiamo un'applicazione da $RR^n$ in $RR^n$ descritta come $y=M'\ x$, questa è un'applicazione biettiva che conserva proprietà di prodotto scalare e distanze. Ma questo vuole dire che se prendo $x_1,x_2$ ed una distanza $d$ allora $d(x_1,x_2)=d(M'\ x_1,M'\ x_2)$?
Consideriamo questa matrice $M=1/sqrt(2)((1,1),(-1,1))$; e di conseguenza $y=1/sqrt(2)((x_1-x_2),(x_1+x_2))$
Ora consideriamo $X={x in RR^2\ :\ ||x||_1=1}$
Ora se considero $Y=M'\ X$ dovrei ottenere che $Y={y in RR^2\ :\ ||y||_(+infty)=1}$ e quindi è come se io avessi ruotato di 45 gradi in senso antiorario l'insieme $X$. Come si dovrebbe relazionare questa struttura con il fatto che $M$ descrive una isometria?
Non so se sono stato molto chiaro, qualsiasi dubbio chiedete ed espliciterò.
Ciao
Come prima domanda vi chiederei un buon riferimento testuale per questi argomenti su cui sono carente.
Il problema, di natura concettuale, è il seguente:
Data una matrice simmetrica $A$ essa è diagonalizzabile e possiede una matrice di cambiamento ortonormale $M$.
Innazitutto mi chiedo se questa è una proprietà caratteristica delle matrici simmetriche.
Questa è tale che $M^(-1)=M'$.
Ora se costruiamo un'applicazione da $RR^n$ in $RR^n$ descritta come $y=M'\ x$, questa è un'applicazione biettiva che conserva proprietà di prodotto scalare e distanze. Ma questo vuole dire che se prendo $x_1,x_2$ ed una distanza $d$ allora $d(x_1,x_2)=d(M'\ x_1,M'\ x_2)$?
Consideriamo questa matrice $M=1/sqrt(2)((1,1),(-1,1))$; e di conseguenza $y=1/sqrt(2)((x_1-x_2),(x_1+x_2))$
Ora consideriamo $X={x in RR^2\ :\ ||x||_1=1}$
Ora se considero $Y=M'\ X$ dovrei ottenere che $Y={y in RR^2\ :\ ||y||_(+infty)=1}$ e quindi è come se io avessi ruotato di 45 gradi in senso antiorario l'insieme $X$. Come si dovrebbe relazionare questa struttura con il fatto che $M$ descrive una isometria?
Non so se sono stato molto chiaro, qualsiasi dubbio chiedete ed espliciterò.
Ciao
Risposte
Una risposta al volo, come antipasto.
[tex]A \in \mathbb{C}^{n\times n}[/tex] è normale [tex]\iff[/tex] [tex]A\overline{A}^T=\overline{A}^TA[/tex].
"DajeForte":Algebra lineare di Lang è (IMHO) un buon riferimento, leggibile ma allo stesso tempo completo.
Salve.
Come prima domanda vi chiederei un buon riferimento testuale per questi argomenti su cui sono carente.
Data una matrice simmetrica $A$ essa è diagonalizzabile e possiede una matrice di cambiamento ortonormale $M$.No. Si può dimostrare, sconfinando in campo complesso, che le matrici diagonalizzabili in base ortonormale sono tutte e sole le matrici normali, ovvero tali da commutare con la propria trasposta coniugata:
Innazitutto mi chiedo se questa è una proprietà caratteristica delle matrici simmetriche.
[tex]A \in \mathbb{C}^{n\times n}[/tex] è normale [tex]\iff[/tex] [tex]A\overline{A}^T=\overline{A}^TA[/tex].
Ah, però mi sto accorgendo solo adesso che tu parli di matrici reali. In questo caso l'essere diagonalizzabile in base ortonormale è condizione necessaria e sufficiente perché la matrice sia simmetrica, come avevi congetturato tu. E' quando si va nel caso complesso che bisogna raffinare un po' il discorso. Scusa per l'inutile complicazione.
"DajeForte":Esatto. Rimarcherei che la distanza deve essere quella euclidea ($d(x, y)=\sqrt{\sum_j(y_j-x_j)^2}$), altrimenti la classe delle isometrie (applicazioni che conservano la distanza) cambia e il discorso diventa più complicato. Con la distanza euclidea invece c'è un teorema, non banale, che cito:
Ora se costruiamo un'applicazione da $RR^n$ in $RR^n$ descritta come $y=M'\ x$, questa è un'applicazione biettiva che conserva proprietà di prodotto scalare e distanze. Ma questo vuole dire che se prendo $x_1,x_2$ ed una distanza $d$ allora $d(x_1,x_2)=d(M'\ x_1,M'\ x_2)$?
Teorema Sia $f: RR^n \to RR^n$. Sono equivalenti:
a) $f$ è una isometria rispetto alla distanza euclidea, ovvero $d(f(x), f(y))=d(x, y)$ per ogni $x, y \in RR^n$;
b) esistono una matrice ortogonale $M$ e un vettore $v$ tali che
$f(x)=Mx+v$ per ogni $x\in RR^n$.
Consideriamo questa matrice $M=1/sqrt(2)((1,1),(-1,1))$; e di conseguenza $y=1/sqrt(2)((x_1-x_2),(x_1+x_2))$Secondo me pensare a norme diverse ti confonde. Come accennavo prima, cambiando la norma su $RR^n$ cambiano le isometrie e non vale un teorema come quello di prima. Per esempio l'applicazione che hai portato ad esempio tu (rotazione di 45° in senso antiorario) NON è una isometria rispetto alla norma $||*||_infty$: è infatti $f(1, 0)=(\sqrt(2)/2, \sqrt(2)/2)$, dunque
Ora consideriamo $X={x in RR^2\ :\ ||x||_1=1}$
Ora se considero $Y=M'\ X$ dovrei ottenere che $Y={y in RR^2\ :\ ||y||_(+infty)=1}$ e quindi è come se io avessi ruotato di 45 gradi in senso antiorario l'insieme $X$. Come si dovrebbe relazionare questa struttura con il fatto che $M$ descrive una isometria?
Non so se sono stato molto chiaro, qualsiasi dubbio chiedete ed espliciterò.
Ciao
$1=d_infty((1, 0);(0,0))!=d_infty(f(1, 0), f(0, 0))=\sqrt(2)/2$.
Questo discorso di rappresentazione matriciale delle isometrie vale quando la norma origina da un prodotto scalare. Infatti si può generalizzare dallo spazio $RR^n$ al più generale "spazio vettoriale euclideo": uno spazio vettoriale reale di dimensione finita e munito di un prodotto scalare definito positivo.
Inoltre, io controllerei i calcoli: l'applicazione che hai scritto sopra non mi pare sia la corretta rotazione di 45°, così come sono sicuro che ruotando $X$, sfera unitaria rispetto $||*||_infty$, NON si ottiene $Y$, sfera unitaria rispetto $||*||_1$.
Purtroppo ho un problema che mi richiede di lavorare nell'insieme $S$ e non posso farne a meno.
Mi sono rifatto i conti e $Y=M'\ X$ mi produce un quadrato (nel mondo $y$) di vertici $(1/sqrt(2),1/sqrt(2))\ (-1/sqrt(2),1/sqrt(2))\ (-1/sqrt(2),-1/sqrt(2))\ (1/sqrt(2),-1/sqrt(2))$ e quindi gli ${y in RR^2\ :\ ||y||_(+infty)=1/sqrt(2)}$, non so se era questo quello che intendevi.
Mi sono rifatto i conti e $Y=M'\ X$ mi produce un quadrato (nel mondo $y$) di vertici $(1/sqrt(2),1/sqrt(2))\ (-1/sqrt(2),1/sqrt(2))\ (-1/sqrt(2),-1/sqrt(2))\ (1/sqrt(2),-1/sqrt(2))$ e quindi gli ${y in RR^2\ :\ ||y||_(+infty)=1/sqrt(2)}$, non so se era questo quello che intendevi.
Si adesso mi ritrovo con i conti. Ma cosa ti serve esattamente? Fino adesso ho parlato a ruota libera, spero di non avere detto cose inutili o, peggio, di averti confuso...
No tranquillo non mi hai confuso; anzi grazie del riferimento bibbliografico che ho iniziato a spulciare dall'inizio; sono arrivato al prodotto scalare ed è interessante come lo introduce.
Comunque il mio problema è massimizzare una forma $x'Sigma x$ dove sigma è simmetrica definita positiva sotto un insieme di vincoli; volevo vedere sotto diagonalizzazione come mi si trasformano gli insiemi dei vincoli.
Ti chiedo inoltre si può concludere qualcosa sulla concavità/convesstità della forma quadratica?
Comunque il mio problema è massimizzare una forma $x'Sigma x$ dove sigma è simmetrica definita positiva sotto un insieme di vincoli; volevo vedere sotto diagonalizzazione come mi si trasformano gli insiemi dei vincoli.
Ti chiedo inoltre si può concludere qualcosa sulla concavità/convesstità della forma quadratica?
Per quanto riguarda concavità e convessità delle forme quadratiche il risultato è molto semplice.
Proposizione
Sia [tex]A\in\mathbb{R}^{n\times n}[/tex] una matrice simmetrica e [tex]q(x)=x \cdot Ax[/tex] la corrispondente forma quadratica.
Proposizione
Sia [tex]A\in\mathbb{R}^{n\times n}[/tex] una matrice simmetrica e [tex]q(x)=x \cdot Ax[/tex] la corrispondente forma quadratica.
- Se [tex]A[/tex] è
[*:tx27p5cy]Semidefinita positiva (risp. definita positiva) allora [tex]q[/tex] è una funzione convessa (risp. strettamente convessa);[/*:m:tx27p5cy]
[*:tx27p5cy]Semidefinita negativa (risp. definita negativa) allora [tex]q[/tex] è una funzione concava (risp. strettamente concava);[/*:m:tx27p5cy]
[*:tx27p5cy]Non definita allora [tex]q[/tex] non è concava né convessa. [/*:m:tx27p5cy][/list:u:tx27p5cy]
Questo è proprio l'analogo multidimensionale del classico teorema che collega convessità e segno della derivata seconda. Una giustificazione intuitiva si ha pensando al grafico nel caso [tex]n=2[/tex]:
- [1]

se [tex]A[/tex] è definita positiva;
[2]

se [tex]A[/tex] non è definita.[/list:u:tx27p5cy]
(se [tex]A[/tex] è definita negativa allora [tex]-A[/tex] è definita positiva; il grafico quindi è un paraboloide come al punto [1] ma con la concavità rivolta verso il basso).
______________
Per quanto riguarda il problema di massimizzare tieni presente che non sono un esperto; comunque se non è di troppo disturbo per te prova a postare le equazioni dei vincoli e vediamo se posso esserti d'aiuto in qualche modo (il che non è garantito affatto).