Decomposizione spettrale matrici simmetriche
Sia \(\Sigma_X\) una matrice reale, simmetrica e definita positiva. Considerando per semplicità il caso \(\Sigma_X\in\mathbb{R}^2\), se ho capito bene, tale matrice può essere espressa mediante la fattorizzazione
\[\Sigma_X=V\Lambda V^\text{T}\]
dove \(V:=\begin{bmatrix}v_1 & v_2\end{bmatrix}\) con \(v_1,v_2\) autovettori colonna di \(\Sigma_X\) (ortonormali tra loro) e \(\Lambda:=\text{diag}(\lambda_1, \lambda_2)\) con \(\lambda_1,\lambda_2\) autovalori di \(\Sigma_X\) (positivi).
Più esplicitamente, la precedente fattorizzazione si riesprime in termini di autovettori ed autovalori come
\[\Sigma_X=\lambda_1v_1v_1^\text{T}+\lambda_2v_2v_2^\text{T}\]
Bene, il problema è che non riesco a dimostrare (o comprovare) formalmente che, detto \(\alpha_1\) un semplice scalare,
la forma quadratica \(\alpha_1 v_1^\text{T}\Sigma_X^{-1}\alpha_1 v_1\) è pari a \(\alpha_1^2\lambda_1^{-1}\). Quello a cui arrivo è
\[\begin{split}
\alpha_1 v_1^\text{T}\Sigma_X^{-1}\alpha_1 v_1 &= \alpha_1 v_1^\text{T}(\lambda_1^{-1}v_1v_1^\text{T}+\lambda_2^{-1}v_2v_2^\text{T})\alpha_1 v_1 \\
&=\alpha_1^2 v_1^\text{T}(\lambda_1^{-1}v_1v_1^\text{T}+\lambda_2^{-1}v_2v_2^\text{T})v_1\\
&=\alpha_1^2[\lambda_1^{-1} v_1^\text{T}(v_1 v_1^\text{T})v_1+\lambda_2^{-1} v_1^\text{T}(v_2 v_2^\text{T})v_1]
\end{split}\]
bloccandomi.
\[\Sigma_X=V\Lambda V^\text{T}\]
dove \(V:=\begin{bmatrix}v_1 & v_2\end{bmatrix}\) con \(v_1,v_2\) autovettori colonna di \(\Sigma_X\) (ortonormali tra loro) e \(\Lambda:=\text{diag}(\lambda_1, \lambda_2)\) con \(\lambda_1,\lambda_2\) autovalori di \(\Sigma_X\) (positivi).
Più esplicitamente, la precedente fattorizzazione si riesprime in termini di autovettori ed autovalori come
\[\Sigma_X=\lambda_1v_1v_1^\text{T}+\lambda_2v_2v_2^\text{T}\]
Bene, il problema è che non riesco a dimostrare (o comprovare) formalmente che, detto \(\alpha_1\) un semplice scalare,
la forma quadratica \(\alpha_1 v_1^\text{T}\Sigma_X^{-1}\alpha_1 v_1\) è pari a \(\alpha_1^2\lambda_1^{-1}\). Quello a cui arrivo è
\[\begin{split}
\alpha_1 v_1^\text{T}\Sigma_X^{-1}\alpha_1 v_1 &= \alpha_1 v_1^\text{T}(\lambda_1^{-1}v_1v_1^\text{T}+\lambda_2^{-1}v_2v_2^\text{T})\alpha_1 v_1 \\
&=\alpha_1^2 v_1^\text{T}(\lambda_1^{-1}v_1v_1^\text{T}+\lambda_2^{-1}v_2v_2^\text{T})v_1\\
&=\alpha_1^2[\lambda_1^{-1} v_1^\text{T}(v_1 v_1^\text{T})v_1+\lambda_2^{-1} v_1^\text{T}(v_2 v_2^\text{T})v_1]
\end{split}\]
bloccandomi.
Risposte
Il caso bidimensionale è abbastanza semplice da analizzare in termini espliciti. Siano quindi \(v_1=\begin{bmatrix} a & b\end{bmatrix}^\text{T}\) e \(v_2=\begin{bmatrix} c & d\end{bmatrix}^\text{T}\). Essendo vettori tra loro ortonormali, le loro componenti soddisfano le seguenti relazioni
\[\begin{align*} &a^2+b^2=1 \\ &ac+bd=0\end{align*}\]
Sviluppando i calcoli si trova
\[\begin{align*} &v_1^\text{T}(v_1 v_1^\text{T})v_1=(a^2+b^2)^2\rightarrow v_1^\text{T}(v_1 v_1^\text{T})v_1=1 \\ &v_1^\text{T}(v_2 v_2^\text{T})v_1=(ac+bd)^2\rightarrow v_1^\text{T}(v_2 v_2^\text{T})v_1=0\end{align*}\]
e conseguentemente
\[\begin{split}
\alpha_1 v_1^\text{T}\Sigma_X^{-1}\alpha_1 v_1 &=\alpha_1^2[\lambda_1^{-1} v_1^\text{T}(v_1 v_1^\text{T})v_1+\lambda_2^{-1} v_1^\text{T}(v_2 v_2^\text{T})v_1] \\
&=\alpha_1^2\lambda_1^{-1}
\end{split}\]
tuttavia non sono ancora riuscito a generalizzare il risultato.
\[\begin{align*} &a^2+b^2=1 \\ &ac+bd=0\end{align*}\]
Sviluppando i calcoli si trova
\[\begin{align*} &v_1^\text{T}(v_1 v_1^\text{T})v_1=(a^2+b^2)^2\rightarrow v_1^\text{T}(v_1 v_1^\text{T})v_1=1 \\ &v_1^\text{T}(v_2 v_2^\text{T})v_1=(ac+bd)^2\rightarrow v_1^\text{T}(v_2 v_2^\text{T})v_1=0\end{align*}\]
e conseguentemente
\[\begin{split}
\alpha_1 v_1^\text{T}\Sigma_X^{-1}\alpha_1 v_1 &=\alpha_1^2[\lambda_1^{-1} v_1^\text{T}(v_1 v_1^\text{T})v_1+\lambda_2^{-1} v_1^\text{T}(v_2 v_2^\text{T})v_1] \\
&=\alpha_1^2\lambda_1^{-1}
\end{split}\]
tuttavia non sono ancora riuscito a generalizzare il risultato.