Sommatoria di norme

bep1
Ciao a tutti!
Mi ritrovo, in un corso a carattere informatico, con un quesito che definirei di algebra lineare e che non saprei da che parte cominciare ad affrontare, visto che la materia non è stata approfondita nel corso e le mie vaghe reminiscenze sono un po' datate ormai.
Allora il problema è il seguente: sia data una matrice $ A \in R^(n *d) $ e si supponga di avere due collezioni di vettori unitari a coppie ortogonali $ {v_1, ...., v_k} $ e $ {w_1, ...., w_k} $ tali che $ span{v_1, ...., v_k}=span{w_1, ...., w_k} $ .
Si mostri che $ \sum_(i=1)^k\norm(Av_i)^2=\sum_(i=1)^k\norm(Aw_i)^2 $ .
Come dicevo, non so da che parte cominciare, quindi spero in un vostro aiuto.
Grazie!

Risposte
j18eos
Non ci sono ipotesi sulla matrice \(\displaystyle A\)? Se no: l'affermazione è falsa!

bep1
j18eos, ti ringrazio per la risposta.
No, il testo non riporta ipotesi sulla matrice; avevi pensato a qualche ipotesi necessaria nello specifico?
Comunque, a questo punto, ho provato a costruire un contro-esempio e la proprietà mi è tornata verificata.
Siano $ A=( ( 1 , 2 ),( 3 , 1 ) ), {v_1,v_2}={ ( ( 1 ),( 0 ) ) ,( ( 0 ),( 1 ) )},{w_1,w_2}={ ( ( 1/\sqrt(2) ),( -1/\sqrt(2) ) ) ,( ( 1/\sqrt(2) ),( 1/\sqrt(2) ) )} $ .
Viene $ \sum_(i=1)^2\norm(Av_i)^2=10+5=15 $ e $ \sum_(i=1)^2\norm(Aw_i)^2 =5/2+25/2=15 $ .
E' un caso particolare?

j18eos
Sì: prova con gli stessi vettori ma con la matrice "tutti \(\displaystyle1\)"...

bep1
"j18eos":
Sì: prova con gli stessi vettori ma con la matrice "tutti \(\displaystyle1\)"...

Grazie, ti chiedo scusa, ma forse mi sto perdendo qualcosa. Anche con la matrice "tutti 1", quindi con $ A=( ( 1 , 1 ),( 1 , 1 ) ), {v_1,v_2}={ ( ( 1 ),( 0 ) ) ,( ( 0 ),( 1 ) )},{w_1,w_2}={ ( ( 1/\sqrt(2) ),( -1/\sqrt(2) ) ) ,( ( 1/\sqrt(2) ),( 1/\sqrt(2) ) )} $ , dovrei avere
$ \sum_(i=1)^2\norm(Av_i)^2=2+2=4=0+4=sum_(i=1)^2\norm(Aw_i)^2 $.
E quindi la proprietà sarebbe verificata. O no?

j18eos
Ho sbagliato matrice: per \(\displaystyle A=\begin{pmatrix}
1 & 2\\
1 & 2
\end{pmatrix}\) non vale l'eguaglianza; ho controllato! :-D

bep1
"j18eos":
Ho sbagliato matrice: per \(\displaystyle A=\begin{pmatrix}
1 & 2\\
1 & 2
\end{pmatrix}\) non vale l'eguaglianza; ho controllato! :-D

Scusa ancora, ma anche così mi torna verificato.
$ ( ( 1 , 2 ),( 1 , 2 ) ) *( ( 1 ),( 0 ) ) =((1),(1)) $
$ ( ( 1 , 2 ),( 1 , 2 ) ) *( ( 0 ),(1 ) ) =((2),(2)) $
$ ( ( 1 , 2 ),( 1 , 2 ) ) *( ( 1/sqrt(2) ),(-1/sqrt(2) ) ) =((-1/sqrt(2)),(-1/sqrt(2))) $
$ ( ( 1 , 2 ),( 1 , 2 ) ) *( ( 1/sqrt(2) ),(1/sqrt(2) ) ) =((3/sqrt(2)),(3/sqrt(2))) $
I quadrati delle norme sono rispettivamente 2 e 8; 1 e 9. E quindi la somma fa 10 in entrambi i casi.
Sto commettendo qualche errore di conto? :oops:

j18eos
I vettori che ti trovi sono corretti;

in ordine, le norme sono \(\displaystyle\sqrt{2},\sqrt{8},1,3\)... errore mio... che c***o!

Ti spiego il mio dubbio: le matrici ortogonali preservano la norma, ma una matrice qualsiasi no!

Ora riprovo daccapo!

Considero la matrice \(\displaystyle A=\begin{pmatrix}
1 & 1\\
0 & 0
\end{pmatrix}\); questa è singolare, per cui (identificata con un endomorfismo lineare \(\displaystyle f\) di \(\displaystyle\mathbb{R}^2\)) ha nucleo non banale!
Con semplici calcoli \(\displaystyle\ker f=\langle(1,-1)\rangle\); e una base ortogonale di \(\displaystyle\mathbb{R}^2\) sarà \(\displaystyle\{(1,1),(1,-1)\}\).
Quindi
\[
\|A\times(1,1)\|^2+\|A\times(1,-1)\|^2=\dotsc=4\\
\|A\times(1,\sqrt{3})\|^2+\|A\times(\sqrt{3},-1)\|^2=\dotsc=8
\]
ove \(\displaystyle\{(1,\sqrt{3}),(\sqrt{3},-1)\}\) è un'altra base ortogonale di \(\displaystyle\mathbb{R}^2\).

Ancòra, considero la matrice \(\displaystyle A=\begin{pmatrix}
1 & 2\\
0 & 0
\end{pmatrix}\); questa è singolare: Una base ortonormale di \(\displaystyle\mathbb{R}^2\) sarà \(\displaystyle\left\{\frac{1}{\sqrt{2}}(1,1),\frac{1}{\sqrt{2}}(1,-1)\right\}\).
Quindi
\[
\left\|A\times\frac{1}{\sqrt{2}}(1,1)\right\|^2+\left\|A\times\frac{1}{\sqrt{2}}(1,-1)\right\|^2=\dotsc=2\\
\|A\times(1,0)\|^2+\|A\times(0,1)\|^2=\dotsc=3
\]
ove \(\displaystyle\{(1,0),(0,1)\}\) è un'altra base ortonormale di \(\displaystyle\mathbb{R}^2\).

Ora ci troviamo?

j18eos
Eh sì, il secondo calcolo non è corretto... :roll:

Sarà uno di quei risultati controintuitivi; se dovessi provare a dimostrarlo, mi vengono in mente solo i calcoli bruti...

Dimostrazione \(1\)-dimensionale: banale.

Dimostrazione \(2\)-dimensionale: la generica base ortonormale di \(\displaystyle\mathbb{R}^2\) è \(\displaystyle\{(\cos\theta,\sin\theta),(-\sin\theta,\cos\theta)\}\); si fanno i calcoli e il gioco è fatto.

Bokonon
Immagino si possa risolvere usando le sommatorie ma francamente non ho voglia di usarle e vorrei provare a fare un discorso geometrico più generale.

Data una base ${v_1,...v_k}$ ortonormale di un sottospazio vettoriale $alpha$ di dimensione $k$ i cui vettori hanno $n$ componenti con $k<=n$, è sempre possibile completarla ottenendo una matrice $V (nxn)$ ortonormale le cui prime k colonne sono la base di $alpha$.
V è una matrice di rotazione, quindi, applicando una o più rotazioni, le prime k colonne sono ancora una base ortonormale di $alpha$. Stesso discorso per $W$, ovvero la matrice le cui prime $k$ colonne sono una base ${w_1,...w_k}$ di $alpha$.
Data una matrice diagonale qualsiasi $Lambda$, il prodotto $R^TLambdaR=M$
Dove $M$ è una matrice simmetrica e non dipende dalla scelta di R (matrice di rotazione), pertanto si può scegliere qualsiasi matrice $R=V$ e $R=W$ e si ha che $V^TLambdaV=W^TLambdaW=M$

$sum_(i=1)^k ||Av_i||=sum_(i=1)^k v_i^TA^TAv_i=sum_(i=1)^k v_i^TSv_i$ dove $A^TA=S$ è una matrice simmetrica semidefinita positiva (generalmente parlando).

Invece di usare le sommatorie, scrivo $V^TSV=V^TQLambdaQ^TV=(Q^TV)^TLambda(Q^TV)=M$
Questo segue dalle considerazione fatte in precedenza.
Quindi è anche vero che $W^TSW=W^TQLambdaQ^TW=(Q^TW)^TLambda(Q^TW)=M$

Concludendo $sum_(i=1)^k ||Av_i||=Tr_k(M)=sum_(i=1)^k ||Aw_i||$
dove con $Tr_k(M)$ intendo la somma dei primi $k$ valori della diagonale di $M$, una sorta di semitraccia insomma.

Vi torna?

Stickelberger
Si tratta di una proprieta' nota della norma di Frobenius.
Si veda https://en.wikipedia.org/wiki/Matrix_norm

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.