Matrici e segno autovalori

Steven11
Ciao a tutti.
Una domanda banale di sicuro.

Mi trovo ad essere interessato al segno degli autovalori di una matrice: [tex]$AHA$[/tex] e ho diverse ipotesi forti: [tex]$A$[/tex] è simmetrica e definita positiva, [tex]$H$[/tex] è simmetrica. In realtà anche $A^2$ è simmetrica.

L'affermazione è: $AHA$ ha un autovalore positivo $<=>$ anche $H$ lo ha.

Si dovrebbe dedurre dal fatto che
[tex]$(u,AHAu)=(v,Hv)$[/tex] avendo posto $v=Au$
Sicuramente queste ipotesi sono sovrabbondanti, e servono per altre cose in effetti.
Sono sicuro sia una sciocchezza, probabilmente qualche proprietà delle matrici simmetriche che non mi viene in mente.

Ben accetto un input :)

Grazie, buona giornata!

Risposte
dissonance
E si, ti conviene fare un discorso di forme quadratiche. Io userei questo risultato generale:

se [tex]S[/tex] è una matrice simmetrica allora tutti i suoi autovalori sono reali e inoltre

[tex]$\min_{i=1 \ldots n} \lambda_i = \min_{v \ne 0} \frac{(v, Sv)}{(v, v)},\ \max_{i=1 \ldots n} \lambda_i = \max_{v \ne 0} \frac{(v, Sv)}{(v, v)}[/tex]

dove [tex]\lambda_1 \ldots \lambda_n[/tex] sono gli autovalori di [tex]S[/tex].

Steven11
Grazie Giuseppe, in effetti con quelle uguaglianze è abbastanza immediato.

Piuttosto sfogliando vecchi appunti ho visto che le avevo incontrate in Geometria1.
La dimostrazione che mi ritrovo però è un po' "analitica", come disse anche il professore.
Hai sottomano un link dove le dimostrano in modo puramente algebrico?

Ciao, grazie ancora :wink:

dissonance
Di solito quelle uguaglianze si dimostrano con i moltiplicatori di Lagrange, probabilmente è quella la dimostrazione analitica a cui si riferisce il tuo professore. Sennò puoi usare il fatto che se [tex]S[/tex] è simmetrica allora esiste una matrice ortogonale [tex]O[/tex] tale che [tex]O^TSO=D[/tex] dove [tex]D[/tex] è una matrice diagonale. Allora

[tex]$\min_{v \ne 0} \frac{(v, Sv)}{(v, v)}=\min_{v\ne 0}\frac{(Ov, SOv)}{(Ov, Ov)}=\min_{w \ne 0} \frac{(w, Dw)}{(w,w)}[/tex],

quindi ti riconduci al caso di una matrice diagonale. Se

[tex]$D=\begin{bmatrix} \lambda_1 & & \\ & \ddots & \\ &&\lambda_n \end{bmatrix}[/tex]

allora [tex](w, Dw)=\lambda_1w_1^2+\ldots+\lambda_n w_n^2[/tex]; supponendo che [tex]\lambda_k[/tex] sia l'autovalore minimo, abbiamo

[tex]$\lambda_k(w, w)=\lambda_k w_1^2+\ldots \lambda_k w_n^2\le (w, Dw)[/tex]

quindi

[tex]$\lambda_k \le \inf_{w \ne 0} \frac{(w, Dw)}{(w,w)}[/tex];

ma questo inf è in realtà un min ed è uguale a [tex]\lambda_k[/tex], perché è raggiunto per

[tex]$w=(\underbrace{0 \ldots 0, 1}_{k\ \text{posti}}, 0, \ldots, 0)[/tex].

Analogamente si dimostra l'altra.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.