Matrici e segno autovalori
Ciao a tutti.
Una domanda banale di sicuro.
Mi trovo ad essere interessato al segno degli autovalori di una matrice: [tex]$AHA$[/tex] e ho diverse ipotesi forti: [tex]$A$[/tex] è simmetrica e definita positiva, [tex]$H$[/tex] è simmetrica. In realtà anche $A^2$ è simmetrica.
L'affermazione è: $AHA$ ha un autovalore positivo $<=>$ anche $H$ lo ha.
Si dovrebbe dedurre dal fatto che
[tex]$(u,AHAu)=(v,Hv)$[/tex] avendo posto $v=Au$
Sicuramente queste ipotesi sono sovrabbondanti, e servono per altre cose in effetti.
Sono sicuro sia una sciocchezza, probabilmente qualche proprietà delle matrici simmetriche che non mi viene in mente.
Ben accetto un input
Grazie, buona giornata!
Una domanda banale di sicuro.
Mi trovo ad essere interessato al segno degli autovalori di una matrice: [tex]$AHA$[/tex] e ho diverse ipotesi forti: [tex]$A$[/tex] è simmetrica e definita positiva, [tex]$H$[/tex] è simmetrica. In realtà anche $A^2$ è simmetrica.
L'affermazione è: $AHA$ ha un autovalore positivo $<=>$ anche $H$ lo ha.
Si dovrebbe dedurre dal fatto che
[tex]$(u,AHAu)=(v,Hv)$[/tex] avendo posto $v=Au$
Sicuramente queste ipotesi sono sovrabbondanti, e servono per altre cose in effetti.
Sono sicuro sia una sciocchezza, probabilmente qualche proprietà delle matrici simmetriche che non mi viene in mente.
Ben accetto un input

Grazie, buona giornata!
Risposte
E si, ti conviene fare un discorso di forme quadratiche. Io userei questo risultato generale:
se [tex]S[/tex] è una matrice simmetrica allora tutti i suoi autovalori sono reali e inoltre
[tex]$\min_{i=1 \ldots n} \lambda_i = \min_{v \ne 0} \frac{(v, Sv)}{(v, v)},\ \max_{i=1 \ldots n} \lambda_i = \max_{v \ne 0} \frac{(v, Sv)}{(v, v)}[/tex]
dove [tex]\lambda_1 \ldots \lambda_n[/tex] sono gli autovalori di [tex]S[/tex].
se [tex]S[/tex] è una matrice simmetrica allora tutti i suoi autovalori sono reali e inoltre
[tex]$\min_{i=1 \ldots n} \lambda_i = \min_{v \ne 0} \frac{(v, Sv)}{(v, v)},\ \max_{i=1 \ldots n} \lambda_i = \max_{v \ne 0} \frac{(v, Sv)}{(v, v)}[/tex]
dove [tex]\lambda_1 \ldots \lambda_n[/tex] sono gli autovalori di [tex]S[/tex].
Grazie Giuseppe, in effetti con quelle uguaglianze è abbastanza immediato.
Piuttosto sfogliando vecchi appunti ho visto che le avevo incontrate in Geometria1.
La dimostrazione che mi ritrovo però è un po' "analitica", come disse anche il professore.
Hai sottomano un link dove le dimostrano in modo puramente algebrico?
Ciao, grazie ancora
Piuttosto sfogliando vecchi appunti ho visto che le avevo incontrate in Geometria1.
La dimostrazione che mi ritrovo però è un po' "analitica", come disse anche il professore.
Hai sottomano un link dove le dimostrano in modo puramente algebrico?
Ciao, grazie ancora

Di solito quelle uguaglianze si dimostrano con i moltiplicatori di Lagrange, probabilmente è quella la dimostrazione analitica a cui si riferisce il tuo professore. Sennò puoi usare il fatto che se [tex]S[/tex] è simmetrica allora esiste una matrice ortogonale [tex]O[/tex] tale che [tex]O^TSO=D[/tex] dove [tex]D[/tex] è una matrice diagonale. Allora
[tex]$\min_{v \ne 0} \frac{(v, Sv)}{(v, v)}=\min_{v\ne 0}\frac{(Ov, SOv)}{(Ov, Ov)}=\min_{w \ne 0} \frac{(w, Dw)}{(w,w)}[/tex],
quindi ti riconduci al caso di una matrice diagonale. Se
[tex]$D=\begin{bmatrix} \lambda_1 & & \\ & \ddots & \\ &&\lambda_n \end{bmatrix}[/tex]
allora [tex](w, Dw)=\lambda_1w_1^2+\ldots+\lambda_n w_n^2[/tex]; supponendo che [tex]\lambda_k[/tex] sia l'autovalore minimo, abbiamo
[tex]$\lambda_k(w, w)=\lambda_k w_1^2+\ldots \lambda_k w_n^2\le (w, Dw)[/tex]
quindi
[tex]$\lambda_k \le \inf_{w \ne 0} \frac{(w, Dw)}{(w,w)}[/tex];
ma questo inf è in realtà un min ed è uguale a [tex]\lambda_k[/tex], perché è raggiunto per
[tex]$w=(\underbrace{0 \ldots 0, 1}_{k\ \text{posti}}, 0, \ldots, 0)[/tex].
Analogamente si dimostra l'altra.
[tex]$\min_{v \ne 0} \frac{(v, Sv)}{(v, v)}=\min_{v\ne 0}\frac{(Ov, SOv)}{(Ov, Ov)}=\min_{w \ne 0} \frac{(w, Dw)}{(w,w)}[/tex],
quindi ti riconduci al caso di una matrice diagonale. Se
[tex]$D=\begin{bmatrix} \lambda_1 & & \\ & \ddots & \\ &&\lambda_n \end{bmatrix}[/tex]
allora [tex](w, Dw)=\lambda_1w_1^2+\ldots+\lambda_n w_n^2[/tex]; supponendo che [tex]\lambda_k[/tex] sia l'autovalore minimo, abbiamo
[tex]$\lambda_k(w, w)=\lambda_k w_1^2+\ldots \lambda_k w_n^2\le (w, Dw)[/tex]
quindi
[tex]$\lambda_k \le \inf_{w \ne 0} \frac{(w, Dw)}{(w,w)}[/tex];
ma questo inf è in realtà un min ed è uguale a [tex]\lambda_k[/tex], perché è raggiunto per
[tex]$w=(\underbrace{0 \ldots 0, 1}_{k\ \text{posti}}, 0, \ldots, 0)[/tex].
Analogamente si dimostra l'altra.