Dimostrazione di una disuguaglianza per teorema hessiana

Giuly191
Mi serve dimostrare che se $H_(nxn)$ è la matrice Hessiana di una funzione di classe $C^2$ ecc. ecc.
vale $m||ul(x)||^2<=(Hul(x),ul(x))<=M||ul(x)||^2$, dove $m$ e $M$ sono rispettivamente il minimo e il massimo autovalore di $H$.
Sul mio libro c'è una dimostrazione veramente brutta e lunga, io ho pensato di farlo così:
la matrice $H$ è simmetrica, quindi per il teorema spettrale so che è rappresentativa di un endomorfismo di $RR^n$ rispetto a una base ortonormale di autovettori per $H$.
Sia questa base la canonica, allora ogni vettore $ul(x) in RR^n$ si scrive come $ul(x)=sum_(i = 1)^(n) a_iul(e_i)$.
Quindi $Aul(x)=sum_(i = 1)^(n) lambda_i a_i ul(e_i)<=Msum_(i = 1)^(n) a_iul(e_i)$ dove $lambda_i$ sono gli autovalori di $H$.
Da cui $||ul(x)||^2M>=(Hul(x),ul(x))$ per la linearità del prodotto scalare rispetto al primo termine.
Lo stesso faccio con $m$. In tutto questo ho sottinteso che tutti gli autovalori siano reali.
Qualcuno sa dirmi se è giusto?

Risposte
dissonance
Va bene, solo è brutto il passaggio
Sia questa base la canonica, allora (...)

E se non è la base canonica, che fai? Devi cambiare coordinate per diagonalizzare la matrice Hessiana. Questo dovresti spiegarlo un po' meglio perché non è proprio ovvio.

Se non vuoi cambiare coordinate puoi anche usare il teorema dei moltiplicatori di Lagrange: trova il massimo ed il minimo della forma quadratica associata alla matrice Hessiana sul vincolo ${x_1^2+...+x_n^2=1}$.

Giuly191
Sì ci ho pensato un po' su quel passaggio, però di fatto a me interessano solo gli autovalori della matrice, la considero rappresentativa di un'applicazione lineare solo perchè mi fa comodo. E il teorema spettrale mi dice che ogni matrice simmetrica reale è rappresentativa di un un autoaggiunto rispetto a una base ortonormale. Fissata la base fisso l'endomorfismo, e lo scelgo in modo che sia più veloce far vedere quello che mi interessa. Non capisco bene perchè siano necessari tutti quei passagi.

dissonance
Guarda, basta fare una cosa molto semplice: enunciare questo risultato a parte, come una proprietà generale delle matrici (o degli endomorfismi di spazi vettoriali euclidei). Qualcosa del genere:

Lemma: Sia $M$ una matrice reale simmetrica $n\times n$. Allora $lambda |x| \le (Mx, x) \le Lambda |x|$ per ogni $x \in RR^n$, dove $lambda, Lambda$ sono rispettivamente il minimo e il massimo degli autovalori di $M$.

dim.: Per il teorema spettrale esiste una matrice ortogonale $P$ e una matrice diagonale $D$ tali che $M=PDP^T$. Poniamo $x=Py$. Allora $(Mx, x)=(Dy, y)$ e con il tuo ragionamento si prova che $lambda|y|\le (Dy,y)\le Lambda|y|$. Siccome $P$ è ortogonale, $|y|=|x|$. Concludiamo che $lambda |x| \le (Mx, x) \le Lambda |x|$. /////

Un discorsetto di questo tipo mette meglio in luce la necessità di una matrice diagonalizzante ortogonale.

Giuly191
In effetti così è più elegante, però sono sempre convinto che non ci sia niente di sbagliato concettualmente nel mio, anche se quella frase in effetti è bruttina.
Grazie dissonance! :)

Ps: però non mi sembra scontato il passaggio da $y$ a $x$, ok che la loro norma è uguale, però ci sono di mezzo le matrici di cambiamento di base.

Paolo902
"Giuly19":

Ps: però non mi sembra scontato il passaggio da $y$ a $x$, ok che la loro norma è uguale, però ci sono di mezzo le matrici di cambiamento di base.


Non capisco che cosa intendi; tieni conto che una trasformazione ortogonale preserva i prodotti scalari e, quindi, anche le norme. :wink:

Rigel1
Per deformazione professionale preferisco la classica dimostrazione basata sul metodo di Rayleigh.
Consideriamo la funzione [tex]f(x) = \frac{\langle Mx, x\rangle}{|x|^2}[/tex], $x\ne 0$.
Essendo continua in $\mathbb{R}^n\setminus\{0\}$, ammette un punto di minimo assoluto in $S^{n-1}$ (analogamente si ragionerà per il massimo), diciamo $x_0$; indichiamo [tex]\lambda = f(x_0) = \langle M x_0, x_0\rangle[/tex].
Poiché $f$ è positivamente $0$-omogenea, tale punto di minimo è in realtà anche un minimo libero in $\mathbb{R}^n\setminus\{0\}$; di conseguenza $Df(x_0)=0$.
Calcolando esplicitamente $Df$, e tenendo conto che $|x_0|=1$, si ottiene la relazione [tex]Mx_0 = \langle Mx_0, x_0\rangle x_0[/tex], vale a dire $Mx_0 = \lambda x_0$.
E' poi immediato verificare che non possono esserci autovalori $\mu < \lambda$.

Giuly191
Quello lo so, però il passaggio che non mi è chiarissimo è questo: io devo dire che $m|x|<=(Ax,x)<=M|x|$, partendo da $m|y|<=(Dy,y)<=M|y|$.
Sapendo che $D=P^TAP$, ottengo $m|Py|<=(P^TAPy,y)<=M|Py|$. Da qua che si fa?
Chiedo perdono per la potenziale domanda stupida, ma non lo vedo!

PS: Rigel quella è esattamente ciò che compare sul mio libro, però è mooolto più lunga! Ci vuole un po' a saperla riassumere così!

dissonance
"Giuly19":
Sapendo che $D=P^TAP$, ottengo $m|Py|<=(P^TAPy,y)<=M|Py|$. Da qua che si fa?

Ci si ricorda che $(P^TAPy, y)=(APy, Py)$. ;-)

Giuly191
Vero, lo sapevo anche cavolo! Grazie!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.