Massimizzazione forma quadratica

DavideGenova1
Ciao, amici!
Data una matrice di ordine $n$ simmetrica il mio libro dimostra che la forma quadratica corrispondente \(f(\vec x) = A \vec x · \vec x\) ha $n$ autovalori (non credo necessariamente distinti) corrispondenti ad $n$ autovettori $\vec v_i$ mutualmente ortogonali che sono soluzioni dei problemi di minimo vincolato
\(\lambda_1= \text{min} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(\lambda_1= \text{min} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(...\)
\(\lambda_n= \text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1 =0,..., \vec x · \vec v_{n-1}=0\} .\)
La dimostrazione, che per brevità per il momento ometto, utilizza il metodo dei moltiplicatori di Lagrange per l'ottimizzazione vincolata con vincoli \(\vec g(\vec x)= (||\vec x||^2, \vec x·\vec v_1,...,\vec x · \vec v_{n-1} )=(1,0,...,0) \).
Non noto alcuna differenza con il caso della massimizzazione. Quindi la proposizione "data una matrice di ordine $n$ simmetrica, la forma quadratica corrispondente \(f(\vec x) = A \vec x · \vec x\) ha $n$ autovalori (non necessariamente distinti) corrispondenti ad $n$ autovettori $\vec v_i$ mutualmente ortogonali che sono soluzioni dei problemi di massimo vincolato
\(\lambda_1= \text{max} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(\lambda_1= \text{max} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(...\)
\(\lambda_n= \text{max} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1 =0,..., \vec x · \vec v_{n-1}=0\} \)" è ugualmente vera?
Grazie di cuore a tutti!

Risposte
Sk_Anonymous
Prima, ti consiglio di studiare il caso in cui tu abbia $[n]$ autovalori distinti e diversi da zero. Il problema dovrebbe essere questo:

$[f(x_1,x_2,...,x_(n-1),x_n)=lambda_1x_1^2+lambda_2x_2^2+...+lambda_(n-1)x_(n-1)^2+lambda_nx_n^2] ^^ [||x||^2=1]$

e questo il sistema:

$\{(2lambda_1x_1=2Ax_1),(2lambda_2x_2=2Ax_2),(...),(2lambda_(n-1)x_(n-1)=2Ax_(n-1)),(2lambda_nx_n=2Ax_n),(||x||^2=1):}$

a patto di aver ruotato il sistema di riferimento. Per soddisfare il vincolo, appena si sceglie un $[x_i!=0]$, tutti gli altri devono essere nulli. Si ottengono le seguenti soluzioni:

$[f(+-1,0,...,0,0)=lambda_1] vv [f(0,+-1,...,0,0)=lambda_2] vv [f(0,0,...,+-1,0)=lambda_(n-1)] vv [f(0,0,...,0,+-1)=lambda_n]$

Quindi, si ha un minimo assoluto uguale a $[lambda_(min)]$ in corrispondenza dei due autovettori corrispondenti di norma unitaria, un massimo assoluto uguale a $[lambda_(max)]$ in corrispondenza degli altri due autovettori corrispondenti di norma unitaria. Tutte le altre soluzioni si possono considerare "punti di sella", visto che in un loro intorno la funzione può assumere contemporaneamente valori maggiori e minori dell'autovalore $[lambda_(min)

DavideGenova1
Grazie di cuore, Speculor!!! Offri sempre spunti e idee estremamente interessanti! Perdona la mia ignoranza: non capisco perché gli altri autovalori corrispondono a punti di sella e non di estremo...
Mi sembrerebbe di capire che hai utilizzato il teorema del moltiplicatori di Lagrange -come fa il mio testo- applicandolo alla quadratica con matrice diagonalizzata*. Il mio testo -cito letteralmente- intende dimostrare "che la forma quadratica corrispondente [alla matrice simmetrica $A$] $f(\vec x)=A\vec x · \vec x$ ha $n$ autovalori reali $\lambda_i$ corrispondenti ad $n$ autovettori mutuamente ortogonali e che sono soluzioni dei problemi di minimo vincolato
\(\lambda_1= \text{min} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(\lambda_2= \text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1=0 \} \)
\(...\)
\(\lambda_n= \text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1 =0,..., \vec x · \vec v_{n-1}=0\}\)."
Il primo problema è risolto dal mio libro osservando che se $\vec v_1$ è un minimo (che esiste per il teorema di Weierstrass) deve soddisfare l'equazione agli autovalori \(\nabla f(\vec x)=\lambda_1 \nabla g_0\) dove il vincolo (l'unico per il primo problema) è $g_0(\vec x)= ||\vec x||^2=1$, che, dato che \(\nabla f(\vec x)=2A\vec x\) e \(\nabla g_0(\vec x)=2\vec x\), equivale a $2A\vec v_1= 2\lambda_1 \vec v_1$, da cui si ottiene, dividendo per 2 e moltiplicando scalarmente i due membri dell'uguaglianza, $A\vec v_1*\vec v_1=f(\vec v_1)=\lambda_1$: quindi il minimo corrisponde ad uno degli autovalori. Direi quindi che lo stesso si possa dire del massimo -come direi proprio che mi confermi-: quindi -mi pare che -correggetemi se dico stupidaggini-, tra tutti gli autovalori di $A$, il più piccolo (o il più grande) di essi (che non possono essere più di $n$ distinti, come so dall'algebra) sarà il valore minimo (rispettivamente massimo) assunto dalla funzione sulla sfera unitaria in corrispondenza del punto di minimo (rispettivamente massimo), che sarà quindi l'autovettore corrispondente. Mi sembra che tu abbia usato lo stesso procedimento, con la matrice diagonale, da cui si vede che la traccia della matrice è composta proprio dagli autovalori corrispondenti aii versori della base standard, che hai preso in considerazione.
Continuando con il procedimento del libro, aggiungendo un primo vincolo di ortogonalità \(g_1(\vec x)=\vec x·\vec v_1=0\) al primo punto di minimo trovato $\vec v_1$, il mio testo cerca quindi \(\text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1=0 \} \) -la cui esistenza è assicurata dal teorema di Weierstrass, di nuovo, grazie alla compattezza del vincolo in $RR^n$-, cosa che il mio libro fa ancora una volta con i moltiplicatori di Lagrange (si noti che $\nabla g_0(\vec v_2)=2\vec v_2$ e $\nabla g_1=\vec v_1$ sono linearmente indipendenti, come richiesto dal teorema dei moltiplicatori di Lagrange, perché ortogonali):
\( 2 A\vec v_2=\nabla f(\vec v_2)=\lambda_2 \nabla g_0(\vec v_2)+\mu_1 \nabla g_1(\vec v_2) = 2\lambda_2 \vec v_2+\mu_1 \vec v_1\) da cui, moltiplicando scalarmente per \(\frac{1}{2}\vec v_1\):
$A\vec v_2·\vec v_1=\lambda_2 \vec v_2·\vec v_1 + \frac{\mu_1}{2} \vec v_1·\vec v_1=\frac{\mu_1}{2}$.
Essendo $A$ simmetrica e $\vec v_1$ un autovettore si ha che
$A\vec v_2·\vec v_1=A\vec v_1·\vec v_2=\lambda_1 \vec v_1·\vec v_2=0 => \mu_1=0$.
Quindi il libro conclude che $f(\vec v_2)= A \vec v_2·\vec v_2=\lambda_2 \vec v_2·\vec v_2=\lambda_2$ è un altro autovalore corrispondente ad un altro minimo sulla sfera unitaria ed io concluderei anche che lo stesso ragionamento si possa percorrere per trovare anche un (secondo) massimo: giusto?
Procedendo ricorsivamente con il vincolo \(\vec g(\vec x)= (g_0(\vec x),g_1(\vec x),...,g_i (\vec x))= (||\vec x||^2, \vec x·\vec v_1,...,\vec x · \vec v_i )=(1,0,...,0) \) fino ad arrivare a $i=n-1$ (oltre direi che non ce lo consentano le premesse del teorema dei moltiplicatori di Lagrange per cui il vincolo leggo che deve essere di tipo $\vec g:A sub RR^(n+m) -> RR^m$, dove direi che possa essere $n>=0$, come sembra confermare questo esempio del libro in cui l'ultimo problema è risolto con il vincolo \(\vec g (\vec x)\) dove $\vec x \in RR^n$ e $\vec g:RR^n->RR^n$ ($n$ variabili e $n$ vincoli), anche $n=0$, o mi sbaglio? la dimostrazione riportata dal mio libro non sembra implicare che $n$ debba essere diverso da 0...) li mio testo trova, ragionando come sopra con il metodo dei moltiplicatori, l'equazione agli autovalori (i vari $\mu_i$ si intendono come nuove incognite della lagrangiana ogni volta che si reitera il procedimento con i vincoli $g_0,...,g_i$)
$2A\vec v_{i+1}=2\lambda_{i+1} \vec v_{i+1}+ \mu_1 \vec v_1 +...+ \mu_i \vec v_i$ da cui si vede, dividendo per 2 e moltiplicando successivamente per $\vec v_1,...,\vec v_i$, che i $\mu_1,...,\mu_i$ sono nulli e, moltiplicando infine per $\vec v_{i+1}$, si trova che $f(\vec v_{i+1})=\lambda_{i+1}$. Anche qui direi che lo stesso discorso valga per il massimo (o sbaglio?) e quindi che si possa anche dire (il mio libro non lo specifica, ma per quello che ho commentato non vedo perché non possa valere...) che la forma quadratica, corrispondente alla matrice simmetrica $A$, $f(\vec x)=A\vec x · \vec x$ ha anche $n$ autovalori reali $\lambda_i$ (che non saranno in generale tutti distinti, altrimenti si avrebbe una sovrapposizione con quelli dei minimi, che è possibile solo se su un intorno la funzione è costante) corrispondenti ad $n$ autovettori mutuamente ortogonali e che sono soluzioni dei problemi di massimo vincolato (faccio partire gli indici da $n+1$ per non confonderli con gli autovalori corrispondenti ai minimi):
\(\lambda_{n+1}= \text{max} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(\lambda_{n+2}= \text{max} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_{n+1}=0 \} \)
\(...\)
\(\lambda_{2n}= \text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_{n+1} =0,..., \vec x · \vec v_{2n-1}=0\}\).
Che cosa ne pare a te, Speculor, e agli altri lettori del post?
$+oo$ grazie!!!!!!



*Interessantissimo spunto per me l'utilizzo della diagonalizzata: mi pare che, data la proprietà della norma di Frobenius \(||M\vec v|| \leq ||M||||\vec v||\) se $\vec x=Q \vec y$ è il vettore associato alla quadratica diagonalizzata mediante una trasformazione ortogonale (per cui la trasposta è $^t Q=Q^-1$ identica all'inversa), allora si ha che \( ||\vec y -\vec y_0|| = ||{}^tQ (\vec x -\vec x_0)|| \leq ||{}^tQ|| ||\vec x -\vec x_0)||=||\vec x -\vec x_0||\) e \( ||\vec x -\vec x_0|| = ||Q (\vec y -\vec y_0)|| \leq ||Q|| ||\vec y -\vec y_0)||=||\vec y -\vec y_0||\) per cui le due distanze coincidono e con essi i raggi degli intorni in cui si osservano i minimi e i massimi, per cui ad un minimo (o massimo) locale in $\vec x_0$ di $^t\vec x D \vec x$ con $D=QAQ^-1$ diagonale corrisponde un minimo (rispettivamente massimo) locale della quadratica con matrice non diagonalizzata $^t\vec y A \vec y$ con $\vec y =^t Q \vec x$.

Sk_Anonymous
Anche questa volta, avendo letto superficialmente il tuo primo messaggio, non avevo capito che lo scopo fosse quello di dimostrare l'esistenza di $[n]$ autovalori relativi ad autospazi mutuamente ortogonali. A mia parziale discolpa, riporto questo stralcio:

"DavideGenova":

...che sono soluzioni dei problemi di minimo vincolato
\(\lambda_1= \text{min} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(\lambda_1= \text{min} \{ f(\vec x) : ||\vec x||^2=1 \} \)
\(...\)
\(\lambda_n= \text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1 =0,..., \vec x · \vec v_{n-1}=0\} .\)
La dimostrazione, che per brevità per il momento ometto...

Evidentemente c'è un errore, le prime due righe sono uguali. Dopo, purtroppo, si tende ad interpretare e a semplificare. Anche perchè non ricordo di aver fatto una dimostrazione del genere, sono abbastanza sicuro che si possa procedere anche per un'altra via, ma potrei sbagliarmi. In ogni modo, secondo il procedimento che hai delineato, si può parlare sempre di minimi o di massimi in quanto, introducendo sempre un nuovo vincolo, si impediscono gli spostamenti che, senza la loro introduzione, porterebbero ad avere anche dei punti di sella. Voglio dire, io ho considerato solo il vincolo $[||x||^2=1]$ e la forma quadratica in forma diagonale, quindi supponendo già l'esistenza di una matrice ortogonale che renda il servizio. Lo scopo del mio procedimento era, semplicemente, di dimostrare che $[lambda_(max)]$ fosse il massimo, $[lambda_(min)]$ fosse il minimo. Nel corso dell'analisi, ho osservato che tutti gli altri autovalori corrispondono ad autovettori che sono punti di sella, sempre considerando il solo vincolo $[||x||^2=1]$. Per esempio, facendo un caso particolare per non appesantire le formule:

$[f(x_1,x_2,x_3)=lambda_(max)x_1^2+lambda_(2)x_2^2+lambda_(min)x_3^2]$

$[f(Delta_1,1+Delta_2,0)=lambda_(max)Delta_1^2+lambda_(2)(1-Delta_1^2)] rarr [f(Delta_1,1+Delta_2,0)=lambda_2+(lambda_(max)-lambda_(2))Delta_1^2] rarr$

$rarr [f(Delta_1,1+Delta_2,0)>=lambda_2]$

$[f(0,1+Delta_2,Delta_3)=lambda_(2)(1-Delta_3^2)+lambda_(min)Delta_3^2] rarr [f(0,1+Delta_2,Delta_3)=lambda_2+(lambda_(min)-lambda_(2))Delta_3^2] rarr$

$rarr [f(0,1+Delta_2,Delta_3)<=lambda_2]$

In definitiva, utilizzando la brillante idea delle successive restrizioni, la dimostrazione proposta dal testo è sicuramente impeccabile. Per farla breve, nel primo caso scorre gli autovalori mediante una sequenza di valori crescenti, nel secondo mediante una sequenza di valori decrescenti. Ovviamente, i due procedimenti sono equivalenti. Se mi sfugge ancora qualcosa, ti prego di farmelo notare. A questo punto mi chiedo e ti chiedo: visto che mi sembra tu abbia compreso il procedimento del tuo manuale, finalmente ne ho colto il significato, per quale motivo apri delle discussioni così pesanti da leggere? Solo per avere una conferma?

Quinzio
"DavideGenova":

Quindi il libro conclude che $f(\vec v_2)= A \vec v_2·\vec v_2=\lambda_2 \vec v_2·\vec v_2=\lambda_2$ è un altro autovalore corrispondente ad un altro minimo sulla sfera unitaria ed io concluderei anche che lo stesso ragionamento si possa percorrere per trovare anche un (secondo) massimo: giusto?


Innanzitutto complimenti per questo 3d che va oltre il solito esercizio....
Non sono così sicuro che tu abbia chiaro al 100% quello che dicono nel tuo libro, a causa della frase del tuo post che ho riportato. Spero di agiungere qualcosa di utile.
Innanzitutto sottolineo quanto detto da speculor, cioè quella forma quadratica a $n$ autovalori distinti, , valutata sulla iper-sfera di raggio 1, ha due soli massimi relativi e due soli minimi relativi. Che diventano quindi anche i massimi /minimi assoluti.
Perchè due ? Perche se un vettore $\vec v = (x_1, x_2,..., x_n)$ mi da un certo valore, anche $-\vecv$ mi da lo stesso valore.
E' una forma quadratica, ogni termine compare al 2° grado, questo è il motivo, ok ?
Quindi, se ad esempio per semplificare, consideriamo solo i vettori "positivi", cioè dove $x_1>=0,\ x_2 >=0, ... $ abbiamo un massimo e un minimo, sia relativi che assoluti.
Ora quando il tuo libro scrive
\(\lambda_2= \text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1=0 \} \)
significa che hanno assegnato un valore arbitrario alla coordinata $x_1=k_1$ relativa all'autovalore minimo, e quindi "ci si sposta" solo ortogonalmente al suo autovettore.
Difatto però siamo in un sottospazio dello spazio originale $RR^n$, cioè siamo in un $RR^(n-1)$.
Quindi questo sottospazio, avrà i suoi autovalori/autovettori (che sono quelli di prima tranne quello "eliminato") e il procedimento si può ripetere, trovando un altra coppia minimo/massimo. Il massimo è quello dello spazio vettoriale originale $RR^n$, il minimo sarà "nuovo", avendo eliminato quello precedente.

Sk_Anonymous
Ciao Quinzio. Hai fatto bene a riportare queste parole di Davide: "...è un altro autovalore corrispondente ad un altro minimo sulla sfera unitaria...". Certo, interpretate alla lettera, come è giusto che sia, palesano un'evidente incomprensione. Di fatto, il nocciolo della dimostrazione. Tuttavia, ho pensato che Davide intendesse comunque considerare le successive restrizioni. Il problema di questi messaggi è che difficilmente si comprende quali siano le omissioni volute per abbreviarli, quali quelle che celano eventuali errori di comprensione. La discussione è sicuramente interessante, l'idea utilizzata nel corso della dimostrazione brillante. Se posso dare un consiglio a Davide, quando decidi di scrivere messaggi così pesanti nel loro rigore, sarebbe meglio non commettere almeno quelle palesi sviste che ho evidenziato nel mio messaggio precedente. Altrimenti, chi legge può pensare che anche altre deduzioni riportate non correttamente possano ricadere tra queste. Insomma, anche se è faticoso, bisognerebbe evitare le sviste evidenti. In questo modo, chi legge è portato a criticare con maggiore puntiglio gli eventuali pochi passaggi che potrebbero celare errori di comprensione.

DavideGenova1
Grazie di cuore a tutti e due, ragazzi!!!
Non ti devi affatto "discolpare", Speculor, apprezzo immensamente in ogni caso una risposta e specialmente quando è ricca di idee interessanti come la tua e copiando e incollando ripetutamente la prima riga non l'avevo modificata #-o per indicare il secondo problema di minimo, perdendo l'idea delle restrizioni imposte di volta in volta dai vincoli successivi. Me ne scuso tanto, come mi scuso per l'eccessiva stringatezza iniziale. Ti ringrazio $oo$-mente in particolare (nel senso che questa espressione ha nel linguaggio della matematica) per la dimostrazione che un autovettore può corrispondere ad un punto di sella.
Per quanto riguarda la frase che cita Quinzio, che ringrazio ancora $oo$-mente: non avevo capito: se considero un insieme con un vincolo in più (quello di ortogonalità al precedente autovettore trovato), non è detto che un estremo locale in quell'insieme sia un estremo locale anche nell'insieme senza quel vincolo, così come un minimo locale di una traccia di una $f:RR^3->RR$ può essere benissimo una sella!
Credevo di aver capito la dimostrazione del libro e credo adesso di averlo fatto veramente grazie a voi (ora mi rendo conto che gli estremi locali con i vincoli successivi non sono affatto necessariamente estremi locali sull'ipersfera unitaria), ma, sì, ho postato per chiedere se valga anche per i massimi quanto dice il mio libro parlando solo ed esclusivamente del caso particolare dei minimi -è questo che mi ha suscitato qualche perplessità nel leggere la dimostrazione del libro-, cosa che vedo che mi confermate (non vedo male, giusto?). Inoltre vorrei chiedere -mi è sorto il dubbio rileggendo la dimostrazione di questo esempio, perché prima credevo che dovesse essere $\vec g:A \sub RR^(n+m)->RR^n$ con $m>=1$- se il vincolo oggetto del teorema dei moltiplicatori di Lagrange, che il mio libro dice che si intende di tipo $\vec g:A sub RR^(n+m) -> RR^n$, possa valere anche con $m=0$, come sembra confermare questo esempio dove si arriva ad avere l'ultima $\lambda_n$ con $\vec g: RR^n->RR^n$: $n$ variabili e $n$ vincoli: vale in generale anche con $\vec g:RR^n->RR^n$ (cioè $m=0$), no?
$+oo$ grazie ancora a tutti e due!!!

P.S.: Visto che siamo in tema, mi permetto di approfittare della vostra bontà e del vostro interesse all'argomento per chiedervi se, quando una matrice ha $n$ autovalori, devono essere rappresentati tutti sulla traccia della diagonalizzata... Ho aperto un post qui sull'argomento. Se non aveste tempo o voglia, siete già stati grandissimi a rispondermi qua! $\aleph_0$ grazie!!!

Sk_Anonymous
"DavideGenova":

Inoltre vorrei chiedere -mi è sorto il dubbio rileggendo la dimostrazione di questo esempio, perché prima credevo che dovesse essere $\vec g:A \sub RR^(n+m)->RR^n$ con $m>=1$- se il vincolo oggetto del teorema dei moltiplicatori di Lagrange, che il mio libro dice che si intende di tipo $\vec g:A sub RR^(n+m) -> RR^n$, possa valere anche con $m=0$, come sembra confermare questo esempio dove si arriva ad avere l'ultima $\lambda_n$ con $\vec g: RR^n->RR^n$: $n$ variabili e $n$ vincoli: vale in generale anche con $\vec g:RR^n->RR^n$ (cioè $m=0$), no?

Non ci crederai ma, proprio considerando l'ultimo problema di estremo vincolato, quello con $[n]$ vincoli per intenderci, mi sembrava potessero sussistere problemi di interpretazione. Anche per questo, sono partito per la tangente. Tuttavia, alla luce degli ultimi sviluppi, non mi pare sussistano problemi di coerenza anche in questo caso estremo. Voglio dire, è vero che la funzione viene valutata in soli due punti isolati, in effetti, parlare di ricerca di estremo vincolato in questo caso mi sembra piuttosto insolito, ma se le ipotesi del teorema non evidenziano contraddizioni di sorta, il passaggio finale deve essere rigorosamente accettato.

DavideGenova1
Ho riletto la dimostrazione che fa il mio libro del metodo dei moltiplicatori lagrangiani, utilizzando il teorema di Dini (per sistemi), che non credo proprio valga se la funzione \(\vec G (\vec x,\vec y),\) $\vec G:A \subset RR^{n+m}->RR^n$ che definisce implicitamente \(\vec \varphi(\vec x)= \vec y, \vec \varphi: \mathbb{R}^m \rightarrow \mathbb{R}^n\), dove \(\vec x \in \mathbb{R}^m, \vec y \in \mathbb{R}^n\), è con $m=0$ e non c'è quindi alcuna variabile indipendente da cui far dipendere $\vec y$ -giusto od ho le travegole?-, quindi direi proprio che, se non il teorema dei moltiplicatori di Lagrange, almeno la dimostrazione che ne dà il mio libro (che utilizza la funzione \(\vec G=\vec g - \vec k=\vec 0\)) di questo teorema non valga per \(\vec g: A \subset \mathbb{R}^n \rightarrow \mathbb{R}^n \)...

Quinzio
Davide, su.... è chiaro che non ha senso per $m=0$.

Immagina una sfera in $RR^3$ e metti 3 vincoli, ad esempio $x=1/2, y=1/4, z=\sqrt((11))/(4)$

la forma bilineare la definisco "a caso" come $\phi(x)=x^2+y^2-z^2$, ma va bene qualunque forma quadratica.

Ora se sostituisci i valori dei vincoli, ottieni un valore fisso e non hai più variabili da "muovere". Ora che senso ha cercare massimi e minimi ?
Poi, come notava speculor, anche con $m=1$ hai difatto due valori uguali, grazie al fatto che la f.quadratica contiene solo termini al quadrato appunto e la variabile libera assume solo valori opposti $x$ e $-x$, quindi il quadrato è sempre $x^2$, quindi anche con $m=1$ i massimi e i minimi coincidono.
Con $m=0$ non sono poi neanche sicuro che si possa parlare formalmente di funzione, non essendoci alcuna variabile !!!
Ma su questo non sono sicuro, sono uno pseudo-ingegnere io... :D

Sk_Anonymous
Non dovrebbe essere un problema anche nel caso estremo. Per esempio:

$[f(x,y)=x^2+y^2] ^^ [x=3] ^^ [y=4]$

$[nablaf=lambda_1nablag_1+lambda_2nablag_2] ^^ [g_1(x,y)=x-3] ^^ [g_2(x,y)=y-4]$

$\{(2x=lambda_1),(2y=lambda_2),(x=3),(y=4):} rarr \{(lambda_1=6),(lambda_2=8),(x=3),(y=4):}$

$[nablaf(3,4)=6nablag_1(3,4)+8nablag_2(3,4)] harr [(6,8)=6(1,0)+8(0,1)]$

Anche perchè, essendo $[nablaf=lambda_1nablag_1+lambda_2nablag_2]$ una relazione puntuale, non dovrebbe perdere senso nel caso di un punto isolato. Mi sembra che il teorema richieda l'applicazione dei moltiplicatori anche nell'ultima iterazione.

DavideGenova1
$\aleph_0$ grazie a tutti e due (e a chi vorrà unirsi alla discussione)!!!
@Quinzio: Ah, ah, sì :D (però formalmente la forma quadratica che prendi ad esempio con i tre vincoli $\phi(x,y,z) -= -6/16$ direi che ha minimi e massimi, che sono proprio ogni $(x,y,z) \in RR^3$, che non è granché impegnativo "cercare" :)). Togliendo una dimensione allo spazio vettoriale $RR^n$ cui appartiene il nostro $\vec x$ della quadratica \(f(\vec x)\) da minimizzare, ad ogni vincolo di ortogonalità fino ad $n-1$ -quando il vincolo è \(\vec g(\vec x)=(||\vec x||^2,\vec x·\vec v_1,...,\vec x·\vec v_{n-1})=(1,0,...,0)\)- ci si trova in uno spazio vettoriale ad una dimensione (grazie ancora per avermelo fatto notare prima: mi sono divertito oggi sul bus a pensare a basi che si riducono di un vettore di cui nessuno degli altri vettori dello spazio deve essere combinazione lineare perché ortogonale ad esso...), dove massimo e minimo sono da scegliere tra due vettori. Arrivando fino a qui il mio testo sta però già utilizzando -correggetemi se sbaglio- gli $n$ vincoli \((||\vec x||^2,\vec x·\vec v_1,...,\vec x·\vec v_{n-1})=\vec g (\vec x)=(1,0,...,0)\) nell'applicazione del metodo dei moltiplicatori di Lagrange, nonostante le variabili siano $n$ da consegna del libro: \((x_1,...,x_n)=\vec x\), cioè nel cercare il \(\text{min} \{ f(\vec x) : ||\vec x||^2=1 ,\vec x · \vec v_1 =0,..., \vec x · \vec v_{n-1}=0\}\) ha imposto proprio un vincolo \(\vec g: \mathbb{R}^n\rightarrow \mathbb{R}^n\). Quindi questo procedimento del libro, nel caso dell'ultimo minimo, è in contrasto con le premesse del teorema dei moltiplicatori di Lagrange che prevedono un vincolo \(\vec g: A \subset \mathbb{R}^{m+n}\rightarrow \mathbb{R}^n, m \geq1\)?
@Speculor: grazie anche per l'esempio!!! Dici che la dimostrazione del teorema dei moltiplicatori di Lagrange richiede l'applicazione del teorema delle funzioni implicite di Dini (per sistemi) anche nel caso di $n$ vincoli con $n$ variabili, caso in cui quindi è valido in generale? Riporto la formulazione che dà il mio libro del teorema dei moltiplicatori per essere chiari (con il numero dei vincoli chiamato "$m$" invece di $n$ come in questo esempio di massimizzazione, ma conservo la forma del libro lo stesso):
"Consideriamo le funzioni $f:A\subset RR^{n+m}->RR$ e $\vec g:A\subset RR^{n+m}->RR^m$ [mi sento sicuro che si intenda $\vec g \in C^-1(A)$] con $A$ aperto. Indicheremo con \((\vec x, \vec y)\) un generico punto di $RR^{n+m}$ intendendo \(\vec x=(x_1,...,x_n) \in \mathbb{R}^n\) e \(\vec y=(y_1,...,y_m) \in \mathbb{R}^m\). Se \((\vec x_0,\vec y_0)\in A\) è un punto di estremo locale per $f$ nell'insieme \(Z=\{(\vec x,\vec y):\vec g (\vec x,\vec y)=\vec k \in \mathbb{R}^m \}\) e \(\text{det}D_{\vec y}\vec g(\vec x_0,\vec y_0) \neq 0\) [dove \(D_{\vec y}\vec g\) è la jacobiana di \(\vec g(\vec x,\vec y)\) calcolata rispetto a $\vec y$] allora esiste \(\bar \lambda=(\lambda_1,...,\lambda_m) \in \mathbb{R}^m\) [da intendersi come matrice a una riga e $m$ colonne] tale che \(J_f (\vec x_0,\vec y_0)=\bar\lambda J_{\vec g} (\vec x_0,\vec y_0)\) [prodotto riga per colonne]. Ovvero \(\nabla f (\vec x_0,\vec y_0) = \lambda_1\nabla g_1 (\vec x_0,\vec y_0)+...+\lambda_1\nabla g_m (\vec x_0,\vec y_0)\) [i $g_i$ sono le componenti scalari della funzione vettoriale $\vec g$]".
Mentre quello delle funzioni implicite è formulato come
"Sia $\vec G: A \subset RR^{n+m}->RR^m$ con $A$ aperto, una funzione di classe $C^-1(A)$, e sia \((\vec x_0, \vec y_0) \in A\) tale che \(\vec G(\vec x_0, \vec y_0)=\vec 0\) e \(\text{det}D_{\vec y}\vec G(\vec x_0, \vec y_0) \neq 0\) [\(D_{\vec y}\) è sempre la jacobiana rispetto a $\vec y$], allora esistono $\delta>0,\sigma>0$ ed una funzione \(\vec y=\vec\varphi(\vec x)\) definita in \(I=B_{\delta}(\vec x_0) \subset \mathbb{R}^n\) a valori in \(J=B_{\sigma}(\vec y_0) \subset \mathbb{R}^m\), tale che
- \(\vec y_0=\vec\varphi(\vec x_0)\)
- \(\vec G(\vec x,\vec y)=0\) in \(I×J \iff \vec y=\vec\varphi(\vec x)\)
-$\vec\varphi$ è a sua volta di classe $C^1(I,J)$ e la sua matrice jacobiana vale \(J_{\vec\varphi}(\vec x)=-(D_{\vec y}\vec G(\vec x,\vec y))^{-1} D_{\vec x}\vec G(\vec x,\vec y),\) $AA \vec x \in I$".
Ecco, il mio testo usa \(\vec G(\vec x,\vec y)=\vec g(\vec x,\vec y)-\vec k=\vec 0\) per dimostrare il teorema dei moltiplicatori di Lagrange, mentre il teorema di Dini non vale per $\vec G: A \subset RR^{m}->RR^m$, no? Quindi, se si può usare il teorema dei moltiplicatori lagrangiani con $n$ vincoli e $n$ variabili, direi che deve esisterne una dimostrazione almeno un po' diversa da quella del mio libro...
Grazie di cuore ancora!!!

Sk_Anonymous
"DavideGenova":

...mentre il teorema di Dini non vale per $\vec G: A \subset RR^{m}->RR^m$, no?

Veramente, nel caso in cui si abbiano $[n]$ vincoli, dovrebbe essere $[vecG:A\subsetRR^{n+n}->RR^n]$. In ogni modo, nel caso in cui $[f:A\subsetRR^{2}->RR] ^^ [g_1(x,y)=0] ^^ [g_2(x,y)=0]$, se $[nablag_1]$ e $[nablag_2]$ sono linearmente indipendenti, è sempre possibile determinare $[lambda_1]$ e $[lambda_2]$ tale che $[nablaf=lambda_1nablag_1+lambda_2nablag_2]$. Ovviamente, le stesse considerazioni valgono per una funzione di $[n]$ variabili sottoposta ad $[n]$ vincoli. Per questo motivo, in questo caso estremo, il teorema, pur rimanendo valido, dovrebbe perdere gran parte della sua rilevanza.

DavideGenova1
"speculor":
nel caso in cui si abbiano $[n]$ vincoli, dovrebbe essere $[vecG:A\subsetRR^{n+n}->RR^n]$.


Scusami se mi sto perdendo... Ti prego di correggermi nelle stupidate che sto per dire... La funzione \(\vec G (\vec x, \vec y)=\vec g(\vec x, \vec y)-\vec k = \vec 0\) (quella che "implica la funzione implicita" \(\vec\varphi(\vec x)\) -non so se esita un termine specifico-) che usa il mio libro per applicare il teorema di Dini alla dimostrazione del teorema dei moltiplicatori ha tante componenti scalari quante ne ha \(\vec g\), che utilizzando le lettere che usa l'enunciato del mio libro posso chiamare $m$ (o anche $n$ come hai fatto tu, non è questo che non capisco :) ), che è il numero dei vincoli oggetto del teorema dei moltiplicatori. Se ho quindi tanti vincoli quante variabili (che sono le $n+m$ componenti di $\vec x$ e $\vec y$: quindi $n=0$) mi sbaglio se dico che ci troviamo in presenza di $\vec G:A \subset RR^m -> RR^m$ e nell'impossibilità quindi di applicare il teorema di Dini (cioè tutte quelle che si chiamavano \((x_1,...,x_n)=\vec x\) del nostro problema di ottimizzazione si trovano a coincidere con quell'$\vec y$ di \(\vec G(\vec x,\vec y)\) e non abbiamo più alcuna variabile da assegnare come componente al vettore -come chiama i vettori delle variabili l'enunciato dei teoremi che ho citato- $\vec x$ da cui far dipendere \(\vec y=\vec \varphi(\vec x)\))?

Sk_Anonymous
Hai ragione tu, nel caso limite si dovrebbe avere $[vecG:A\subsetRR^{m}->RR^m]$. Dare un senso al teorema delle funzioni implicite quando il numero delle equazioni è uguale al numero delle variabili mi sembra piuttosto problematico, oserei dire impossibile. Per quanto riguarda il teorema dei moltiplicatori, come mostrato nell'esempio precedente, è possibile verificare formalmente la condizione sui gradienti. Tornando al teorema originale, quello oggetto della discussione, non c'è dubbio che l'ultimo problema di estremo vincolato, pur essendo formalmente formulato nei termini usuali, non necessiti di alcun procedimento, per le considerazioni sviluppate in precedenza. Quando ho detto che il teorema richiede i moltiplicatori anche nell'ultima iterazione, sarebbe meglio intendere che il problema è formulato in quei termini, ma che, non necessitando di alcun procedimento, nemmeno è necessario adattare il teorema anche al caso estremo. A questo punto, si potrebbe considerare anche la seguente osservazione:

"speculor":

Nel caso in cui $[f:A\subsetRR^{2}->RR] ^^ [g_1(x,y)=0] ^^ [g_2(x,y)=0]$, se $[nablag_1]$ e $[nablag_2]$ sono linearmente indipendenti, è sempre possibile determinare $[lambda_1]$ e $[lambda_2]$ tale che $[nablaf=lambda_1nablag_1+lambda_2nablag_2]$. Ovviamente, le stesse considerazioni valgono per una funzione di $[n]$ variabili sottoposta ad $[n]$ vincoli.

solo formalmente. Che cosa ne pensi? In ogni modo, ho aperto una discussione in proposito.

DavideGenova1
Grazie di cuore ancora, Speculor! Non saprei che dire... penso che sia molto interessante il problema che abbiamo sollevato: speriamo che anche altri partecipino alla discussione che hai aperto...

dissonance
Carissimi, non ho letto neanche un rigo della discussione ( :oops: ), ma ugualmente butto lì un link piuttosto vecchiotto ad un intervento del grande ViciousGoblin:

post287933.html#p287933

DavideGenova1
Grazie anche a te per il link all'interessante thread, Dissonance!!!!

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.