Dimostrazione lemma per moltiplicatori di lagrange
Salve, studiando calcolo differenziale sono arrivato al teorema del moltiplicatore di lagrange. Per dimostrarlo il professore fa uso di un lemma:
Il professore lo dimostra in un modo che non mi piace tanto (è corretto, ma mi pare tortuoso)
Al che ho pensato di ridimostrarlo così:
Prendiamo come base di $X$ la base $(x, a_2...a_n)$, dove gli $a_i$ appartengono al sottospazio ortogonale di x. Questa base esiste di sicuro in dimensione finita e anche in dimensione infinita direi.
A questo punto un vettore ortogonale a x sarà per forza di cose del tipo $v = sum_(i=2)^n a_ic_i$ dove i $c_i$ stanno in $RR$
Essendo che $(v.y) = 0$ per ogni vettore v, e quindi per ogni scelta dei coefficienti $c_i$, non rimane che la possibilità $y=0$ o $y=kx$ come volevasi dimostrare.
Il problema nasce dal fatto che ho paura ad appicarlo in spazi a dimensione infinita, ma mi pare vada bene anche per quelli.
Vi torna?
Dati x e y vettori di X (spazio vettoriale su $RR$ dotato di una norma) tali che per ogni vettore $v in X$ per cui sia $(v,x)=0$ risulta anche $(v,y)=0$ (dove $(,)$indica il prodotto scalare)
Allora esiste $k in RR$ tale che $x = ky$
Il professore lo dimostra in un modo che non mi piace tanto (è corretto, ma mi pare tortuoso)
Al che ho pensato di ridimostrarlo così:
Prendiamo come base di $X$ la base $(x, a_2...a_n)$, dove gli $a_i$ appartengono al sottospazio ortogonale di x. Questa base esiste di sicuro in dimensione finita e anche in dimensione infinita direi.
A questo punto un vettore ortogonale a x sarà per forza di cose del tipo $v = sum_(i=2)^n a_ic_i$ dove i $c_i$ stanno in $RR$
Essendo che $(v.y) = 0$ per ogni vettore v, e quindi per ogni scelta dei coefficienti $c_i$, non rimane che la possibilità $y=0$ o $y=kx$ come volevasi dimostrare.
Il problema nasce dal fatto che ho paura ad appicarlo in spazi a dimensione infinita, ma mi pare vada bene anche per quelli.
Vi torna?
Risposte
"Zkeggia":
Essendo che $(v.y) = 0$ per ogni vettore v, e quindi per ogni scelta dei coefficienti $c_i$, non rimane che la possibilità $y=0$ o $y=kx$ come volevasi dimostrare.
Però così mi sembra che dimostri che il sottospazio ortogonale di $x$ è contenuto nel sottospazio ortogonale di $y$ (che poi per ragioni di dimensioni saranno proprio uguali ).
p.s. il tuo professore dimostra che, trovata la base di $X$ come hai fatto tu, il vettore $y$ può avere componente non nulla solo su $x$?
no il professore usa una roba del tutto diversa, prende il vettore
$v = y - ((y,x))/(||x||^2) *x$
e nota che $(v,x)=0$
a questo punto usa l'ipotesi per dire che anche $(v,y)=0$ e infine nota che anche $(v,v)=(v,y)=0$ quindi v è il vettore nullo da cui segue
$y = ((y,x))/(||x||^2) x$
però è difficile da ricordare. Almeno io non avrei mai fatto una cosa del genere per ciò mi risulta ostica...
$v = y - ((y,x))/(||x||^2) *x$
e nota che $(v,x)=0$
a questo punto usa l'ipotesi per dire che anche $(v,y)=0$ e infine nota che anche $(v,v)=(v,y)=0$ quindi v è il vettore nullo da cui segue
$y = ((y,x))/(||x||^2) x$
però è difficile da ricordare. Almeno io non avrei mai fatto una cosa del genere per ciò mi risulta ostica...
"Zkeggia":
Prendiamo come base di $X$ la base $(x, a_2...a_n)$, dove gli $a_i$ appartengono al sottospazio ortogonale di x. Questa base esiste di sicuro in dimensione finita e anche in dimensione infinita direi.
A questo punto un vettore ortogonale a x sarà per forza di cose del tipo $v = sum_(i=2)^n a_ic_i$ dove i $c_i$ stanno in $RR$
Vi torna?
A me non convince il fatto che, dopo tutto il ragionamento che hai fatto, gli unici vettori possibili sono il vettore nullo e i vettore della forma $kx$...
Un 'idea secondo me facile da ricordare è questa: prendi la base di $X$ come l'hai definita tu, cioè $(x, a_2...a_n)$ con la condizione però che gli $a_i$ siano una base ortonormale dell'ortogonale di $x$, e scrivi $y$ come combinazione lineare di questa base, quindi $y= c_1x+ sum_(i=2)^n a_ic_i$ Ora imponi che $(y,a_i)=(c_1x+ sum_(i=2)^n a_ic_i,a_i)$ per ogni $i=2,3,...,n$. Da quel prodotto scalare ottieni praticamente la componente di $y$ lungo il vettore $a_i$ che deve essere uguale a $(y,a_i)=0$
Intervento flash:
"Zkeggia":Io invece direi proprio di no. O meglio, può essere se si parla di spazi di Hilbert separabili ma sicuramente non in generale. Anche l'osservazione del post di klarence
Prendiamo come base di $X$ la base $(x, a_2...a_n)$, dove gli $a_i$ appartengono al sottospazio ortogonale di x. Questa base esiste di sicuro in dimensione finita e anche in dimensione infinita direi.
Però così mi sembra che dimostri che il sottospazio ortogonale di x è contenuto nel sottospazio ortogonale di y (che poi per ragioni di dimensioni saranno proprio uguali ).in dimensione infinita non funziona, in generale.
Si la mia osservazione si riferiva agli spazi in dimensione finita, anche se pensavo che le osservazioni di zskeggia funzionassero anche a dimensione infinita.
Quindi il mio ragionamento (sempre se torna) torna solo in dimensione finita, giusto?
Quindi il mio ragionamento (sempre se torna) torna solo in dimensione finita, giusto?
ma allora la dimostrazione del professore vale anche in spazi a dimensione infinita?
Si, la dimostrazione del tuo prof non fa uso del concetto di dimensione. Non è neanche tanto difficile da ricordare: lui prende la proiezione ortogonale di $y$ sulla direzione di $x$ e osserva che coincide con $y$ stesso. Hai fatto bene a cercare strade alternative, ma adesso io tornerei all'ovile della dim. del tuo professore (non ti offendere però
).

"klarence":Ad una occhiata rapida mi pare che il tuo ragionamento sia precisamente quello del professore di Zkeggia, solo che a differenza sua tu hai usato la dimensione finita, cosa non strettamente necessaria.
Quindi il mio ragionamento (sempre se torna) torna solo in dimensione finita, giusto?
Ecco questa è colpa di metodi matematici della fisica, che mi ha fatto lavorare solo sugli spazi di Hilbert, quindi per me quelli sono gli unici spazi a dimensione inifinita... il fatto è che i fisici lavorano molto poco sugli spazi a dimensione infinita diversi da quelli di Hilbert, quindi mi trovo in difficoltà!
Ma qui non è questione di Hilbert o non Hilbert. Questa proposizione si può dimostrare facilmente senza fare ricorso al concetto di "base" di qualunque razza (algebrica, ortonormale, di Schauder...), quindi è meglio non usarlo. Sì, nei casi particolari degli spazi di dimensione finita oppure di Hilbert separabili tu sai che si possono sempre costruire basi ortonormali (o set ortonormali massimali come preferisci) e quindi volendo le puoi usare: ma questo equivale a fare quello che fa il tuo professore, ovvero mostrare che $y$ coincide con la propria proiezione ortogonale su $x$, però usando in modo non necessario dei paroloni e degli strumenti avanzati.
Poi non capisco quale sia la difficoltà che incontri con la dim. del tuo professore. Forse hai un po' di confusione sulle proiezioni ortogonali?
Poi non capisco quale sia la difficoltà che incontri con la dim. del tuo professore. Forse hai un po' di confusione sulle proiezioni ortogonali?
non ho difficoltà con la dimostrazione del professore, è chiarissima, solo che dal momento che devo studiare una serie di dimostrazioni piuttosto lunghe per l'esame, le dimostrazioni che mi vengono spontanee perchè sono come le farei io le lascio così, questa però non mi sarebbe mai venuta in mente, quindi mi risulta anche più ostica da ricordare... per il resto è chiara e di fatto a parte la pensata di considerare quel vettore li e vedere che funziona è abbastanza tranquilla. Solo che in sede d'esame magari quel vettore lo sbaglio o scrivo cose sbagliate perchè non mi viene in mente, ergo preferivo dimostrazioni fatte da me, che solitamente mi ricordo abbastanza bene!