Dimostrazione teorema spettrale
ciao a tutti, sono a ri-rompervi le scatole
allora sto studiando la dimostrazione del teorema spettrale premdiamo il caso euclideo.
TEOREMA
sia (V,g) uno spazio Euclideo e sia L$in$End(V), sono fatti equivalenti :
a- L è simmetrico
b- $EE$ una base B ortonormale di V costituita da autovettori di L
allora la dimostrazione da b$rArr$a la so, la dim da a$rArr$b la so in parte.
allora iniziamo la a$rArr$b:
se la $dim(V) = 1$ non c'è nulla da dimostrare poichè si avrebbe la base con un vettore solo.
supponiamo che la $dim(V) = n$ e che il teorema sia valido per spazi euclidei di dimensione $<=n-1$
Sappiamo che certamente esiste almeno un autovalore $\lambda$ e quindi un relativo autovettore $v_1$ con norma unitaria.
Poniamo $V_1=[[v_1]]$ e $U=[[v_1]]^\bot$ entrambi sottospazi di V, con $dim(V_1)=1$ e $dim(U)=n-1$
si ha certamente che $vv u in U$, $ = 0$
da qui in poi la dimostrazione non so spiegarla, se ho capito bene dovrebbe essere come reiniziare da capo il ragionamento, ma non so come esprimerla.
ciao e grazie ha chi mi da una mano.

allora sto studiando la dimostrazione del teorema spettrale premdiamo il caso euclideo.
TEOREMA
sia (V,g) uno spazio Euclideo e sia L$in$End(V), sono fatti equivalenti :
a- L è simmetrico
b- $EE$ una base B ortonormale di V costituita da autovettori di L
allora la dimostrazione da b$rArr$a la so, la dim da a$rArr$b la so in parte.
allora iniziamo la a$rArr$b:
se la $dim(V) = 1$ non c'è nulla da dimostrare poichè si avrebbe la base con un vettore solo.
supponiamo che la $dim(V) = n$ e che il teorema sia valido per spazi euclidei di dimensione $<=n-1$
Sappiamo che certamente esiste almeno un autovalore $\lambda$ e quindi un relativo autovettore $v_1$ con norma unitaria.
Poniamo $V_1=[[v_1]]$ e $U=[[v_1]]^\bot$ entrambi sottospazi di V, con $dim(V_1)=1$ e $dim(U)=n-1$
si ha certamente che $vv u in U$, $
da qui in poi la dimostrazione non so spiegarla, se ho capito bene dovrebbe essere come reiniziare da capo il ragionamento, ma non so come esprimerla.
ciao e grazie ha chi mi da una mano.
Risposte
Procedi per induzione. Quando la dimensione di $V$ è uno la proposizione è vera. In dimensione superiore, prendi un autovalore $lambda$ e un autovettore $v_1$. Questo autovettore ti scompone lo spazio in somma diretta, come dicevi tu, $V=[[v_1]]o+[[v_1]]^bot$. Fin qui niente di rivoluzionario, questo è vero per tutti gli endomorfismi.
Ma essendo l'endomorfismo simmetrico succede che $[[v_1]]^bot$ è $L$-invariante. Ovvero, se $x\in[[v_1]]^bot$, anche $L(x)\in[[v_1]]^bot$. Questo te lo sei già dimostrato.
(L'idea intuitiva (ma non troppo) è questa:
Se scrivi una base di $V$ partendo da $v_1$, così: ${v_1, w_2, ..., w_n}$ dove $w_2, ...,w_n$ è una base di $[[v_1]]^bot$, la matrice associata ad $L$ deve avere questa forma: $[[lambda, 0, ..., 0], [0, **, ..., **], [vdots, vdots, , vdots], [0, **, ..., **]]$. No? Infatti, la prima colonna deve essere piena di zeri, tranne la prima entrata $lambda$, perché $lambda$ è un autovalore. Ma la matrice deve essere simmetrica, e quindi pure la prima riga deve essere piena di zeri tranne la prima entrata $lambda$. Ora, pensaci un attimo: il fatto che la matrice abbia quella forma significa esattamente che $[[v_1]]^bot$ è $L$-invariante.)
Ora puoi considerare la restrizione di $L$ a $[[v_1]]^bot$. Essendo $[[v_1]]^bot$ $L$-invariante, $L$ si restringe ad un endomorfismo simmetrico $[[v_1]]^bot\to[[v_1]]^bot$, ovvero ad un endomorfismo simmetrico di uno spazio vettoriale di dimensione più piccola. Per ipotesi induttiva $L$ è diagonalizzabile.
Ma essendo l'endomorfismo simmetrico succede che $[[v_1]]^bot$ è $L$-invariante. Ovvero, se $x\in[[v_1]]^bot$, anche $L(x)\in[[v_1]]^bot$. Questo te lo sei già dimostrato.
(L'idea intuitiva (ma non troppo) è questa:
Se scrivi una base di $V$ partendo da $v_1$, così: ${v_1, w_2, ..., w_n}$ dove $w_2, ...,w_n$ è una base di $[[v_1]]^bot$, la matrice associata ad $L$ deve avere questa forma: $[[lambda, 0, ..., 0], [0, **, ..., **], [vdots, vdots, , vdots], [0, **, ..., **]]$. No? Infatti, la prima colonna deve essere piena di zeri, tranne la prima entrata $lambda$, perché $lambda$ è un autovalore. Ma la matrice deve essere simmetrica, e quindi pure la prima riga deve essere piena di zeri tranne la prima entrata $lambda$. Ora, pensaci un attimo: il fatto che la matrice abbia quella forma significa esattamente che $[[v_1]]^bot$ è $L$-invariante.)
Ora puoi considerare la restrizione di $L$ a $[[v_1]]^bot$. Essendo $[[v_1]]^bot$ $L$-invariante, $L$ si restringe ad un endomorfismo simmetrico $[[v_1]]^bot\to[[v_1]]^bot$, ovvero ad un endomorfismo simmetrico di uno spazio vettoriale di dimensione più piccola. Per ipotesi induttiva $L$ è diagonalizzabile.
quindi è come dicevo io, essendo $[[v_1]]^bot$ L-invariante in poche parole sarebbe cpme dimostrarlo fino a che non si trova un sottospazio ortogonale di dimensione 1, che rientrando nel caso scartato a priori poichè banale il teorema è così verificato.
lo so l'ho detto da fa schifo, ma dovrebbe essere così il senzo no?!?
lo so l'ho detto da fa schifo, ma dovrebbe essere così il senzo no?!?
Guarda Ghigo ti sei risposto da solo... l'hai detto così male che non ci capisco niente!
Se vuoi che ti risponda sforzati un po' di esprimerti meglio.
Ah, tra parentesi, qualche giorno fa ViciousGoblin ha fornito una dimostrazione di questo teorema basata su un metodo di analisi: il teorema dei moltiplicatori di Lagrange. Il post non so dove sia, con la ristrutturazione non ho idea di dove finirà. Se ti interessa lo cerco.

Ah, tra parentesi, qualche giorno fa ViciousGoblin ha fornito una dimostrazione di questo teorema basata su un metodo di analisi: il teorema dei moltiplicatori di Lagrange. Il post non so dove sia, con la ristrutturazione non ho idea di dove finirà. Se ti interessa lo cerco.