Teorema spettrale (esame domani)
Sono uno studente di ingegneria e domani ho l esame di algebra lineare, il mio prof mi ha dato la seguente dimostrazione del teorema spettrale e non riesco a capirla
enunciato: ogni matrcice simmetrica è diagonalizzabile , ossia per essa gli autovettori formano una base del dominio.
Dimostrazione:
viene fatta per induzione sulla dimensione
se lo spazo di partenza X ha dim=1 allora poichè ogni matrice simmetrica ha almeno un autovalore reale allora esso è Indipendente e la tesi è verificata.
si suppone vera per dim=n-1
Devo dimostrare che la tesi è vero per dimX=n
per il th sulle matrcici simmetriche,una matrIce simmetrica ha sempre un autovalore reale che chiamiamo u,adessio chiamamiamo con
W={w CHE APPARTENGONO AD X : wu=0}
poichè so che se wu=0 allora anche A(w)u=0
si crea un endoformismo da A:W->W
adesso Iniziano i miei Dubbi
il prof edice "che poiche W è fatto da vettori ortogonali a u e quindi la sua dimensione è uguale a n-1 (PRIMO DUBBIO come si fa a sapere che la dim=n-1? da cosa si deduce ?)
Poi continua dicendo che il th spettrale è vero per A:W->W e quindi esiste una base spettrale (di autovettori) per W
(Secondo DUBBIO,Perchè il th spettrale è vero per A:W->W? soprattutto non capisco perchè i vettori w appartenenti a W siano autovettori chi ce lo dice???????? )
la dimostrazione si conclude dicendo che <$u$,$w_1$,....,$w_(n-1)$>=X perché i vettori dello span sono indipendenti.
vi prego è urgente
enunciato: ogni matrcice simmetrica è diagonalizzabile , ossia per essa gli autovettori formano una base del dominio.
Dimostrazione:
viene fatta per induzione sulla dimensione
se lo spazo di partenza X ha dim=1 allora poichè ogni matrice simmetrica ha almeno un autovalore reale allora esso è Indipendente e la tesi è verificata.
si suppone vera per dim=n-1
Devo dimostrare che la tesi è vero per dimX=n
per il th sulle matrcici simmetriche,una matrIce simmetrica ha sempre un autovalore reale che chiamiamo u,adessio chiamamiamo con
W={w CHE APPARTENGONO AD X : wu=0}
poichè so che se wu=0 allora anche A(w)u=0
si crea un endoformismo da A:W->W
adesso Iniziano i miei Dubbi
il prof edice "che poiche W è fatto da vettori ortogonali a u e quindi la sua dimensione è uguale a n-1 (PRIMO DUBBIO come si fa a sapere che la dim=n-1? da cosa si deduce ?)
Poi continua dicendo che il th spettrale è vero per A:W->W e quindi esiste una base spettrale (di autovettori) per W
(Secondo DUBBIO,Perchè il th spettrale è vero per A:W->W? soprattutto non capisco perchè i vettori w appartenenti a W siano autovettori chi ce lo dice???????? )
la dimostrazione si conclude dicendo che <$u$,$w_1$,....,$w_(n-1)$>=X perché i vettori dello span sono indipendenti.
vi prego è urgente

Risposte
Per grandi linee ci sei ma devi esprimerti meglio. Già nelle ipotesi c'è confusione, mettiamo un po' d'ordine:
Ipotesi: Sia $X$ uno spazio vettoriale di tipo $RR^n$ con $n$ numero intero. (*)
Indichiamo con $*$ il prodotto scalare.
Sia $A$ una matrice simmetrica $n\times n$.
Tesi $A$ è ortogonalmente diagonalizzabile, ovvero esiste una base ortonormale di $X$ composta di autovettori di $A$.
Dimostrazione: L'osservazione fondamentale è questa: comunque prendiamo due vettori $v, w \in X$, la matrice $A$ commuta col prodotto scalare: $Av*w=v*Aw$. Questo è equivalente a dire che $A$ è simmetrica, se ci pensi un attimo.
Per un lemma preliminare (che tu hai chiamato teorema sulle matrici simmetriche), ogni matrice simmetrica ha almeno un autovalore reale. Chiamiamolo $lambda_1$: per definizione di autovalore esiste un $lambda_1$-autovettore che chiamiamo $v_1$ (ricorda che $v_1!=0$). Possiamo supporre che $|v_1|=1$.
Consideriamo ora il complemento ortogonale di $w_1$, che il tuo professore ha chiamato $W$:
$W=v_1^bot={x\in X\ :\ x*v_1=0}$.
Questo è un sottospazio vettoriale di $X$ di codimensione $1$ per un (importantissimo) teorema sul complemento ortogonale (se non lo conosci corri a studiarlo). Mostriamo che $W$ è stabile rispetto ad $A$, ovvero che $AW\sub W$ (voglio dire che comunque prendi un $x\in W$, $Ax\in W$).
Anche questa è una conseguenza della simmetria di $A$. Sia $x$ tale che $x*v_1=0$. Applica $A$ ad $x$ e moltiplica per $v_1$:
$Ax*v_1=x*Av_1$ (perché $A$ è simmetrica) $...=x*(lambda_1v_1)=lambda_1(x*v_1)=lambda_1 0=0$. Quindi $Ax*v_1=0$, ovvero $Ax\inW$.
Infine, consideriamo $A$ come un endomorfismo di $X$. Per quanto detto sopra, $A$ si restringe ad un endomorfismo di $W$. In maniera imprecisa possiamo dire che $A|_W$ è un endomorfismo $W\toW$ (se hai dei dubbi su questo ne riparliamo): è chiaro che anche $A|_W$ è simmetrico. Quindi possiamo riapplicare lo stesso procedimento di sopra ad $A|_W$, ottenendo un secondo autovalore $lambda_2$ e un corrispondente autovettore $v_2\in W$. Per induzione si arriva a concludere.
Questa è l'idea. E' tutto molto impreciso: sono partito considerando $A$ come matrice e poi in corso d'opera l'ho considerata come endomorfismo - ho fatto così perché così mi pare hai fatto anche tu. Vedi un po' se ti convince.
P.S.: Cerca di esprimerti meglio, tanto a livello di italiano quanto a livello di scrittura delle formule, per favore.
________________________
(*) Sarebbe più preciso parlare di $X$ come spazio vettoriale euclideo, ovvero uno spazio vettoriale reale, di dimensione finita, dotato di un prodotto scalare.
Ipotesi: Sia $X$ uno spazio vettoriale di tipo $RR^n$ con $n$ numero intero. (*)
Indichiamo con $*$ il prodotto scalare.
Sia $A$ una matrice simmetrica $n\times n$.
Tesi $A$ è ortogonalmente diagonalizzabile, ovvero esiste una base ortonormale di $X$ composta di autovettori di $A$.
Dimostrazione: L'osservazione fondamentale è questa: comunque prendiamo due vettori $v, w \in X$, la matrice $A$ commuta col prodotto scalare: $Av*w=v*Aw$. Questo è equivalente a dire che $A$ è simmetrica, se ci pensi un attimo.
Per un lemma preliminare (che tu hai chiamato teorema sulle matrici simmetriche), ogni matrice simmetrica ha almeno un autovalore reale. Chiamiamolo $lambda_1$: per definizione di autovalore esiste un $lambda_1$-autovettore che chiamiamo $v_1$ (ricorda che $v_1!=0$). Possiamo supporre che $|v_1|=1$.
Consideriamo ora il complemento ortogonale di $w_1$, che il tuo professore ha chiamato $W$:
$W=v_1^bot={x\in X\ :\ x*v_1=0}$.
Questo è un sottospazio vettoriale di $X$ di codimensione $1$ per un (importantissimo) teorema sul complemento ortogonale (se non lo conosci corri a studiarlo). Mostriamo che $W$ è stabile rispetto ad $A$, ovvero che $AW\sub W$ (voglio dire che comunque prendi un $x\in W$, $Ax\in W$).
Anche questa è una conseguenza della simmetria di $A$. Sia $x$ tale che $x*v_1=0$. Applica $A$ ad $x$ e moltiplica per $v_1$:
$Ax*v_1=x*Av_1$ (perché $A$ è simmetrica) $...=x*(lambda_1v_1)=lambda_1(x*v_1)=lambda_1 0=0$. Quindi $Ax*v_1=0$, ovvero $Ax\inW$.
Infine, consideriamo $A$ come un endomorfismo di $X$. Per quanto detto sopra, $A$ si restringe ad un endomorfismo di $W$. In maniera imprecisa possiamo dire che $A|_W$ è un endomorfismo $W\toW$ (se hai dei dubbi su questo ne riparliamo): è chiaro che anche $A|_W$ è simmetrico. Quindi possiamo riapplicare lo stesso procedimento di sopra ad $A|_W$, ottenendo un secondo autovalore $lambda_2$ e un corrispondente autovettore $v_2\in W$. Per induzione si arriva a concludere.
Questa è l'idea. E' tutto molto impreciso: sono partito considerando $A$ come matrice e poi in corso d'opera l'ho considerata come endomorfismo - ho fatto così perché così mi pare hai fatto anche tu. Vedi un po' se ti convince.
P.S.: Cerca di esprimerti meglio, tanto a livello di italiano quanto a livello di scrittura delle formule, per favore.
________________________
(*) Sarebbe più preciso parlare di $X$ come spazio vettoriale euclideo, ovvero uno spazio vettoriale reale, di dimensione finita, dotato di un prodotto scalare.
gRAZIE MILLE pERò NON SO IL TEOREMA SUL COMPLEMENTO ORTOGONALE IL NOSTRO PROF NON L HA FATTO.......
ME LO POTRESTI ANCHE SOLO ACENNARE GRAZIE MILLE
ME LO POTRESTI ANCHE SOLO ACENNARE GRAZIE MILLE
grazie 
ma ho un altro dubbio :
perchè W ha dimensione n-1 ?
e perchè w sono autovettori ?

ma ho un altro dubbio :
perchè W ha dimensione n-1 ?
e perchè w sono autovettori ?
"ALETHECRAZY":
gRAZIE MILLE pERò NON SO IL TEOREMA SUL COMPLEMENTO ORTOGONALE IL NOSTRO PROF NON L HA FATTO.......
ME LO POTRESTI ANCHE SOLO ACENNARE GRAZIE MILLE
"aeroxr1":
perchè W ha dimensione n-1 ?
@ALETHECRAZY: Per favore non urlare (ovvero, non scrivere tutto maiuscolo).
@tutti: Teorema sul complemento ortogonale Sia $X$ uno spazio vettoriale euclideo (vedi sopra per la definizione), sia $W$ un suo sottospazio vettoriale. Detto $W^bot$ il complemento ortogonale di $W$, risulta che
$X=W o+ W^bot$ ($o+$ è il simbolo di somma diretta: significa che $WnnW^bot={0}$ e che $W+W^bot=V$).
Per la dimostrazione di questo teorema, che tra l'altro è facile, consiglio di cercare negli appunti: ci deve essere per forza.
Una facile conseguenza è la formula sulle dimensioni che serve per dimostrare il teorema spettrale (segue subito dalla formula di Grassmann, ma ci sono altri modi per dimostrarlo): $"dim"X="dim"W+"dim"W^bot$.
"aeroxr1":
e perchè w sono autovettori ?
In $W$ tu puoi trovare $n-1$ autovettori ortonormali per ipotesi induttiva.
Ti riscrivo solo lo schema della dimostrazione, forse diventa più facile:
dim. Per induzione su $n="dim"X$. Per $n=1$ la tesi è banalmente vera.
Per ipotesi induttiva, supponiamo che la tesi sia vera per ogni endomorfismo simmetrico (o matrice simmetrica, come preferisci) di uno spazio di dimensione $n-1$ (o per ogni matrice di dimensione $n-1timesn-1$).
Per il teorema sulle matrici simmetriche, $A$ ha un autovalore e quindi anche un autovettore, che chiamo $v_1$. Prendiamo il complemento ortogonale della retta generata da $v_1$ che chiamiamo $W$. Questo sottospazio di $X$ ha dimensione $n-1$ per il teorema sul complemento ortogonale.
Con il ragionamento che ho mostrato sopra, mostriamo che il sottospazio $W$ è stabile rispetto ad $A$ (def. di sottospazio stabile nel mio post precedente). Quindi $A|_W$ è un endomorfismo di uno spazio di dimensione $n-1$.
Per ipotesi induttiva $A|_W$ è ortogonalmente diagonalizzabile, ovvero in $W$ è possibile trovare $n-1$ autovettori ortonormali. Fine.
grazie ci hai salvati
cmq il nostro prof ci ha fatto solo il th di grassman sulle applicazioni lineari se A:X->Y la dim di X=dim del ker di A+ la dim dell'Immaginedi A, quello sui sottospazi no, cmq l'avevo visto sull'abate!!!!!!!!
scusa per il maiuscolo!!!!!!!:)
cmq il nostro prof ci ha fatto solo il th di grassman sulle applicazioni lineari se A:X->Y la dim di X=dim del ker di A+ la dim dell'Immaginedi A, quello sui sottospazi no, cmq l'avevo visto sull'abate!!!!!!!!
scusa per il maiuscolo!!!!!!!:)
L'Abate è un bel libro, secondo me. Sicuramente questi teoremi sono dimostrati là sopra molto meglio di quanto possa fare io qui. Comunque, in bocca al lupo!
CREPI !!!!!
"dissonance":
[Teorema sul complemento ortogonale Sia $X$ uno spazio vettoriale euclideo (vedi sopra per la definizione), sia $W$ un suo sottospazio vettoriale. Detto $W^bot$ il complemento ortogonale di $W$, risulta che
$X=W o+ W^bot$ ($o+$ è il simbolo di somma diretta: significa che $WnnW^bot={0}$ e che $W+W^bot=V$).
Questo non è corretto. La tua affermazione è vera se lo spazio vettoriale in questione è dotato di un prodotto scalare definito positivo (che non ho trovato nella tua definizione di spazio euclideo) o più in generale se la restrizione del prodotto scalare al sottospazio $W$ è non degenere. Nel caso di un prodotto scalare qualunque, vale solo che $dimW+dimW^bot>=dimV$, e vale uguaglianza nel caso di un prodotto scalare non degenere.
Per esempio, consideriamo $R^2$ con il prodotto rappresentato rispetto alla base ${v_1,v_2}$ dalla matrice $((1,0),(0,0))$. Esso è un prodotto scalare degenere e semidefinito, quindi in generale varà solo $ dimW+dimW^bot>=2$. Per esempio. sia $W=span(v_2)$. Allora, essendo $v_2$ isotropo, $WsubsetW^bot$, e $
Considerando invece, sempre in R^2, il prodotto rappresentato rispetto alla stessa base da $((1,0),(0,-1))$. Esso è non degenere, e infatti se $W=span{v_1+v_2}$, si calcola che $W^bot=W$, e dunque $dimW+dimW^bot=2$, come deve essere. E' però falso che $W o+ W^bot=R^2$, poichè per l'appunto $W=W^bot$, dunque l'intersezione non è nulla.
"alvinlee88":
Questo non è corretto. La tua affermazione è vera se lo spazio vettoriale in questione è dotato di un prodotto scalare definito positivo ...
E' solo questione di definizioni. Parlando di prodotto scalare intendo una forma bilineare simmetrica reale e definita positiva, oppure una forma sesquilineare complessa ed hermitiana. Mi sono permesso di non specificarlo perché fuori da un ambito strettamente algebrico questa definizione va per la maggiore; in particolare sui libri di ingegneria mi sbilancerei a dire che si usa solo questa. Visto che il topic è stato aperto da studenti di ingegneria ho pensato che la cosa non creasse confusione e l'ho taciuta per la massima semplicità.
"dissonance":
[quote="alvinlee88"]Questo non è corretto. La tua affermazione è vera se lo spazio vettoriale in questione è dotato di un prodotto scalare definito positivo ...
E' solo questione di definizioni. Parlando di prodotto scalare intendo una forma bilineare simmetrica reale e definita positiva, oppure una forma sesquilineare complessa ed hermitiana. Mi sono permesso di non specificarlo perché fuori da un ambito strettamente algebrico questa definizione va per la maggiore; in particolare sui libri di ingegneria mi sbilancerei a dire che si usa solo questa. Visto che il topic è stato aperto da studenti di ingegneria ho pensato che la cosa non creasse confusione e l'ho taciuta per la massima semplicità.[/quote]
Nel qual caso mi scuso per la correzione inutile...
