[RISOLTO] endomorfismi triangolabili e basi ortonormali

cristian_c
Ciao, sono alle prese con un teoremone ostico:
Sia T:V->V un endomorfismo di uno spazio vettoriale V sul campo K. Allora T è triangolabile se e solo se ha tutti gli autovalori in K. Inoltre, se V è uno spazio vettoriale metrico la base che triangolarizza T può essere scelta ortonormale.


Parto subito con la dimostrazione:
Se T è triangolabile sappiamo già che deve avere tutti gli autovalori in K (Lemma ... ); quindi dobbiamo dimostrare solo il viceversa.


Riporto il lemma in questione:
Sia T:V->V un endomorfismo triangolabile di uno spazio vettoriale sul campo K. Allora T ha tutti gli autovalori in K.


Continuo con la dimostrazione del teorema:
Siccome (Proposizione ... ) su V è sempre possibile mettere un prodotto scalare (o hermitiano) definito positivo, possiamo direttamente supporre V metrico e cercare una base ortonormale che triangolarizzi T.

e questo diciamo che mi convince. Riporto per completezza il testo della Proposizione:
Sia V uno spazio vettoriale su [tex]\mathbb{R}[/tex] (o su [tex]\mathbb{C}[/tex]), e [tex]\mathcal{B}[/tex] = {[tex]v_1, ..., v_n[/tex]} una base di V. Allora esiste un unico prodotto scalare (hermitiano) definito positivo su V rispetto a cui [tex]\mathcal{B}[/tex] è una base ortonormale.


Ritorno alla dimostrazione del teorema:
Posto n = dim V siano [tex]\lambda_1, ..., \lambda_n[/tex] [tex]\in[/tex] [tex]\mathbb{K}[/tex] gli autovalori di T, ripetuti secondo la rispettiva molteplicità algebrica. Vogliamo una base ortonormale [tex]\mathcal{B}[/tex] = {[tex]v_1, ..., v_n[/tex]} di V tale che T([tex]v_1[/tex]) = [tex]\lambda_1 v_1[/tex] e

[tex]T(v_{j+1}) - \lambda_{j+1} v_{j+1} \in V_j[/tex]

per j = 1, ..., n-1 dove [tex]V_j[/tex] = Span([tex]v_1, ..., v_j[/tex]). Infatti T([tex]v_{j+1}[/tex]) - [tex]\lambda_{j+1} v_{j+1} \in V_j[/tex] vale se e solo se esistono [tex]a_{ij} \in \mathbb{K}[/tex] tali che

T([tex]v_{j+1}[/tex]) = [tex]\lambda_{j+1} v_{j+1} + a_{1 j+1} v_1 + ... + a_{j j+1} v_j[/tex]
e quindi la matrice che rappresenta T rispetto a B è triangolare superiore.


Ora l'ostacolo principale è capire come fa il testo a dire che sotto tali condizioni la matrice che rappresenta T rispetto alla base B è triangolare superiore :roll:

Il fatto che voglia una base ortonormale credo che serva nel resto della dimostrazione. Ho qualche dubbio anche nella scelta di T(v_1) = lambda_1 * v_1
In ogni caso penso che la scelta dei T(v1), T(v2), ..., T(v_n) sia riconducibile al fatto di ottenere una matrice triangolare superiore, ma come ho già scritto: come mai si può affermare che sotto queste condizioni la matrice sia effettivamente triangolare superiore?

Spero che qualche anima buona sia disposta ad aiutarmi, mi ci sono messo un bel po' a cercare di svelare l'arcano, ma sinora non ho tirato fuori nulla dal cilindro :(

Risposte
cristian_c
Ho risolto il problema e completato la dimostrazione :)

Parto con la risoluzione del problema:
Se la matrice che rappresenta T non fosse triangolar allora vorrebbe dire che un vettore di base v_j sarebbe trasformato in un vettore combinazione lineare dei v_(k>j).
Infatti se prendo un trasformato di un vettore della base, questo sarebbe generato da tutti i vettori della base e non solo da alcuni.

Questo perché le 'coordinate' [tex]\alpha_1, \alpha_2[/tex], ... del vettore sono univocamente determinate dal sistema [tex]T(v_j) = \alpha_1 v_1 + \alpha_2 v_2[/tex] ...
Essendo in questo caso [tex]\alpha_1, \alpha_2,[/tex]... le incognite, per determinarle bastano tante equazioni quante sono le coordinate.

Se ci sono più equazioni che incognite, quasi sicuramente il sistema sarà impossibile perché se le incognite sono l e le equazioni m > l le m-l equazioni sono sarebbero probabilmente soddisfatte in quanto determinate già dalle prime l equazioni.

Se invece il vettore trasformato fa parte di una matrice triangolare superiore, gli ultimi componenti del vettore saranno costituiti da zeri, e in questo caso per fare in modo che sia una combinazione lineare soltanto dei vettori v_(k
Quindi il vettore [tex]T(v_j)[/tex] è per forza un vettore combinazione lineare dei v_(k>j).
Ma questo è impossibile perché [tex]T(v_j)[/tex] è generato da v_(k
Adesso passo a completare la dimostrazione del teorema :-D

Come [tex]v_1[/tex] prendiamo un autovettore di T relativo a [tex]\lambda_1[/tex] di norma unitaria (cosa che è sempre possibile dato che l'autospazio relativo all'autovettore è lo Span di uno degli autovettori, quindi possiamo prenderne uno con norma uguale a 1).

Supponiamo ora di aver determinato [tex]v_1, ..., v_j[/tex] come richiesto (infatti questo serve nel procedimento per induzione da 1 a n); vogliamo trovare [tex]v_{j+1}[/tex].

Sia [tex]W_j = V_j^\bot[/tex]; indichiamo con [tex]P_j:V \to W_j[/tex]la proiezione ortogonale su [tex]W_j[/tex], e poniamo [tex]T_j = P_j \circ T|_{W_j}: W_j \to W_j.[/tex]

Se {[tex]w_{j+1}, ..., w_n[/tex]} è una base qualunque di [tex]W_j[/tex] (infatti una Proposizione ci dice che se [tex]V_j[/tex] è un sottospazio vettoriale di V allora dim [tex]V_j^\bot[/tex] = dim V - dim [tex]V_j[/tex]. Quindi dim [tex]W_j[/tex]= n-j e da qui la base per [tex]W_j)[/tex], rispetto alla base {[tex]v_1, .., v_j, w_{j+1}, ..., w_n[/tex]} di V l'endomorfismo T è rappresentato da una matrice a blocchi della forma:

[tex]\begin{bmatrix} A & B \\ O & C\end{bmatrix}[/tex]
dove A, B, O e C sono matrici.

[tex]A \in M_{j,j}(\mathbb{K})[/tex] con [tex]\lambda_1, ..., \lambda_j[/tex]sulla diagonale principale (dato che T ha tutti gli autovalori in K e A è triangolare superiore [si veda le proprietà del determinante]).

Siccome [tex]P_j(v_h) = O[/tex] per [tex]1 \le h \le j[/tex]
( questo lo si vede scrivendo la proiezione ortogonale di [tex]P_j[/tex]su [tex]W_j,[/tex] cioè [tex]P_j(v_h) = w_{j+1} + ... + w_n[/tex] che sia nel caso dei reali che nel caso dei complessi dà vettore nullo in virtù del fatto che gli elementi di [tex]W_j[/tex] sono ortogonali agli elementi di [tex]V_j[/tex] e quindi in tutti i casi il prodotto scalare (hermitiano) si annulla)

e [tex]P_j(w_k) = w_k[/tex] per [tex]j+1 \le k \le n[/tex]
(questo lo si verifica scrivendo sempre la proiezione ortogonale di P su [tex]W_j[/tex] e considerando il fatto che per via di un Corollario la base [tex]w_{j+1}, ..., w_n[/tex] può sempre essere scelta ortonormale. In questo caso la proiezione viene [tex]P_j(w_k) = w_{j+1} + ... + w_n[/tex], Quindi per le note proprietà questo vettore si riduce a [tex]w_k[/tex]),

si verifica facilmente che C è la matrice che rappresenta [tex]T_j[/tex] rispetto alla base {[tex]w_{j+1}, ..., w_n[/tex]} di [tex]W_j[/tex] (in tal caso si scrive [tex]T_j = P_j(T(w_k)) = w_{j+1} + ... + w_n = \alpha_{j+1} w_{j+1} + .. + \alpha_n w_n[/tex] perché si tratta di una base ortonormale la quale perciò permette questa semplificazione. [tex]T(w_k)[/tex] invece si scrive [tex]T(w_k) = \alpha_1 v_1 + \alpha_2 v_2 + ..., + \alpha_j v_j + \alpha_{j+1} w_{j+1} + ... + \alpha_n w_n[/tex].
Mettendo a confronto i due trasformati e ricordandoci che precedentemente avevamo scelto una base furba per [tex]v_1, ..., v_j[/tex] [infatti avevamo fatto sì che gli ultimi elementi del vettori della base fossero composti di zeri, per cui gli ultimi componenti dei vettori [tex]v_1, ..., v_j[/tex] non influiscono nella combinazione lineare di [tex]T(w_k)[/tex]], [tex]T_j(w_k)[/tex] è il pezzo inferiore della colonna [tex]T(w_k)[/tex] e perciò forma insieme agli altri trasformati la matrice C)

Questo insieme ad un altro notevole risultato per le matrici a blocchi ci dice che:
det(matrice a blocchi) = (det A) * (det C).

Perciò
[tex](\lambda_1 - \lambda) \cdot\cdot\cdot (\lambda_n - \lambda) = p_T(\lambda) = det(A - \lambda I) det(C- \lambda I) = (\lambda_1 - \lambda)\cdot\cdot\cdot(\lambda_j - \lambda)p_{T_j}(\lambda)[/tex]
(dove abbiamo sfruttato la proprietà di T di avere tutti gli autovalori in K e la definizione di polinomio caratteristico. inoltre abbiamo sottratto alla matrice a blocchi la matrice diagonale con gli autovalori sulla diagonale e sfruttato il risultato precedente. [tex]p_{T_j}[/tex] è il polinomio caratteristico di [tex]T_j[/tex])
quindi gli autovalori di [tex]T_j[/tex] sono [tex]\lambda_{j+1}, ..., \lambda_n[/tex].

Prendiamo allora [tex]v_{j+1} \in W_j[/tex]un autovettore di [tex]T_j[/tex] relativo a [tex]\lambda_{j+1}[/tex] di norma unitaria. in particolare [tex]P_j(T(v_{j+1}) = \lambda_{j+1} v_{j+1}[/tex], cioè (per definizione di proiezione ortogonale) [tex]T(v_{j+1} - \lambda_{j+1} v_{j+1} \in W_j^\bot = V_j[/tex](perché l'ortogonale dell'ortogonale di [tex]V_j[/tex] è proprio [tex]V_j[/tex] !), come voluto.
Procedendo in questo modo costruiamo la base cercata.

Ecco, questa era la dimostrazione completa, spero possa essere utile a a qualcuno dato che su internet non si trova niente di niente :D

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.