Algebra lineare

_Tipper
Ho provato a fare questo esercizio di algebra lineare:

Io direi che sia alfa che beta sono applicazioni lineari.
Ora al di là di tutte le domande che chiede l'esercizio, quello che importa davvero per risolverlo è capire qual è la matrice che rappresenta l'applicazione alfa.
Qualcuno saprebbe dirmelo?

Grazie

Risposte
Camillo
Bell'esercizio !!
Ho provato con una matrice 2x2 a termini reali e cercare quale matrice la trasforma nella trasposta .
Partendo dalla matrice M = $((a,b),(c,d)) $, cerco la matrice N tale che :

$N*M = M^T$ , essendo $ M^T = ((a,c),(b,d)) $; pongo $N= ((alpha, beta),(gamma,delta))$.
Ottengo che $ alpha= (c^2-ad)/(bc-ad) ; beta= a(b-c)/(bc-ad); gamma = - d(b-c)/(bc-ad) ; delta = (b^2-ad)/(bc-ad) $.
$bc-ad = - $det M
Mah......

Sk_Anonymous
1) Per ogni $a_1, a_2 \in \mathbb{C}$ ed ogni $M_1, M_2 \in M_n(\mathbb{C})$, vale $\alpha(a_1M_1 + a_2M_2) = (a_1M_1 + a_2M_2)^t = a_1 M_1^t + a_2 M_2^t $ $= a_1 \alpha(M_1) + a_2 \alpha(M_2)$. Dunque $\alpha(\cdot)$ è lineare.

Sk_Anonymous
2) Se $M \in M_n(\mathbb{C})$, vale $\alpha(M) = O_n$ sse $M^t = O_n$, ovvero sse $M = O_n$, dove $O_n$ indica la matrice nulla $n \times n$. Dunque $ker$ $\alpha = \{O_n\}$, e perciò $\alpha(\cdot)$ è iniettiva. Siccome è un endomorfismo, $\alpha(\cdot)$ è pure biunivoca, e perciò invertibile.

Sk_Anonymous
3) Per ogni $M \in M_n(\mathbb{C})$, vale $\alpha^2(M) = \alpha(\alpha(M)) = \alpha(M^t) = (M^t)^t = M$. Pertanto $\alpha^2(\cdot)$ è proprio l'applicazione identica in $End(M_n(\mathbb{C}))$.

Sk_Anonymous
4) Siano $\Lambda_n$ lo spettro di $\alpha(\cdot)$ e $\lambda \in \Lambda_n$. Poiché in dimensione finita lo spettro di un'applicazione lineare coincide col suo spettro discreto, allora $\lambda$ è un autovalore di $\alpha(\cdot)$, e perciò deve esistere $M \in M_n(\mathbb{C})$ tale che $M \ne O_n$ ed $\alpha(M) = \lambda M$, i.e. $M^t = \lambda M$. Ne risulta $\lambda \ne 0$, e quindi $M^t = \frac{1}{\lambda} M$. Da qui $(\lambda^2 - 1) M = O_n$, e perciò necessariamente $\lambda = \pm 1$. E siccome $\alpha(I_n) = I_n$, dove $I_n$ è la matrice identità di $M_n(\mathbb{C})$, ed $\alpha(A) = -A$, se $A \in M_n(\mathbb{C})$ è una qualunque matrice antisimmetrica $\ne O_n$, effettivamente è provato che $\Lambda_1 = \{1\}$ e $\Lambda_n = \{\pm 1\}$, se $n \ge 2$.

Nota personale: bel quesito, questo!

Sk_Anonymous
5) La tesi è banale se $n = 1$. Perciò nel seguito ammettiamo $n \ge 2$. Per ogni coppia di interi $r, s = 1, 2, ..., n$ tali che $r \le s$, consideriamo le matrici $S_{r,s} = [s_{i,j}]_{i,j=1,...,n}$ costruite ponendo $s_{i,j} = s_{j,i} = 1$, se $(i,j) = (r,s)$; $s_{i,j} = s_{j,i} = 0$, se $(i,j) \ne (r,s)$; e assieme a queste, quando sia $r < s$, le matrici $A_{r,s} = [a_{i,j}]_{i,j=1, ..., n}$ definite assumendo $a_{i,j} = 1 = -a_{j,i}$, se $(i,j) = (r,s)$; $a_{i,j} = a_{j,i} = 0$, se $(i,j) \ne (r,s)$. E' immediato constatare che

1) l'insieme $B := \{S_{1,1}, ..., S_{1,n}, S_{2,2}, ..., S_{2,n}, ..., S_{n,n}$, $A_{1,2}, ..., A_{1,n}, A_{2,3}, ..., A_{2,n}, ..., A_{n-1,n}\} \subseteq M_n(\mathbb{C})$ è un sistema di $n^2$ vettori l.i. (su $\mathbb{C}$), e come tale una base dello spazio $M_n(\mathbb{C})$;

2) per ogni $r, s = 1, 2, ..., n$ tale che $r \le s$, $\alpha(S_{r,s}) = S_{r,s}$;

3) per ogni $r, s = 1, 2, ..., n$ tale che $r < s$, $\alpha(A_{r,s}) = -A_{r,s}$.

Questo dimostra che $B$ è una base di autovettori di $\alpha(\cdot)$ per $M_n(\mathbb{C})$, e che pertanto $\alpha(\cdot)$ è diagonalizzabile.

Nota personale: bel quesito, pure questo!

Sk_Anonymous
6) Vale $\beta(\cdot) = id(\cdot) + \alpha(\cdot)$, dove $id(\cdot)$ è l'identità di $end(M_n(\mathbb{C}))$. E allora $\beta(\cdot)$ è lineare, poiché somma di applicazioni lineari di $M_n(\mathbb{C})$ in sé.

Sk_Anonymous
7) No, visto che $2$ è autovalore di $\beta(\cdot)$, pur non essendo autovalore di $\alpha(\cdot)$. Vale infatti $\beta(I_n) = 2I_n$, per ogni $n \in \mathbb{Z}^+$.

Sk_Anonymous
8) Ooops... Temo di aver precorso i tempi e avergli già risposto al punto 6. 8-)

_Tipper
Grazie per aver risolto tutto l'esercizio.
Questa era solo la parte D dell'ultimo appello di algebra lineare; dato che è stato definito "un bell'esercizio" se volete posto anche tutto l'esame, così mi dite che ne pensate...

Camillo
Posta tutto : che facoltà fai e dove ?

_Tipper
Io studio ingegneria informatica a Siena.
Non posto la parte A, in quanto era una domanda aperta, fortunatamente facile.
Ecco la parte B:

e la parte C:


Secondo voi questo appello è facile, di media difficoltà, o difficile?

_Tipper
Per la parte B posso dire che {P,Q,R,S} non è indipendente, e un sottoinsieme che sia base dello spazio generato da {P,Q,R,S} è dato dai vettori {P,R}.
Inoltre la risposta al punto 7 mi sembra già contenuta nel testo... forse mi sbaglio...

Sk_Anonymous
E' un'opinione personale: trovo le parti A e C del tuo compito di algebra lineare sostanzialmente scolastiche e molto meno interessanti della D. In ogni caso...

B1. Poiché per ipotesi $dim(V) = 4$ e $V = < A, B, C, D >$, necessariamente l'insieme $K := (A, B, C, D)$ è una base di $V$. Onde stabilire se $\{P, Q, R, S\}$ è un sistema di vettori di $V$ l.i., è perciò sufficiente considerare la matrice $M = ((1,0,1,1),(-1,1,0,-2),(1,-1,0,2),(0,1,1,-1))$, che ha per colonne le componenti dei vettori $P, Q, R, S$, presi in quest'ordine, rispetto alla base $K$, e considerare (operando opportune riduzioni per riga o colonna) che $rank(M) = rank((1,0,1,1),(1,-1,0,2),(0,1,1,-1)) = rank((1,1,1),(1,0,2),(0,1,-1)) = rank((1,0,2),(0,1,-1)) = 2$. In particolare, è evidente che $P$ ed $R$ sono vettori l.i., di modo che $H := (P, R)$ è una base per $$.

EDIT: avevo confuso "C" per "B".

Sk_Anonymous
B2. Se per $rank(P, Q, R, S)$ intendi - come credo! - la dimensione del sottospazio di $V$ generato da $P, Q, R, S$, allora ho già risposto a questa domanda risolvendo il quesito B1.

EDIT: "C" -> "B".

Sk_Anonymous
B3. E che cavolo l'è quell'$Af$$(P, Q, R, S)$?! :?

EDIT: idem come sopra.

_Tipper
"DavidHilbert":
C3. E che cavolo l'è quell'$A_f$$(P, Q, R, S)$?! :?

La parte che stai considerando è la B e non la C, ma al di là di questa svista su Af ti rispondo citando testualmente il libro scritto dal mio professore:
tratto da ELEMENTI DI ALGEBRA E GEOMETRIA, ANTONIO PASINI, LIGUORI EDITORE:
Sia X un arbitrario sottoinsieme non vuoto di V. Indichiamo con Ax la famiglia dei sottospazi affini di V che contengono X. Ovviamente, V € Ax, quindi Ax non può essere l'insieme vuoto.
Poniamo:

Teorema 1 Af(X) è il minimo sottospazio affine di V contenente X e, dato un qualunque punto P di X, risulta:
Af(X) = P + L(-P + X)
...omissis...
Chiamiamo Af(X) sottospazio affine generato da X.
In particolare se se P e Q sono due punti distinti Af(P,Q) è una retta, se prendiamo tre punti è un piano, etc.
----
Ora dico io, per spiegare che Af(X) è un sottospazio affine era necessario far tutto questo casino?!?

_Tipper
Per quanto riguarda il punto 6 della parte C la matrice corretta è questa?
Pa     Qa     2Pa+2Qa
Pb     Qb     2Pb+2Qb
Pc     Qc     2Pc+2Qc


Grazie

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.