Algebra lineare
Ho provato a fare questo esercizio di algebra lineare:

Io direi che sia alfa che beta sono applicazioni lineari.
Ora al di là di tutte le domande che chiede l'esercizio, quello che importa davvero per risolverlo è capire qual è la matrice che rappresenta l'applicazione alfa.
Qualcuno saprebbe dirmelo?
Grazie

Io direi che sia alfa che beta sono applicazioni lineari.
Ora al di là di tutte le domande che chiede l'esercizio, quello che importa davvero per risolverlo è capire qual è la matrice che rappresenta l'applicazione alfa.
Qualcuno saprebbe dirmelo?
Grazie
Risposte
Bell'esercizio !!
Ho provato con una matrice 2x2 a termini reali e cercare quale matrice la trasforma nella trasposta .
Partendo dalla matrice M = $((a,b),(c,d)) $, cerco la matrice N tale che :
$N*M = M^T$ , essendo $ M^T = ((a,c),(b,d)) $; pongo $N= ((alpha, beta),(gamma,delta))$.
Ottengo che $ alpha= (c^2-ad)/(bc-ad) ; beta= a(b-c)/(bc-ad); gamma = - d(b-c)/(bc-ad) ; delta = (b^2-ad)/(bc-ad) $.
$bc-ad = - $det M
Mah......
Ho provato con una matrice 2x2 a termini reali e cercare quale matrice la trasforma nella trasposta .
Partendo dalla matrice M = $((a,b),(c,d)) $, cerco la matrice N tale che :
$N*M = M^T$ , essendo $ M^T = ((a,c),(b,d)) $; pongo $N= ((alpha, beta),(gamma,delta))$.
Ottengo che $ alpha= (c^2-ad)/(bc-ad) ; beta= a(b-c)/(bc-ad); gamma = - d(b-c)/(bc-ad) ; delta = (b^2-ad)/(bc-ad) $.
$bc-ad = - $det M
Mah......
1) Per ogni $a_1, a_2 \in \mathbb{C}$ ed ogni $M_1, M_2 \in M_n(\mathbb{C})$, vale $\alpha(a_1M_1 + a_2M_2) = (a_1M_1 + a_2M_2)^t = a_1 M_1^t + a_2 M_2^t $ $= a_1 \alpha(M_1) + a_2 \alpha(M_2)$. Dunque $\alpha(\cdot)$ è lineare.
2) Se $M \in M_n(\mathbb{C})$, vale $\alpha(M) = O_n$ sse $M^t = O_n$, ovvero sse $M = O_n$, dove $O_n$ indica la matrice nulla $n \times n$. Dunque $ker$ $\alpha = \{O_n\}$, e perciò $\alpha(\cdot)$ è iniettiva. Siccome è un endomorfismo, $\alpha(\cdot)$ è pure biunivoca, e perciò invertibile.
3) Per ogni $M \in M_n(\mathbb{C})$, vale $\alpha^2(M) = \alpha(\alpha(M)) = \alpha(M^t) = (M^t)^t = M$. Pertanto $\alpha^2(\cdot)$ è proprio l'applicazione identica in $End(M_n(\mathbb{C}))$.
4) Siano $\Lambda_n$ lo spettro di $\alpha(\cdot)$ e $\lambda \in \Lambda_n$. Poiché in dimensione finita lo spettro di un'applicazione lineare coincide col suo spettro discreto, allora $\lambda$ è un autovalore di $\alpha(\cdot)$, e perciò deve esistere $M \in M_n(\mathbb{C})$ tale che $M \ne O_n$ ed $\alpha(M) = \lambda M$, i.e. $M^t = \lambda M$. Ne risulta $\lambda \ne 0$, e quindi $M^t = \frac{1}{\lambda} M$. Da qui $(\lambda^2 - 1) M = O_n$, e perciò necessariamente $\lambda = \pm 1$. E siccome $\alpha(I_n) = I_n$, dove $I_n$ è la matrice identità di $M_n(\mathbb{C})$, ed $\alpha(A) = -A$, se $A \in M_n(\mathbb{C})$ è una qualunque matrice antisimmetrica $\ne O_n$, effettivamente è provato che $\Lambda_1 = \{1\}$ e $\Lambda_n = \{\pm 1\}$, se $n \ge 2$.
Nota personale: bel quesito, questo!
Nota personale: bel quesito, questo!
5) La tesi è banale se $n = 1$. Perciò nel seguito ammettiamo $n \ge 2$. Per ogni coppia di interi $r, s = 1, 2, ..., n$ tali che $r \le s$, consideriamo le matrici $S_{r,s} = [s_{i,j}]_{i,j=1,...,n}$ costruite ponendo $s_{i,j} = s_{j,i} = 1$, se $(i,j) = (r,s)$; $s_{i,j} = s_{j,i} = 0$, se $(i,j) \ne (r,s)$; e assieme a queste, quando sia $r < s$, le matrici $A_{r,s} = [a_{i,j}]_{i,j=1, ..., n}$ definite assumendo $a_{i,j} = 1 = -a_{j,i}$, se $(i,j) = (r,s)$; $a_{i,j} = a_{j,i} = 0$, se $(i,j) \ne (r,s)$. E' immediato constatare che
1) l'insieme $B := \{S_{1,1}, ..., S_{1,n}, S_{2,2}, ..., S_{2,n}, ..., S_{n,n}$, $A_{1,2}, ..., A_{1,n}, A_{2,3}, ..., A_{2,n}, ..., A_{n-1,n}\} \subseteq M_n(\mathbb{C})$ è un sistema di $n^2$ vettori l.i. (su $\mathbb{C}$), e come tale una base dello spazio $M_n(\mathbb{C})$;
2) per ogni $r, s = 1, 2, ..., n$ tale che $r \le s$, $\alpha(S_{r,s}) = S_{r,s}$;
3) per ogni $r, s = 1, 2, ..., n$ tale che $r < s$, $\alpha(A_{r,s}) = -A_{r,s}$.
Questo dimostra che $B$ è una base di autovettori di $\alpha(\cdot)$ per $M_n(\mathbb{C})$, e che pertanto $\alpha(\cdot)$ è diagonalizzabile.
Nota personale: bel quesito, pure questo!
1) l'insieme $B := \{S_{1,1}, ..., S_{1,n}, S_{2,2}, ..., S_{2,n}, ..., S_{n,n}$, $A_{1,2}, ..., A_{1,n}, A_{2,3}, ..., A_{2,n}, ..., A_{n-1,n}\} \subseteq M_n(\mathbb{C})$ è un sistema di $n^2$ vettori l.i. (su $\mathbb{C}$), e come tale una base dello spazio $M_n(\mathbb{C})$;
2) per ogni $r, s = 1, 2, ..., n$ tale che $r \le s$, $\alpha(S_{r,s}) = S_{r,s}$;
3) per ogni $r, s = 1, 2, ..., n$ tale che $r < s$, $\alpha(A_{r,s}) = -A_{r,s}$.
Questo dimostra che $B$ è una base di autovettori di $\alpha(\cdot)$ per $M_n(\mathbb{C})$, e che pertanto $\alpha(\cdot)$ è diagonalizzabile.
Nota personale: bel quesito, pure questo!
6) Vale $\beta(\cdot) = id(\cdot) + \alpha(\cdot)$, dove $id(\cdot)$ è l'identità di $end(M_n(\mathbb{C}))$. E allora $\beta(\cdot)$ è lineare, poiché somma di applicazioni lineari di $M_n(\mathbb{C})$ in sé.
7) No, visto che $2$ è autovalore di $\beta(\cdot)$, pur non essendo autovalore di $\alpha(\cdot)$. Vale infatti $\beta(I_n) = 2I_n$, per ogni $n \in \mathbb{Z}^+$.
8) Ooops... Temo di aver precorso i tempi e avergli già risposto al punto 6.

Grazie per aver risolto tutto l'esercizio.
Questa era solo la parte D dell'ultimo appello di algebra lineare; dato che è stato definito "un bell'esercizio" se volete posto anche tutto l'esame, così mi dite che ne pensate...
Questa era solo la parte D dell'ultimo appello di algebra lineare; dato che è stato definito "un bell'esercizio" se volete posto anche tutto l'esame, così mi dite che ne pensate...
Posta tutto : che facoltà fai e dove ?
Io studio ingegneria informatica a Siena.
Non posto la parte A, in quanto era una domanda aperta, fortunatamente facile.
Ecco la parte B:

e la parte C:

Secondo voi questo appello è facile, di media difficoltà, o difficile?
Non posto la parte A, in quanto era una domanda aperta, fortunatamente facile.
Ecco la parte B:

e la parte C:

Secondo voi questo appello è facile, di media difficoltà, o difficile?
Per la parte B posso dire che {P,Q,R,S} non è indipendente, e un sottoinsieme che sia base dello spazio generato da {P,Q,R,S} è dato dai vettori {P,R}.
Inoltre la risposta al punto 7 mi sembra già contenuta nel testo... forse mi sbaglio...
Inoltre la risposta al punto 7 mi sembra già contenuta nel testo... forse mi sbaglio...
E' un'opinione personale: trovo le parti A e C del tuo compito di algebra lineare sostanzialmente scolastiche e molto meno interessanti della D. In ogni caso...
B1. Poiché per ipotesi $dim(V) = 4$ e $V = < A, B, C, D >$, necessariamente l'insieme $K := (A, B, C, D)$ è una base di $V$. Onde stabilire se $\{P, Q, R, S\}$ è un sistema di vettori di $V$ l.i., è perciò sufficiente considerare la matrice $M = ((1,0,1,1),(-1,1,0,-2),(1,-1,0,2),(0,1,1,-1))$, che ha per colonne le componenti dei vettori $P, Q, R, S$, presi in quest'ordine, rispetto alla base $K$, e considerare (operando opportune riduzioni per riga o colonna) che $rank(M) = rank((1,0,1,1),(1,-1,0,2),(0,1,1,-1)) = rank((1,1,1),(1,0,2),(0,1,-1)) = rank((1,0,2),(0,1,-1)) = 2$. In particolare, è evidente che $P$ ed $R$ sono vettori l.i., di modo che $H := (P, R)$ è una base per $
B1. Poiché per ipotesi $dim(V) = 4$ e $V = < A, B, C, D >$, necessariamente l'insieme $K := (A, B, C, D)$ è una base di $V$. Onde stabilire se $\{P, Q, R, S\}$ è un sistema di vettori di $V$ l.i., è perciò sufficiente considerare la matrice $M = ((1,0,1,1),(-1,1,0,-2),(1,-1,0,2),(0,1,1,-1))$, che ha per colonne le componenti dei vettori $P, Q, R, S$, presi in quest'ordine, rispetto alla base $K$, e considerare (operando opportune riduzioni per riga o colonna) che $rank(M) = rank((1,0,1,1),(1,-1,0,2),(0,1,1,-1)) = rank((1,1,1),(1,0,2),(0,1,-1)) = rank((1,0,2),(0,1,-1)) = 2$. In particolare, è evidente che $P$ ed $R$ sono vettori l.i., di modo che $H := (P, R)$ è una base per $
$.
EDIT: avevo confuso "C" per "B".
B2. Se per $rank(P, Q, R, S)$ intendi - come credo! - la dimensione del sottospazio di $V$ generato da $P, Q, R, S$, allora ho già risposto a questa domanda risolvendo il quesito B1.
EDIT: "C" -> "B".
EDIT: "C" -> "B".
B3. E che cavolo l'è quell'$Af$$(P, Q, R, S)$?! 
EDIT: idem come sopra.

EDIT: idem come sopra.
"DavidHilbert":
C3. E che cavolo l'è quell'$A_f$$(P, Q, R, S)$?!
La parte che stai considerando è la B e non la C, ma al di là di questa svista su Af ti rispondo citando testualmente il libro scritto dal mio professore:
tratto da ELEMENTI DI ALGEBRA E GEOMETRIA, ANTONIO PASINI, LIGUORI EDITORE:
Sia X un arbitrario sottoinsieme non vuoto di V. Indichiamo con Ax la famiglia dei sottospazi affini di V che contengono X. Ovviamente, V € Ax, quindi Ax non può essere l'insieme vuoto.
Poniamo:

Teorema 1 Af(X) è il minimo sottospazio affine di V contenente X e, dato un qualunque punto P di X, risulta:
Af(X) = P + L(-P + X)
...omissis...
Chiamiamo Af(X) sottospazio affine generato da X.
In particolare se se P e Q sono due punti distinti Af(P,Q) è una retta, se prendiamo tre punti è un piano, etc.
----
Ora dico io, per spiegare che Af(X) è un sottospazio affine era necessario far tutto questo casino?!?
Per quanto riguarda il punto 6 della parte C la matrice corretta è questa?
Grazie
Pa Qa 2Pa+2Qa Pb Qb 2Pb+2Qb Pc Qc 2Pc+2Qc
Grazie