Autovalori di radici di matrici complesse
Sia $A$ una matrice complessa di dimensione $n \times n$. Se $A^4$ ha un autovalore $mu$, segue che $A$ ha un autovalore $lambda$ tale che $lambda^4=mu$?
Nei reali mi sembra che ciò sarebbe chiaramente falso. Penso ad esempio alla matrice $A = ((0, 1), (-1, 0))$, il cui polinomio caratteristico è $lambda^2 +1$, che non ammette radici reali. Invece $A^4 = I$, che certamente ammette l'autovalore reale $mu = 1$.
Nei complessi invece il polinomio caratteristico ammette sempre $n$ radici, non necessariamente distinte. $A$ avrà quindi un autovalore $lambda$, ed $A^4$ avrà autovalore $mu = lambda^4$. Tuttavia non riesco a dimostrare il viceversa, ovvero ciò che l'esercizio richiede.
Avreste dei teoremi da suggerire per completare questa dimostrazione?
Nei reali mi sembra che ciò sarebbe chiaramente falso. Penso ad esempio alla matrice $A = ((0, 1), (-1, 0))$, il cui polinomio caratteristico è $lambda^2 +1$, che non ammette radici reali. Invece $A^4 = I$, che certamente ammette l'autovalore reale $mu = 1$.
Nei complessi invece il polinomio caratteristico ammette sempre $n$ radici, non necessariamente distinte. $A$ avrà quindi un autovalore $lambda$, ed $A^4$ avrà autovalore $mu = lambda^4$. Tuttavia non riesco a dimostrare il viceversa, ovvero ciò che l'esercizio richiede.
Avreste dei teoremi da suggerire per completare questa dimostrazione?
Risposte
Secondo me devi sfruttare il fatto che \(B:=A^4\) e \(A\) commutano. Questo implica che se \(V\) è un autospazio di \(B\), allora \(A(V)\subset V\). Puoi quindi ragionare direttamente su \(V\).
Grazie per la risposta.
Usando il fatto che $A$ e $B$ commutano dimostro che $AV \subset V$. Infatti:
$B(Av) = A(Bv) = A \mu v = \mu (Av)$, dunque $Av \in V$.
Se $dim(V)=1$ allora necessariamente $Av = \lambda v$, da cui si deriva $\mu = \lambda^4$.
Ma se $dim(V)>1$ non sono ancora riuscito a concludere.
Usando il fatto che $A$ e $B$ commutano dimostro che $AV \subset V$. Infatti:
$B(Av) = A(Bv) = A \mu v = \mu (Av)$, dunque $Av \in V$.
Se $dim(V)=1$ allora necessariamente $Av = \lambda v$, da cui si deriva $\mu = \lambda^4$.
Ma se $dim(V)>1$ non sono ancora riuscito a concludere.
Per forza. Devi usare da qualche parte che sei in campo complesso, sennò non può essere vero, come hai dimostrato correttamente sopra. Che succede in campo complesso che non necessariamente succede in altri campi? Qual è la proprietà algebrica più importante dei complessi?
Se si tratta del fatto che un polinomio di grado $n$ ha $n$ radici contate con la loro molteplicità l'ho detto all'inizio, ma non riesco ad usarlo fino in fondo.
Dunque la matrice $A$ ha $n$ autovalori complessi $\lambda_1, ..., \lambda_n$ (eventualmente ripetuti) a cui corrispondono i seguenti autovalori della matrice $B=A^4$: $\lambda_1^4, ..., \lambda_n^n$.
Il dubbio mi resta però per quanto riguarda gli autovalori con molteplicità algebrica maggiore di $1$.
Infatti ho in mente la dimostrazione che se $\lambda_i$ è autovalore di $A$, allora $\lambda_i^4$ è autovalore di $A^4$. Mi sembra che si possa anche dedurre che se $m_i$ è la molteplicità geometrica di $\lambda_i$, la molteplicità geometrica di $\lambda_i^4$ è $m'_i >= m_i$. Ma se la somma delle molteplicità geometriche degli autovalori di $\lambda_i^4$ fosse inferiore ad $n$, cosa impedisce alla matrice $B$ di avere un nuovo autovalore non correlato a quelli della matrice $A$?
Dunque la matrice $A$ ha $n$ autovalori complessi $\lambda_1, ..., \lambda_n$ (eventualmente ripetuti) a cui corrispondono i seguenti autovalori della matrice $B=A^4$: $\lambda_1^4, ..., \lambda_n^n$.
Il dubbio mi resta però per quanto riguarda gli autovalori con molteplicità algebrica maggiore di $1$.
Infatti ho in mente la dimostrazione che se $\lambda_i$ è autovalore di $A$, allora $\lambda_i^4$ è autovalore di $A^4$. Mi sembra che si possa anche dedurre che se $m_i$ è la molteplicità geometrica di $\lambda_i$, la molteplicità geometrica di $\lambda_i^4$ è $m'_i >= m_i$. Ma se la somma delle molteplicità geometriche degli autovalori di $\lambda_i^4$ fosse inferiore ad $n$, cosa impedisce alla matrice $B$ di avere un nuovo autovalore non correlato a quelli della matrice $A$?
E dove è andato a finire V? È lì sopra che devi ragionare.
A me sembra di sapere poco e niente su $V$.
Un autovettore di $A^n$ non è necessariamente autovettore di $A$. Per semplificare i conti faccio l'esempio con $n=2$.
Sia $V$ autospazio di $A^2$ di dimensione $2$, e sia $\{ e_1, e_2 \}$ una sua base. In generale si ha che:
$\{ (Ae_1 = a_{11} e_1 + a_{12} e_2), ( Ae_2 = a_{21} e_1 + a_{22} e_2):}$
Da cui:
$\{ (A^2 e_1 = (a_{11}^2 +a_{12} a_{21}) e_1 + a_{12} (a_{11} +a_{22}) e_2), ( A^2 e_2 = a_{21} (a_{11} +a_{22}) e_1 + (a_{22}^2 +a_{12} a_{21})e_2):}$
La condizione che $e_1$ ed $e_2$ siano autovettori di $A^2$ implica:
$\{ (a_{12} (a_{11} +a_{22}) = 0), (a_{21} (a_{11} +a_{22}) = 0):}$
Dunque o $a_{12} = a_{21} = 0$ oppure $a_{22} = - a_{11}$.
Nel primo caso $e_1$ ed $e_2$ sono anche autovettori di $A$, nel secondo caso lo sono di $A^2$ ma non di $A$ (inoltre viene automatico che abbiano lo stesso autovalore associato).
Quindi, contrariamente al sospetto iniziale, questo esempio mi porterebbe a pensare che la risposta alla domanda
sia NO, indipendentemente dal fatto che $A$ sia una matrice reale o complessa.
Un autovettore di $A^n$ non è necessariamente autovettore di $A$. Per semplificare i conti faccio l'esempio con $n=2$.
Sia $V$ autospazio di $A^2$ di dimensione $2$, e sia $\{ e_1, e_2 \}$ una sua base. In generale si ha che:
$\{ (Ae_1 = a_{11} e_1 + a_{12} e_2), ( Ae_2 = a_{21} e_1 + a_{22} e_2):}$
Da cui:
$\{ (A^2 e_1 = (a_{11}^2 +a_{12} a_{21}) e_1 + a_{12} (a_{11} +a_{22}) e_2), ( A^2 e_2 = a_{21} (a_{11} +a_{22}) e_1 + (a_{22}^2 +a_{12} a_{21})e_2):}$
La condizione che $e_1$ ed $e_2$ siano autovettori di $A^2$ implica:
$\{ (a_{12} (a_{11} +a_{22}) = 0), (a_{21} (a_{11} +a_{22}) = 0):}$
Dunque o $a_{12} = a_{21} = 0$ oppure $a_{22} = - a_{11}$.
Nel primo caso $e_1$ ed $e_2$ sono anche autovettori di $A$, nel secondo caso lo sono di $A^2$ ma non di $A$ (inoltre viene automatico che abbiano lo stesso autovalore associato).
Quindi, contrariamente al sospetto iniziale, questo esempio mi porterebbe a pensare che la risposta alla domanda
"robbstark":
Sia $ A $ una matrice complessa di dimensione $ n \times n $. Se $ A^4 $ ha un autovalore $ mu $, segue che $ A $ ha un autovalore $ lambda $ tale che $ lambda^4=mu $?
sia NO, indipendentemente dal fatto che $A$ sia una matrice reale o complessa.
In realtà, non ti seguo. Credo che, siccome A(V) è contenuto in V, la matrice A ha un autovettore in V. E siccome gli elementi di V sono lambda - autovettori di A^4, questo autovettore deve corrispondere a una radice quarta di lambda.
$AV$ è contenuto in $V$ nel senso che applicando $A$ ad un qualsiasi vettore di $V$ si ottiene un risultato in $V$, ma chi mi garantisce che questo sia proporzionale al vettore di partenza?
Nessuno. Ma il teorema fondamentale dell'algebra ti dice che \(A\) ha un autovettore in \(V\). Non so se mi spiego. Provo a dare più dettagli. Una versione del teorema fondamentale dell'algebra dice che, dato uno spazio vettoriale complesso \(W\ne \{0\}\) e una applicazione lineare \(\phi\colon W\to W\), esiste sempre almeno un autovalore \(\lambda\) e un corrispondente autovettore \(w\) di \(\phi\). Nel nostro caso, lo spazio vettoriale è \(V\) e l'applicazione lineare è
\[
v\in V\mapsto Av.\]
\[
v\in V\mapsto Av.\]
Certo, non è detto che un vettore di $V$ sia autovettore di $A$, ma ne deve esistere almeno uno...
Esatto! Riesci a concludere ora? La proposizione è vera, secondo me.
Allora, ci ho messo un po' perché in effetti mi sono accorto di non conoscere il Teorema Fondamentale dell'Algebra in quella forma.
Dalle due equazioni $det(A^4 - mu I)=0$ e $det(A - lambda I)=0$ non è facile ricavare delle relazioni tra $lambda$ e $mu$. In pratica il il trucco è decomporre il primo polinomio prima di passare ai determinanti:
$A^4 - mu I = prod_{i=1}^4 (A - lambda_i I)$, dove $lambda_i$ sono le radici quarte di $mu$.
Quindi
$det (prod_{i=1}^4 (A - lambda_i I)) = prod_{i=1}^4 det(A - lambda_i I) = 0 \Rightarrow EE i: det(A - lambda_i I) = 0$,
ovvero $lambda_i$ è un autovalore di $A$.
Dalle due equazioni $det(A^4 - mu I)=0$ e $det(A - lambda I)=0$ non è facile ricavare delle relazioni tra $lambda$ e $mu$. In pratica il il trucco è decomporre il primo polinomio prima di passare ai determinanti:
$A^4 - mu I = prod_{i=1}^4 (A - lambda_i I)$, dove $lambda_i$ sono le radici quarte di $mu$.
Quindi
$det (prod_{i=1}^4 (A - lambda_i I)) = prod_{i=1}^4 det(A - lambda_i I) = 0 \Rightarrow EE i: det(A - lambda_i I) = 0$,
ovvero $lambda_i$ è un autovalore di $A$.
Nooo, no, no, è sbagliato. Chi ti ha detto che
\[
A^4-\mu I=\prod (A-\lambda_i I)\ ?\]
Già con il prodotto di due matrici è falso;
\[
(A-\lambda_1 I)(A-\lambda_2I)=A^2-\lambda_1 A - \lambda_2 A +\lambda_1\lambda_2 I.\]
Ma è MOLTO più semplice di come la stai facendo. Adesso scrivo la soluzione completa.
Soluzione. Sia \(V\) il \(\mu\)-autospazio di \(A^4\). Per quanto detto sopra, \(A(V)\subset V\) e quindi, siccome siamo in campo complesso, esiste almeno un autovettore \(v\in V\) di \(A\);
\[
Av=\lambda v.\]
Consegue che \(A^2v=\lambda Av=\lambda^2 v\) e ripetendo questo altre due volte otteniamo
\[
\tag{1} A^4 v= \lambda^4 v.\]
D'altra parte, \(A^4 v=\mu v\) per ipotesi. Confrontando le ultime due equazioni otteniamo
\[
\mu v= \lambda^4 v, \]
da cui \(\mu=\lambda^4\), dato che \(v\ne 0\).
\[
A^4-\mu I=\prod (A-\lambda_i I)\ ?\]
Già con il prodotto di due matrici è falso;
\[
(A-\lambda_1 I)(A-\lambda_2I)=A^2-\lambda_1 A - \lambda_2 A +\lambda_1\lambda_2 I.\]
Ma è MOLTO più semplice di come la stai facendo. Adesso scrivo la soluzione completa.
Soluzione. Sia \(V\) il \(\mu\)-autospazio di \(A^4\). Per quanto detto sopra, \(A(V)\subset V\) e quindi, siccome siamo in campo complesso, esiste almeno un autovettore \(v\in V\) di \(A\);
\[
Av=\lambda v.\]
Consegue che \(A^2v=\lambda Av=\lambda^2 v\) e ripetendo questo altre due volte otteniamo
\[
\tag{1} A^4 v= \lambda^4 v.\]
D'altra parte, \(A^4 v=\mu v\) per ipotesi. Confrontando le ultime due equazioni otteniamo
\[
\mu v= \lambda^4 v, \]
da cui \(\mu=\lambda^4\), dato che \(v\ne 0\).
Intanto non capisco perché la soluzione che ho scritto sarebbe sbagliata.
Siano infatti:
$mu = |mu| e^{i theta}$
$lambda_k = root(4)(|mu|) e^{i (theta/4 + (2k pi)/4)}$, $k \in \{ -1, 0, 1, 2 \}$
ovvero $lambda_k$ sono le radici quarte di $mu$.
Si tratta quindi di moltiplicare i seguenti quattro termini:
$M_{-1} = A - root(4)(|mu|) e^{i (theta/4 - pi/2)} I = A + root(4)(|mu|) i e^{i (theta/4)} I$
$M_{0} = A - root(4)(|mu|) e^{i (theta/4)} I$
$M_{1} = A - root(4)(|mu|) e^{i (theta/4 + pi/2)} I = A - root(4)(|mu|) i e^{i (theta/4)} I$
$M_{2} = A - root(4)(|mu|) e^{i (theta/4 + pi)} I = A + root(4)(|mu|) e^{i (theta/4)} I$
Dunque li moltiplico dapprima a coppie:
$M_{-1} M_{1} = A^2 + sqrt(|mu|) e^{i (theta/2)} I$
$M_{0} M_{2} = A^2 - sqrt(|mu|) e^{i (theta/2)} I$
Quindi il prodotto di questi:
$M_{-1} M_{0}M_{1} M_{2} = A^4 - |mu| e^{i theta} I = A^4 - mu I$
Non capisco come il prodotto di due matrici con $lambda_1$ e $lambda_2$ scelti a caso smentisca il calcolo che ho fatto.
La soluzione che proponi sarà sicuramente giusta ma c'è un fatto che non mi è noto, ovvero quando dici che in campo complesso esiste almeno un autovettore $v \in V$ di $A$.
Quello che io so certamente è che esiste un autovettore $v in C^n$ di $A$. La parte che mi manca è che debba esistere $v \in V$ autovettore di $A$. Chiaramente se dai la formulazione del TfA che hai scritto nel post precedente, è una banale conseguenza del TfA, ma non posso usare un teorema che non conosco (a meno di dimostrarlo).
Siano infatti:
$mu = |mu| e^{i theta}$
$lambda_k = root(4)(|mu|) e^{i (theta/4 + (2k pi)/4)}$, $k \in \{ -1, 0, 1, 2 \}$
ovvero $lambda_k$ sono le radici quarte di $mu$.
Si tratta quindi di moltiplicare i seguenti quattro termini:
$M_{-1} = A - root(4)(|mu|) e^{i (theta/4 - pi/2)} I = A + root(4)(|mu|) i e^{i (theta/4)} I$
$M_{0} = A - root(4)(|mu|) e^{i (theta/4)} I$
$M_{1} = A - root(4)(|mu|) e^{i (theta/4 + pi/2)} I = A - root(4)(|mu|) i e^{i (theta/4)} I$
$M_{2} = A - root(4)(|mu|) e^{i (theta/4 + pi)} I = A + root(4)(|mu|) e^{i (theta/4)} I$
Dunque li moltiplico dapprima a coppie:
$M_{-1} M_{1} = A^2 + sqrt(|mu|) e^{i (theta/2)} I$
$M_{0} M_{2} = A^2 - sqrt(|mu|) e^{i (theta/2)} I$
Quindi il prodotto di questi:
$M_{-1} M_{0}M_{1} M_{2} = A^4 - |mu| e^{i theta} I = A^4 - mu I$
Non capisco come il prodotto di due matrici con $lambda_1$ e $lambda_2$ scelti a caso smentisca il calcolo che ho fatto.
La soluzione che proponi sarà sicuramente giusta ma c'è un fatto che non mi è noto, ovvero quando dici che in campo complesso esiste almeno un autovettore $v \in V$ di $A$.
Quello che io so certamente è che esiste un autovettore $v in C^n$ di $A$. La parte che mi manca è che debba esistere $v \in V$ autovettore di $A$. Chiaramente se dai la formulazione del TfA che hai scritto nel post precedente, è una banale conseguenza del TfA, ma non posso usare un teorema che non conosco (a meno di dimostrarlo).
Sulla formula \(\prod (A-\lambda_i I)=A^4-\mu I\) devo riconoscere di essermi sbagliato e hai ragione tu. Mi preoccupavano i termini di grado inferiore a \(4\) in \(A\), ma essi si cancellano. La tua soluzione è corretta.
Quanto al teorema fondamentale dell'algebra, capisco la tua perplessità, ma si tratta di una cosa molto semplice da dimostrare. Supponiamo che \(\phi\colon V\to V\) sia una applicazione lineare sullo spazio vettoriale complesso \(V\), di dimensione finita. Possiamo definire il suo polinomio caratteristico mediante la formula
\[
P(z)=\det(\phi-z I), \]
dove il determinante di una applicazione lineare è, per definizione, il determinante di una qualsiasi delle sue matrici associate. Questo polinomio ha almeno una radice complessa, per il teorema fondamentale dell'algebra. Segue l'esistenza di un autovettore.
Nel caso in questione, l'applicazione lineare è
\[
\phi(v):=Av,\qquad v\in V, \]
dove \(V\) è il \(\mu\)-autospazio di \(A^4\). Dal fatto che \(A(V)\subset V\) segue che \(\phi\) applica \(V\) in sé.
Quanto al teorema fondamentale dell'algebra, capisco la tua perplessità, ma si tratta di una cosa molto semplice da dimostrare. Supponiamo che \(\phi\colon V\to V\) sia una applicazione lineare sullo spazio vettoriale complesso \(V\), di dimensione finita. Possiamo definire il suo polinomio caratteristico mediante la formula
\[
P(z)=\det(\phi-z I), \]
dove il determinante di una applicazione lineare è, per definizione, il determinante di una qualsiasi delle sue matrici associate. Questo polinomio ha almeno una radice complessa, per il teorema fondamentale dell'algebra. Segue l'esistenza di un autovettore.
Nel caso in questione, l'applicazione lineare è
\[
\phi(v):=Av,\qquad v\in V, \]
dove \(V\) è il \(\mu\)-autospazio di \(A^4\). Dal fatto che \(A(V)\subset V\) segue che \(\phi\) applica \(V\) in sé.
Grazie ancora per la spiegazione. Il mio dubbio sorge nel seguente passaggio:
L'esistenza di una radice complessa indica automaticamente l'esistenza di un autovalore in $CC$.
Ma se faccio i calcoli per cercare l'autovettore, chi mi garantisce che questo si trovi in $V$?
La matrice associata a $phi$ dice come si trasformano i vettori di $V$ in altri vettori di $V$, ma non sarebbe possibile applicare la stessa matrice su un dominio più esteso di $V$?
Provo a fare un esempio. Sia $V = \{ (c, 0)^T: c \in C \}$ uno spazio vettoriale.
Consideriamo la matrice $A = ((1, 0),(0, 2))$, che trasforma vettori di $V$ in vettori di $V$. Gli autovalori sono $lambda_1 = 1$ e $lambda_2 = 2$. Eppure facendo i calcoli si vede che un autovettore associato a $lambda_2$ deve avere la prima coordinata nulla, quindi sarebbe il vettore nullo, a meno di cercare fuori da $V$.
Devo ammettere che non sono riuscito a trovare altri controesempi con sottospazi vettoriali ottenuti in maniera meno forzata che annullando una componente, ma il fatto che io non trovi controesempi non è una dimostrazione del fatto che non esistano. Spero di essere riuscito a rendere l'idea del tipo di dubbio che ho.
"dissonance":
Questo polinomio ha almeno una radice complessa, per il teorema fondamentale dell'algebra. Segue l'esistenza di un autovettore.
L'esistenza di una radice complessa indica automaticamente l'esistenza di un autovalore in $CC$.
Ma se faccio i calcoli per cercare l'autovettore, chi mi garantisce che questo si trovi in $V$?
La matrice associata a $phi$ dice come si trasformano i vettori di $V$ in altri vettori di $V$, ma non sarebbe possibile applicare la stessa matrice su un dominio più esteso di $V$?
Provo a fare un esempio. Sia $V = \{ (c, 0)^T: c \in C \}$ uno spazio vettoriale.
Consideriamo la matrice $A = ((1, 0),(0, 2))$, che trasforma vettori di $V$ in vettori di $V$. Gli autovalori sono $lambda_1 = 1$ e $lambda_2 = 2$. Eppure facendo i calcoli si vede che un autovettore associato a $lambda_2$ deve avere la prima coordinata nulla, quindi sarebbe il vettore nullo, a meno di cercare fuori da $V$.
Devo ammettere che non sono riuscito a trovare altri controesempi con sottospazi vettoriali ottenuti in maniera meno forzata che annullando una componente, ma il fatto che io non trovi controesempi non è una dimostrazione del fatto che non esistano. Spero di essere riuscito a rendere l'idea del tipo di dubbio che ho.
Tu non stai applicando il teorema alla matrice \(A\). Tu lo stai applicando all'applicazione lineare
\[
\phi(x):=Ax,\qquad \forall x\in V, \]
che è una mappa \(V\to V\). Il polinomio caratteristico da considerare, quindi, non è \(\det(A-\lambda I)\), ma
\[
\det(B-\lambda I), \]
dove \(I\colon V\to V\) è l'identità e \(B\) è una matrice associata a \(\phi\).
Per esempio, se \(V=\{(z_1, z_2, 0)\}\) e
\[
A=\begin{bmatrix} 1 & 2 & 0 \\ 2& 1& 0 \\ 0 & 0 & 1\end{bmatrix}, \]
allora \(A(V)\subset V\). La matrice associata a \(\phi\) rispetto alla base \(\{(1,0,0), (0,1,0)\}\) è
\[
B=\begin{bmatrix} 1 & 2 \\ 2 & 1\end{bmatrix}. \]
Una base di autovettori di \(B\) è \(\{(1,1), (-1,1)\}\); i corrispondenti autovettori di \(A\) sono
\(\{(1,1,0), (-1,1,0)\}\).
\[
\phi(x):=Ax,\qquad \forall x\in V, \]
che è una mappa \(V\to V\). Il polinomio caratteristico da considerare, quindi, non è \(\det(A-\lambda I)\), ma
\[
\det(B-\lambda I), \]
dove \(I\colon V\to V\) è l'identità e \(B\) è una matrice associata a \(\phi\).
Per esempio, se \(V=\{(z_1, z_2, 0)\}\) e
\[
A=\begin{bmatrix} 1 & 2 & 0 \\ 2& 1& 0 \\ 0 & 0 & 1\end{bmatrix}, \]
allora \(A(V)\subset V\). La matrice associata a \(\phi\) rispetto alla base \(\{(1,0,0), (0,1,0)\}\) è
\[
B=\begin{bmatrix} 1 & 2 \\ 2 & 1\end{bmatrix}. \]
Una base di autovettori di \(B\) è \(\{(1,1), (-1,1)\}\); i corrispondenti autovettori di \(A\) sono
\(\{(1,1,0), (-1,1,0)\}\).
Dunque, provo a colmare alcuni passaggi logici che forse dai per scontati.
Una matrice $A$ di dimensione $n times n$ descrive sempre un endomorfismo $phi: CC^n to CC^n, phi(x) := Ax, AA x in CC^n$. Supponiamo ora che esista $V subset CC^n$, $V$ sottospazio vettoriale proprio di $CC^n$, tale che $A(V) sube V$. Deve quindi esistere una base $\mathcal{B} = \{e_1, ..., e_m, e'_{m+1}, ..., e'_n \}$ di $CC^n$, tale che $\mathcal{B}_V = \{e_1, ..., e_m \}$ sia base di $V$ e $\mathcal{B}'_{cV} = \{ e'_{m+1}, ..., e'_n \}$ sia base del sottospazio complementare di $V$ in $CC^n$. La matrice associata a $phi$ secondo questa base, $A' = PAP^{-1}$, deve essere a blocchi, altrimenti mescolerebbe vettori del sottospazio $V$ e del suo complementare. Dunque l'esistenza di un autovettore in $V$ deriva dall'esistenza di una radice del polinomio caratteristico del suo blocco di matrice.
Una matrice $A$ di dimensione $n times n$ descrive sempre un endomorfismo $phi: CC^n to CC^n, phi(x) := Ax, AA x in CC^n$. Supponiamo ora che esista $V subset CC^n$, $V$ sottospazio vettoriale proprio di $CC^n$, tale che $A(V) sube V$. Deve quindi esistere una base $\mathcal{B} = \{e_1, ..., e_m, e'_{m+1}, ..., e'_n \}$ di $CC^n$, tale che $\mathcal{B}_V = \{e_1, ..., e_m \}$ sia base di $V$ e $\mathcal{B}'_{cV} = \{ e'_{m+1}, ..., e'_n \}$ sia base del sottospazio complementare di $V$ in $CC^n$. La matrice associata a $phi$ secondo questa base, $A' = PAP^{-1}$, deve essere a blocchi, altrimenti mescolerebbe vettori del sottospazio $V$ e del suo complementare. Dunque l'esistenza di un autovettore in $V$ deriva dall'esistenza di una radice del polinomio caratteristico del suo blocco di matrice.
Si, se preferisci la puoi vedere così. Da un punto di vista teorico, non è necessario introdurre basi e matrici, ma se ti fa sentire più sicuro va benissimo come fai.
Sí, in effetti ho qualche difficoltà, ma devo cercare di svincolarmi dalle matrici.
Grazie per i chiarimenti.
Grazie per i chiarimenti.