Indipendenza dei vettori di una catena
Ho tentato di dimostrare autonomamente questo risultato che non trovo da nessuna parte.
Sia $w_1,...,w_d$ una catena di autovettori generalizzati relativi a $lambda$
Tali che $w_k=(A-lambdaI_n)^(d-k)v forallk=1,...,d,Aw_1=lambdaw_1$ Allora:
$sum_(j=1)^(d)lambda_jw_j=0<=>lambdaj=0forallj=1,...,d$
Ora $sum_(j=1)^(d)lambda_jw_j=vsum_(j=1)^(d)lambda_j(A-lambdaI_n)^(d-j)=0$
Prendo $v ne0_v$ segue deve essere $0=sum_(j=1)^(d)lambda_j(A-lambdaI_n)^(d-j)$
Ovvero $lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)(A-lambda)+lambda_d=0$
Ovviamente tutte queste potenze di matrici sono non nulle poiché $d=min{n inNN:(A-lambdaI_n)^nv=0}$
Supponiamo per assurdo che sia $v_dne0$
Allora $-lambda_d=sum_(j=1)^(d-1)lambda_j(A-lambdaI_n)^(d-j)$
Da qui si ottiene la contraddizione poiché $lambda$ è uno scalare e non può essere scritto come somma di matrici.
Naturalmente suppongo che le matrici non siano quelle $1x1$.
Quindi $lambda_d=0$
Otterrei dunque $lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)(A-lambda)=0$
Ovvero $(A-lambda)[lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)]=0$
$(A-lambda)$ non è la matrice nulla e dunque di conseguenza otteniamo di nuovo una scrittura simile a quella di prima. Da cui supponendo che sia $lambda_(d-1)ne0$ si ottiene un altro assurdo.
Iterando questo procedimento esattamente $d$ volte otteniamo che tutti gli scalari sono nulli e quindi che i vettori sono effettivamente linearmente indipendenti
Sia $w_1,...,w_d$ una catena di autovettori generalizzati relativi a $lambda$
Tali che $w_k=(A-lambdaI_n)^(d-k)v forallk=1,...,d,Aw_1=lambdaw_1$ Allora:
$sum_(j=1)^(d)lambda_jw_j=0<=>lambdaj=0forallj=1,...,d$
Ora $sum_(j=1)^(d)lambda_jw_j=vsum_(j=1)^(d)lambda_j(A-lambdaI_n)^(d-j)=0$
Prendo $v ne0_v$ segue deve essere $0=sum_(j=1)^(d)lambda_j(A-lambdaI_n)^(d-j)$
Ovvero $lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)(A-lambda)+lambda_d=0$
Ovviamente tutte queste potenze di matrici sono non nulle poiché $d=min{n inNN:(A-lambdaI_n)^nv=0}$
Supponiamo per assurdo che sia $v_dne0$
Allora $-lambda_d=sum_(j=1)^(d-1)lambda_j(A-lambdaI_n)^(d-j)$
Da qui si ottiene la contraddizione poiché $lambda$ è uno scalare e non può essere scritto come somma di matrici.
Naturalmente suppongo che le matrici non siano quelle $1x1$.
Quindi $lambda_d=0$
Otterrei dunque $lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)(A-lambda)=0$
Ovvero $(A-lambda)[lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)]=0$
$(A-lambda)$ non è la matrice nulla e dunque di conseguenza otteniamo di nuovo una scrittura simile a quella di prima. Da cui supponendo che sia $lambda_(d-1)ne0$ si ottiene un altro assurdo.
Iterando questo procedimento esattamente $d$ volte otteniamo che tutti gli scalari sono nulli e quindi che i vettori sono effettivamente linearmente indipendenti
Risposte
Ciao!
E' legale quello che hai fatto? cioè tu hai "raccolto" un vettore fuori dalla sommatoria, ma non mi sembra molto corretto! I termini della sommatoria sono $\lambda_h(A-\lambda)^(d-j)(v)$ cioè uno scalare per il trasformato di $v$ mediante la matrice, cosa vuol dire portare fuori $v$?
Perché? La parte della sommatoria non è mica uno scalare.
Perché? Perché otteniamo una scrittura simile a prima?
"anto_zoolander":
Ho tentato di dimostrare autonomamente questo risultato che non trovo da nessuna parte.
Sia $w_1,...,w_d$ una catena di autovettori generalizzati relativi a $lambda$
Tali che $w_k=(A-lambdaI_n)^(d-k)v forallk=1,...,d,Aw_1=lambdaw_1$ Allora:
$sum_(j=1)^(d)lambda_jw_j=0<=>lambdaj=0forallj=1,...,d$
Ora $sum_(j=1)^(d)lambda_jw_j=vsum_(j=1)^(d)lambda_j(A-lambdaI_n)^(d-j)=0$
E' legale quello che hai fatto? cioè tu hai "raccolto" un vettore fuori dalla sommatoria, ma non mi sembra molto corretto! I termini della sommatoria sono $\lambda_h(A-\lambda)^(d-j)(v)$ cioè uno scalare per il trasformato di $v$ mediante la matrice, cosa vuol dire portare fuori $v$?
Prendo $v ne0_v$ segue deve essere $0=sum_(j=1)^(d)lambda_j(A-lambdaI_n)^(d-j)$
Perché? La parte della sommatoria non è mica uno scalare.
Ovvero $(A-lambda)[lambda_1(A-lambda)^(d-1)+...+lambda_(d-1)]=0$
$(A-lambda)$ non è la matrice nulla e dunque di conseguenza otteniamo di nuovo una scrittura simile a quella di prima.
Perché? Perché otteniamo una scrittura simile a prima?
Ciao Shocker 
Si hai ragione, nemmeno a me la cosa ha convinto più di tanto.
Ero di fretta ed ero diventato illegale
Penso che potrei giustificare quasi tutto ma la dimostrazione non mi piace per niente, sopratutto perché non mi convinceva già dall'inizio. 'Giocando' mi è saltata un'idea in testa che sembra legale.
Comincio mostrando:
$v inKer(A-lambda)^k<=>(A-lambda)v inKer(A-lambda)^(k-1)$
Diciamo che la seconda è ovvia per un fatto più generale.
Ovvero che $Ker(B^n)subseteqKer(B^(n+1))$
Se $v inKer(B^n)=>B^nv=0$ dunque,
$B^(n+1)v=B(B^nv)=B0=0=>vinKer(B^(n+1))$
La prima è altrettanto ovvia
Se $v inKer(A-lambda)^k=>(A-lambda)v=0$ dunque,
$(A-lambda)^(k-1)[(A-lambda)v]=(A-lambda)^kv=0$
Questo a che mi serve? Con questo so che una catena intera appartiene, per così dire, all'ultimo nucleo della successione: $Ker(A-lambda)^d$
Ora so che $d=min{n inNN:(A-lambda)^nv=0}$
Ora posso cominciare la dimostrazione che mi serve
Prendo $w_d inKer(A-lambda)^d-Ker(A-lambda)^(d-1)$
E costruisco la catena $w_(j-1)=(A-lambda)w_j,forallj=2,...,d$
questo mi assicura $v$ appartiene solo a $Ker(A-lambda)^d$
$lambda_1w_1+...+lambda_dw_d=0$
Supponiamo per assurdo che sia $lambda_dne0$
Allora $w_d=a_1w_1+...+a_(d-1)w_(d-1),a_j=-lambda_j/lambda_d$,
$w_dinW_1=$ ma $W_1subsetKer(A-lambda)^(d-1)$ e quindi anche $w_d$ vi appartiene, che contraddice l'ipotesi che non gli appartenesse. Dunque $lambda_d=0$
Ora $lambda_1w_1+...+lambda_(d-1)w_(d-1)=0$
$w_(d-1)$ appartiene soltanto a $Ker(A-lambda)^(d-1),Ker(A-lambda)^d$
Questo punto non l'ho ben chiarito, lo esprimo meglio a mente fresca.
Dunque supponendo per assurdo che sia $lambda_(d-1)ne0$ si avrebbe che,
$w_(d-1)inW_2=$ ma $W_2subsetKer(A-lambda)^(d-2)$ e quindi anche $w_(d-1)$ gli appartiene, che contraddice l'ipotesi che non gli appartenesse. Dunque ancora $lambda_(d-1)=0$
Iterando questo procedimento otteniamo che tutti gli scalari sono nulli e quindi i vettori sono linearmente indipendenti.
Questa mi sembra abbastanza convincente.

Si hai ragione, nemmeno a me la cosa ha convinto più di tanto.
Ero di fretta ed ero diventato illegale

Penso che potrei giustificare quasi tutto ma la dimostrazione non mi piace per niente, sopratutto perché non mi convinceva già dall'inizio. 'Giocando' mi è saltata un'idea in testa che sembra legale.
Comincio mostrando:
$v inKer(A-lambda)^k<=>(A-lambda)v inKer(A-lambda)^(k-1)$
Diciamo che la seconda è ovvia per un fatto più generale.
Ovvero che $Ker(B^n)subseteqKer(B^(n+1))$
Se $v inKer(B^n)=>B^nv=0$ dunque,
$B^(n+1)v=B(B^nv)=B0=0=>vinKer(B^(n+1))$
La prima è altrettanto ovvia
Se $v inKer(A-lambda)^k=>(A-lambda)v=0$ dunque,
$(A-lambda)^(k-1)[(A-lambda)v]=(A-lambda)^kv=0$
Questo a che mi serve? Con questo so che una catena intera appartiene, per così dire, all'ultimo nucleo della successione: $Ker(A-lambda)^d$
Ora so che $d=min{n inNN:(A-lambda)^nv=0}$
Ora posso cominciare la dimostrazione che mi serve
Prendo $w_d inKer(A-lambda)^d-Ker(A-lambda)^(d-1)$
E costruisco la catena $w_(j-1)=(A-lambda)w_j,forallj=2,...,d$
questo mi assicura $v$ appartiene solo a $Ker(A-lambda)^d$
$lambda_1w_1+...+lambda_dw_d=0$
Supponiamo per assurdo che sia $lambda_dne0$
Allora $w_d=a_1w_1+...+a_(d-1)w_(d-1),a_j=-lambda_j/lambda_d$,
$w_dinW_1=
Ora $lambda_1w_1+...+lambda_(d-1)w_(d-1)=0$
$w_(d-1)$ appartiene soltanto a $Ker(A-lambda)^(d-1),Ker(A-lambda)^d$
Questo punto non l'ho ben chiarito, lo esprimo meglio a mente fresca.
Dunque supponendo per assurdo che sia $lambda_(d-1)ne0$ si avrebbe che,
$w_(d-1)inW_2=
Iterando questo procedimento otteniamo che tutti gli scalari sono nulli e quindi i vettori sono linearmente indipendenti.
Questa mi sembra abbastanza convincente.
Ciao!
Adesso andiamo meglio!
La dimostrazione mi sembra corretta,
A me sembra tu l'abbia giustificato bene, cosa ti sembra poco chiaro?
Comunque adesso vado di fretta, più tardi(o domani) posto qualche cosa in più.
Ciao
Adesso andiamo meglio!
La dimostrazione mi sembra corretta,
"anto_zoolander":
$ w_(d-1) $ appartiene soltanto a $ Ker(A-lambda)^(d-1),Ker(A-lambda)^d $
Questo punto non l'ho ben chiarito, lo esprimo meglio a mente fresca.
A me sembra tu l'abbia giustificato bene, cosa ti sembra poco chiaro?
Comunque adesso vado di fretta, più tardi(o domani) posto qualche cosa in più.
Ciao

Grazie Shocker 
Diciamo che non mi era chiaro perché non lo avevo dimostrato.
Però poi ho pensato che deve essere così.
definito $d=min{...}$ so che $(A-lambda)^(d-1)vne0$
Se $(A-lambda)v in Ker(A-lambda)^(d-2)=>(A-lambda)^(d-2)(A-lambda)v=(A-lambda)^(d-1)v=0$ Ovvero l'assurdo che cercavo.
Tra l'altro da questo discende in maniera naturale che esiste almeno un blocco di Jordan di ordine $d$ poiché c'è almeno una catena di $d$ autovettori generalizzati relativi all'autovalore $lambda$
Poi se esistono $k$ catene di lunghezze $l_1,...,l_k$ vorrà dire che ci saranno $k$ blocchi di Jordan relativi all'autovalore $lambda$ i cui ordini saranno $l_1,...,l_k$ e l'ordine totale sarà $sum_(j=1)^(k)l_k$
Inoltre $d$ è il massimo ordine di un blocco di Jordan presente nella forma canonica. Perché se così non fosse esisterebbe una catena più lunga, ma abbiamo supposto che da $d$ in poi i nuclei coincidano. E quindi palo.
Dunque una volta trovato $d$ troverò almeno un blocco di Jordan di ordine $d$ ora vorrei usare questo risultato per arrivare al fatto che la molteplicità algebra di un autovalore è uguale alla somma dei blocchi di Jordan relativi a quell'autovalore.

Diciamo che non mi era chiaro perché non lo avevo dimostrato.
Però poi ho pensato che deve essere così.
definito $d=min{...}$ so che $(A-lambda)^(d-1)vne0$
Se $(A-lambda)v in Ker(A-lambda)^(d-2)=>(A-lambda)^(d-2)(A-lambda)v=(A-lambda)^(d-1)v=0$ Ovvero l'assurdo che cercavo.
Tra l'altro da questo discende in maniera naturale che esiste almeno un blocco di Jordan di ordine $d$ poiché c'è almeno una catena di $d$ autovettori generalizzati relativi all'autovalore $lambda$
Poi se esistono $k$ catene di lunghezze $l_1,...,l_k$ vorrà dire che ci saranno $k$ blocchi di Jordan relativi all'autovalore $lambda$ i cui ordini saranno $l_1,...,l_k$ e l'ordine totale sarà $sum_(j=1)^(k)l_k$
Inoltre $d$ è il massimo ordine di un blocco di Jordan presente nella forma canonica. Perché se così non fosse esisterebbe una catena più lunga, ma abbiamo supposto che da $d$ in poi i nuclei coincidano. E quindi palo.
Dunque una volta trovato $d$ troverò almeno un blocco di Jordan di ordine $d$ ora vorrei usare questo risultato per arrivare al fatto che la molteplicità algebra di un autovalore è uguale alla somma dei blocchi di Jordan relativi a quell'autovalore.
Ciao!
Le osservazioni che hai fatto sono tutte corrette, da queste puoi benissimo dedurre come si costruisce la forma di jordan di un endomorfismo triangolabile e come si trova una base di Jordan. Oh e chiaramente il numero totale di blocchi di Jordan relativo a $\lambda$ è data dalla dimensione dell'autospazio relativo a $\lambda$
Per quanto riguarda questa affermazione
Beh sia $f$ un endomorfismo triangolabile, supponiamo che la parte della forma di jordan di $f$ relativa a un autovalore $\lambda \in Spf$ sia del tipo [tex]\left[\begin{array}{cc} \begin{array}{cc} J(\lambda, n_1) & \\ & J(\lambda, n_2) \end{array} & 0 \\ 0 & \begin{array}{cc} \ddots & \\ & J(\lambda, n_t) \end{array} \end{array}\right][/tex], dove $n_1 + ... + n_t = dimKer(f-\lambdaid)^d$, con $d = min{ k | Ker(f-\lambdaid)^k = Ker(f-\lambdaId)^(k+1)}$ e $J(\lambda, n_i)$ è un blocco di jordan relativo a $\lambda$ di dimensione $n_i$(gli $n_i$ non sono necessariamente tutti distinti). Qual è il polinomio caratteristico di questa matrice?
Le osservazioni che hai fatto sono tutte corrette, da queste puoi benissimo dedurre come si costruisce la forma di jordan di un endomorfismo triangolabile e come si trova una base di Jordan. Oh e chiaramente il numero totale di blocchi di Jordan relativo a $\lambda$ è data dalla dimensione dell'autospazio relativo a $\lambda$

Per quanto riguarda questa affermazione
"anto_zoolander":
Dunque una volta trovato $ d $ troverò almeno un blocco di Jordan di ordine $ d $ ora vorrei usare questo risultato per arrivare al fatto che la molteplicità algebra di un autovalore è uguale alla somma dei blocchi di Jordan relativi a quell'autovalore.
Beh sia $f$ un endomorfismo triangolabile, supponiamo che la parte della forma di jordan di $f$ relativa a un autovalore $\lambda \in Spf$ sia del tipo [tex]\left[\begin{array}{cc} \begin{array}{cc} J(\lambda, n_1) & \\ & J(\lambda, n_2) \end{array} & 0 \\ 0 & \begin{array}{cc} \ddots & \\ & J(\lambda, n_t) \end{array} \end{array}\right][/tex], dove $n_1 + ... + n_t = dimKer(f-\lambdaid)^d$, con $d = min{ k | Ker(f-\lambdaid)^k = Ker(f-\lambdaId)^(k+1)}$ e $J(\lambda, n_i)$ è un blocco di jordan relativo a $\lambda$ di dimensione $n_i$(gli $n_i$ non sono necessariamente tutti distinti). Qual è il polinomio caratteristico di questa matrice?
Ciao! 
Giustamente il polinomio sarà $P(lambda)=prod_(j=1)^(t)(lambda_0-lambda)^(n_j)$
E dal fatto che due matrici simili hanno lo stesso polinomio caratteristico, deve essere vero che:
$dimKer(A-lambda_0)^d=sum_(j=1)^(t)n_j=m_a(lambda_0)$

Giustamente il polinomio sarà $P(lambda)=prod_(j=1)^(t)(lambda_0-lambda)^(n_j)$
E dal fatto che due matrici simili hanno lo stesso polinomio caratteristico, deve essere vero che:
$dimKer(A-lambda_0)^d=sum_(j=1)^(t)n_j=m_a(lambda_0)$

Beh hai concluso, no?

A quanto pare 
Grazie

Grazie
