Autovalori e rango di una matrice sono legati?

mufi91
Salve a tutti,

ho trovato in molti esercizi ,dove mi chiede di trovare autovalori e autovettori di una rappresentazione matriciale di una funzione, di trovare anche il rango ( della rappresentazione matriciale della funzione)

Ad esempio ho una matrice A: 2 1 descritta dalla funzione f(A) := AX-XA con f (A) appartenente allo spazio 2X2
1 2


(Questo esercizio è inventato da me solo per farvi capire cosa intendevo)

Se io mi trovo autovalori e autovettori della matrice che mi descrive la funzione, questi sono in qualche modo legati al rango???


Io ho notato ad esempio, (non so se è semplice fortuna), che il numero di autovalori NON nulli coincide (nei miei esempi fatti) al rango della matrice. Ovviamente quando non ve ne sono o ce n'è solo uno il rango, mi viene in entrambi casi 1.


Grazie della vostra attenzione. Aspetto consigli utili. :D

Risposte
lordb
Il numero degli autovalori non nulli è chiaro che non è detto che coincida con il rango della matrice:

La matrice associata alla trasformazione Identica è $I_n$:

$I_n=((1,0,..,..,..,0),(0,1,..,..,..,0),(..,..,..,..,..,..),(0,0,..,..,1,0),(0,0,..,..,0,1))$

$rank(I_n)=n$

$I_n-lambdaI_n=((1-lambda,0,..,..,..,0),(0,1-lambda,..,..,..,0),(..,..,..,..,..,..),(0,0,..,..,1-lambda,0),(0,0,..,..,0,1-lambda))$

$p(lambda):(1-lambda)^n$

Autovalore: $lambda=1$

$1!=n$.

mufi91
"lordb":
Il numero degli autovalori non nulli è chiaro che non è detto che coincida con il rango della matrice:

La matrice associata alla trasformazione Identica è $I_n$:

$I_n=((1,0,..,..,..,0),(0,1,..,..,..,0),(..,..,..,..,..,..),(0,0,..,..,1,0),(0,0,..,..,0,1))$

$rank(I_n)=n$

$I_n-lambdaI_n=((1-lambda,0,..,..,..,0),(0,1-lambda,..,..,..,0),(..,..,..,..,..,..),(0,0,..,..,1-lambda,0),(0,0,..,..,0,1-lambda))$

$p(lambda):(1-lambda)^n$

Autovalore: $lambda=1$

$1!=n$.






Invece anche nel tuo caso quello che dicevo io corrisponde... Io intendevo siccome il tuo autovalore 1, non nullo compare N volte il rango della matrice è N. Io intendevo in questo caso cioè, il numero di volte che compare un autovalore non nullo!

Scusami tanto, non mi sono spiegata affatto bene!

lordb
Sai che continuo a non capire cosa vuol dire che l'autovalore $1$ compaia $n$-volte?

Forse intendi che la sua molteplicità algebrica è $n$ ?

mufi91
"mufi91":

Grazie della vostra attenzione. Aspetto consigli utili.
"lordb":
Sai che continuo a non capire cosa vuol dire che l'autovalore $1$ compaia $n$-volte?

Forse intendi che la sua molteplicità algebrica è $n$ ?




si, esattamente. Mi spiego meglio,se ad esempio avessi trovato come autovalori : 1,1,2,2,0
in questo caso mi aspetterei che il rank della matrice corrispondente che sia 4.
Potrebbe esserci un legame?

lordb
Ah ok quindi il realtà la tua domanda è questa: (Supponiamo $A_in M_(nxn)(CC)$ )

$rank(A) =^? sum_i ma(lambda_i) | lambda_i!=0$

Dove $ma(lambda_i)$ indica la molteplicità algebrica di $lambda_i$.

Es:

Se il polinomio caratteristico è $p(lambda):(lambda-1)^2*(lambda-3)*lambda$

$sum_i ma(lambda_i) | lambda_i!=0 = ma(1) + ma(3) = 2 +1 = 3$

$rank(A) =^? 3$

Considera i $3$ seguenti risultati: (Supponiamo $A_in M_(nxn)(CC)$ )

1) $p(lambda):a_nlambda^n+a_(n-1)lambda^(n-1)+.....+a_0|a_(i in (0,1,..n))inCC^^a_n!=0$

2) $sum_i ma(lambda_i)=n$

3) $1<=mg(lambda_i)<=ma(lambda_i)<=n$

Abbiamo supposto la matrice a coefficienti complessi in quanto $CC$ è un campo algebricamente chiuso.

Supponiamo di avere $m_(in NN) < n$ autovalori distinti tra i quali uno è $0$.

Allora possiamo scrivere $p(lambda)$ come:

$p(lambda):(lambda_1-z_1)^(i_1)*(lambda_2-z_2)^(i_2)*....(lambda_m-0)^(i_m)|i_(k_(kin(1,...,m)))inCC^(**) ^^ sum_(k=1)^m i_k=n$

Poniamo che:

$sum_(k=1)^(m-1) i_k=n-w|w_(in {1,...,n-1})$ $=>$ $ma(0)=w$

Ricapitoliamo un attimo:

Abbiamo $m$ autovalori distinti.
Uno di questi è $lambda_m=0$ e ha molteplicità algebrica $w$.
I rimanti $m-1$ hanno molteplicità algebrica totale $n-w$.

Ricordiamo il significato degli autovalori:

<< Si dicono autovalori di un endomorfismo $T:CC^n->CC^n$ gli scalari $lambda_i in CC$ tali che: $T(vec v_(inCC^n))=lambda_i*vec v$, ricordando che l'autospazio relativo ad ogni autovalore non può ridursi al sottospazio vettoriale contenente il solo vettore nullo >>.

Ma è vero anche che: $T(vec v)=A*vec v$ se $A$ è la matrice associata a $T$.

Quindi $A*vec v = lambda I_n* vec v => (A-lambdaI_n)*\vec v = vec 0$.

Abbiamo dunque ottenuto un sistema -lineare- con matrice associata $A-lambdaI_n in M_(nxn)(CC)$.

Il corollario di Cramer afferma che:

$rank(A-lambdaI_n)=n$ il sistema ammette unica soluzione: ma è proprio quello che non vogliamo!

Vogliamo dunque che $rank(A-lambdaI_n)
Questa condizione si traduce in: $det(A-lambdaI_n)=0$.

Inoltre si pone $p(lambda):det(A-lambdaI_n)$.

Cosa vuol dire $lambda=0$ autovalore ?

Vuol dire che esistono dei vettori $vec v in CC^n|T(vec v)=0$, ma l'insieme di questi vettori -ovvero l'autospazio $U_(lambda=0)={vec v in CC^n|T(vec v)=0}$- non è altro che il $Ker T$!

Infatti il sistema diventa:

$(A-lambda_(=0))*vec v = vec 0 -> A*vec v = vec 0$

Ricordiamo cosa abbiamo posto:

$ma(0)=w ^^ sum_(i=1)^(m-1)ma(lambda_i)=n-w$

Il teorema fondamentale delle trasformazioni lineari ci dice che:

$dim(Ker T)+dim(Im T)=n$

$dim(Ker T)+rank(A)=n$

$dim(U_(lambda=0))+rank(A)=n$

Ricordiamo che viene definita la molteplicità geometrica di un autovalore come la dimensione dell'autospazio a lui associato, quindi:

$mg(lambda=0)+rank(A)=n$

Quindi $rank(A)=n-mg(lambda=0)$.

La tua ipotesi è:

$rank(A) =^? sum_i ma(lambda_i) | lambda_i!=0$

$rank(A) =^? n- w$

$mg(lambda=0) + n - w =^? n $

$mg(lambda=0) =^? w$

Il risultato 3) ci dice che:

$1<=mg(lambda=0)<=ma(lambda=0)<=n$

$1<=mg(lambda=0)<=w$

Quindi non è assolutamente detto che $mg(lambda=0)=w$ perciò la tua ipotesi è verificata se e solo se $mg(lambda=0)=ma(lambda=0)$.

Esempio:

$A=((1,30,0),(2,60,0),(3,0,0))$

$rank(A)=2$

$p(lambda):(61-lambda)^1*lambda^2$

$sum_i ma(lambda_i) | lambda_i!=0 = ma(61) = 1$

$ 2 != 1$

Spero di essere stato chiaro :-D

mufi91
"lordb":
Ah ok quindi il realtà la tua domanda è questa: (Supponiamo $A_in M_(nxn)(CC)$ )

$rank(A) =^? sum_i ma(lambda_i) | lambda_i!=0$

Dove $ma(lambda_i)$ indica la molteplicità algebrica di $lambda_i$.

Es:

Se il polinomio caratteristico è $p(lambda):(lambda-1)^2*(lambda-3)*lambda$

$sum_i ma(lambda_i) | lambda_i!=0 = ma(1) + ma(3) = 2 +1 = 3$

$rank(A) =^? 3$

Considera i $3$ seguenti risultati: (Supponiamo $A_in M_(nxn)(CC)$ )

1) $p(lambda):a_nlambda^n+a_(n-1)lambda^(n-1)+.....+a_0|a_(i in (0,1,..n))inCC^^a_n!=0$

2) $sum_i ma(lambda_i)=n$

3) $1<=mg(lambda_i)<=ma(lambda_i)<=n$

Abbiamo supposto la matrice a coefficienti complessi in quanto $CC$ è un campo algebricamente chiuso.

Supponiamo di avere $m_(in NN) < n$ autovalori distinti tra i quali uno è $0$.

Allora possiamo scrivere $p(lambda)$ come:

$p(lambda):(lambda_1-z_1)^(i_1)*(lambda_2-z_2)^(i_2)*....(lambda_m-0)^(i_m)|i_(k_(kin(1,...,m)))inCC^(**) ^^ sum_(k=1)^m i_k=n$

Poniamo che:

$sum_(k=1)^(m-1) i_k=n-w|w_(in {1,...,n-1})$ $=>$ $ma(0)=w$

Ricapitoliamo un attimo:

Abbiamo $m$ autovalori distinti.
Uno di questi è $lambda_m=0$ e ha molteplicità algebrica $w$.
I rimanti $m-1$ hanno molteplicità algebrica totale $n-w$.

Ricordiamo il significato degli autovalori:

<< Si dicono autovalori di un endomorfismo $T:CC^n->CC^n$ gli scalari $lambda_i in CC$ tali che: $T(vec v_(inCC^n))=lambda_i*vec v$, ricordando che l'autospazio relativo ad ogni autovalore non può ridursi al sottospazio vettoriale contenente il solo vettore nullo >>.

Ma è vero anche che: $T(vec v)=A*vec v$ se $A$ è la matrice associata a $T$.

Quindi $A*vec v = lambda I_n* vec v => (A-lambdaI_n)*\vec v = vec 0$.

Abbiamo dunque ottenuto un sistema -lineare- con matrice associata $A-lambdaI_n in M_(nxn)(CC)$.

Il corollario di Cramer afferma che:

$rank(A-lambdaI_n)=n$ il sistema ammette unica soluzione: ma è proprio quello che non vogliamo!

Vogliamo dunque che $rank(A-lambdaI_n)
Questa condizione si traduce in: $det(A-lambdaI_n)=0$.

Inoltre si pone $p(lambda):det(A-lambdaI_n)$.

Cosa vuol dire $lambda=0$ autovalore ?

Vuol dire che esistono dei vettori $vec v in CC^n|T(vec v)=0$, ma l'insieme di questi vettori -ovvero l'autospazio $U_(lambda=0)={vec v in CC^n|T(vec v)=0}$- non è altro che il $Ker T$!

Infatti il sistema diventa:

$(A-lambda_(=0))*vec v = vec 0 -> A*vec v = vec 0$

Ricordiamo cosa abbiamo posto:

$ma(0)=w ^^ sum_(i=1)^(m-1)ma(lambda_i)=n-w$

Il teorema fondamentale delle trasformazioni lineari ci dice che:

$dim(Ker T)+dim(Im T)=n$

$dim(Ker T)+rank(A)=n$

$dim(U_(lambda=0))+rank(A)=n$

Ricordiamo che viene definita la molteplicità geometrica di un autovalore come la dimensione dell'autospazio a lui associato, quindi:

$mg(lambda=0)+rank(A)=n$

Quindi $rank(A)=n-mg(lambda=0)$.

La tua ipotesi è:

$rank(A) =^? sum_i ma(lambda_i) | lambda_i!=0$

$rank(A) =^? n- w$

$mg(lambda=0) + n - w =^? n $

$mg(lambda=0) =^? w$

Il risultato 3) ci dice che:

$1<=mg(lambda=0)<=ma(lambda=0)<=n$

$1<=mg(lambda=0)<=w$

Quindi non è assolutamente detto che $mg(lambda=0)=w$ perciò la tua ipotesi è verificata se e solo se $mg(lambda=0)=ma(lambda=0)$.

Esempio:

$A=((1,30,0),(2,60,0),(3,0,0))$

$rank(A)=2$

$p(lambda):(61-lambda)^1*lambda^2$

$sum_i ma(lambda_i) | lambda_i!=0 = ma(61) = 1$

$ 2 != 1$

Spero di essere stato chiaro :-D





Ti ringrazio immensamente la tua risposta è completa e ricca di esempi :D

ormai ti chiedo l'ultima curiosità;dunque secondo te è impossibile capire il rank di una matrice , dalla teoria spettrale della stessa?

ZeroMemory
Se $f:V->V$ è un endomorfismo di $V$ k-spazio vettoriale e $lambda in K$, l'autospazio relativo a $lambda$ è

$E_{lambda}={v in V | f(v)= lambda v}$

(risulterà non banale se e solo se $lambda$ è autovalore di $f$).

Se consideri $lambda=0$ magicamente si ottiene

$E_0={v in V | f(v)=0v=0}$, e risulta essere proprio $Ker(f)$. Quindi abbiamo che

1) un endomorfismo è non singolare (ha kernel banale) se e solo se non ha $0$ come autovalore
2) la dimensione del kernel di un endomorfismo è esattamente la molteplicità geometrica di $0$

Per concludere basta ricordare che $dim(Ker(f)) + rk(f) = dim(V)$

dissonance
Queste cose si capiscono bene con la forma normale di Jordan. Comunque sono d'accordo con i risultati di lordb e ZeroMemory (però, lordb, dovresti cercare di essere più sintetico).

lordb
@dissonance si lo so, il fatto è che a volte mi domando: << E se non si ricordasse questo risultato/definizione?>>/ <>... quindi alla fine mi ritrovo a scrivere anche qualche cosina di teoria. Alla fin fine un ripassone fa bene a tutti :-D

dissonance
"lordb":
Alla fin fine un ripassone fa bene a tutti :-D

A te che scrivi può fare bene, su questo sono d'accordo. Al topic in generale no. Più vado avanti e più mi rendo conto che bisogna sempre cercare di dire quanto necessario, non di più. Pure io tempo fa usavo scrivere post chilometrici in cui riepilogavo la teoria, sottolineavo dettagli imprescindibili, facevo richiami, ogni sorta di divagazione. Oggi invece cerco di essere un po' più sintetico: non so con quali risultati, ma ho deciso di provarci. Questo perché ogni volta che ho visto matematici di livello superiore ho sempre osservato in loro una capacità di sintesi. Anche sul forum puoi osservare qualcosa del genere: dai un'occhiata ai post di Rigel, per esempio.

My 2 cents

lordb
Capisco, mi sa che hai ragione tu... vedrò di ravvedermi :)

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.