Esercizio teorico matrici idempotenti
Salve a tutti, non riesco a trovare un modo di dimostrare questo:
data la matrice $A$, dimostrare che se vale $A^2$ = $A$ e $A$ ≠ $I$ $rArr$ determinante($A$) = 0
Io sono riuscito a dimostrare, tramite il teorema di Binet, che se $A^2$ = $A$ allora determinante($A$) = 0 oppure 1.
Come faccio a dire che se $A$ ≠ $I$ allora determinante($A$) = 0 ?
Grazie!
data la matrice $A$, dimostrare che se vale $A^2$ = $A$ e $A$ ≠ $I$ $rArr$ determinante($A$) = 0
Io sono riuscito a dimostrare, tramite il teorema di Binet, che se $A^2$ = $A$ allora determinante($A$) = 0 oppure 1.
Come faccio a dire che se $A$ ≠ $I$ allora determinante($A$) = 0 ?
Grazie!
Risposte
Ciao. Non sono sicuro ma si potrebbe provare per assurdo.
Supponiamo che, essendo $A!=I$, sia $Det(A)!=0$; allora $A$ è invertibile, sia $A^(-1)$ l'inversa; prendendo l'uguaglianza $A^2=A$ e moltiplicando a sinistra (o a destra, equivalentemente) ambo i membri per $A^(-1)$ ottieni:
$A^(-1)A^2=A^(-1)A$__$\Rightarrow$__$(A^(-1)A) A=I$__$\Rightarrow$__$IA=I$__, cioè__$A=I$__, contro l'ipotesi $A!=I$. Può funzionare?
Supponiamo che, essendo $A!=I$, sia $Det(A)!=0$; allora $A$ è invertibile, sia $A^(-1)$ l'inversa; prendendo l'uguaglianza $A^2=A$ e moltiplicando a sinistra (o a destra, equivalentemente) ambo i membri per $A^(-1)$ ottieni:
$A^(-1)A^2=A^(-1)A$__$\Rightarrow$__$(A^(-1)A) A=I$__$\Rightarrow$__$IA=I$__, cioè__$A=I$__, contro l'ipotesi $A!=I$. Può funzionare?
No ma aspetta.. c'è qualcosa che non quadra.. non capisco la parte "essendo $A≠I$ , sia $Det(A)≠0$". perchè se $A≠I$ allora $Det(A)≠0$ ??
Ciao. Tu volevi dimostrare che se $A!=I$ allora è necessariamente $Det(A)=0$. Io ti ho fatto vedere, almeno mi sembra, che se $Det(A)!=0$ allora è necessariamente $A=I$. Altrimenti detto: l'unica $A$ con determinante diverso da zero è $I$. Mi pare equivalente.
@Palliit: mi pare che possa andar bene.
Oppure: il prodotto tra matrici gode della proprietà distributiva rispetto alla somma, quindi se \(\displaystyle A^{2} - A=0_{n} \), allora \(\displaystyle A(A-\mathbb{1}_{n})=0\) e possiamo avere i seguenti casi:
1. \(\displaystyle A = \mathcal{1}_{n} \), ma è escluso dalle ipotesi;
2. \(\displaystyle A=0_{n} \quad \Rightarrow \quad \text{det} \ A=0 \);
3. \(\displaystyle A \ne 0_{n} \) (non siamo in un dominio di integrità); in questo caso le colonne di \(\displaystyle A - \mathbb{1}_{n} \) devono essere per forza delle combinazioni lineari dei vettori di una base di \(\displaystyle \text{ker} \ A \); ma se \(\displaystyle A \) ammette un nucleo significa che non ha rango massimo, il che implica che \(\displaystyle \text{det} \ A=0 \).
Oppure: il prodotto tra matrici gode della proprietà distributiva rispetto alla somma, quindi se \(\displaystyle A^{2} - A=0_{n} \), allora \(\displaystyle A(A-\mathbb{1}_{n})=0\) e possiamo avere i seguenti casi:
1. \(\displaystyle A = \mathcal{1}_{n} \), ma è escluso dalle ipotesi;
2. \(\displaystyle A=0_{n} \quad \Rightarrow \quad \text{det} \ A=0 \);
3. \(\displaystyle A \ne 0_{n} \) (non siamo in un dominio di integrità); in questo caso le colonne di \(\displaystyle A - \mathbb{1}_{n} \) devono essere per forza delle combinazioni lineari dei vettori di una base di \(\displaystyle \text{ker} \ A \); ma se \(\displaystyle A \) ammette un nucleo significa che non ha rango massimo, il che implica che \(\displaystyle \text{det} \ A=0 \).
ah adesso ho capito, dovevo aver interpretato male la tua scrittura! Comunque mi sembra giusto il ragionamento, non mi era venuto in mente di dimostrarlo usando l'inversa! Ti ringrazio!
Prego, ciao