Dimostrazione: det=0 implica matrice non invertibile
in realtà devo dimostrare il contrario.
matrice $A$ con det diverso da 0 allora implica l'esistenza della matrice $A^-1$
ho pensato e ho provato a fare nel seguente modo
1)determinante =0 implica vettori linearmente dipendenti.
considero per semplicità una matrice 2x2 il ragionamento si può estendere credo a qualsiasi matrice quadrata.
considero quinla la matrice generica composta dai vettori $(a,b)$ e $(c,d)$ è la moltiplico per la matrice che ha come vettori (e,f) e (g,h)(sfruttando la definizione di matrice invertibile $A*A^-1=I$ moltiplico quindi secondo le regole del calcolo matriciale e ottengo un sistema ora questo sistema mi deve dare soluzioni solo se $ad=bc$ ma non riesco a risolverlo
come potrei fare?
grazie
matrice $A$ con det diverso da 0 allora implica l'esistenza della matrice $A^-1$
ho pensato e ho provato a fare nel seguente modo
1)determinante =0 implica vettori linearmente dipendenti.
considero per semplicità una matrice 2x2 il ragionamento si può estendere credo a qualsiasi matrice quadrata.
considero quinla la matrice generica composta dai vettori $(a,b)$ e $(c,d)$ è la moltiplico per la matrice che ha come vettori (e,f) e (g,h)(sfruttando la definizione di matrice invertibile $A*A^-1=I$ moltiplico quindi secondo le regole del calcolo matriciale e ottengo un sistema ora questo sistema mi deve dare soluzioni solo se $ad=bc$ ma non riesco a risolverlo
come potrei fare?
grazie
Risposte
penso di aver sbagliato sezione...spostate voi o faccio io?
up
Che se $detA=0$ non esista $A^-1$ è semplice a dimostrarsi:
per le proprietà del determinante nel prodotto: $AB=C=>|A||B|=|C|$;
allora poichè $"A"A^-1=I=>|A||A^-1|=1,|A^-1|=1/(|A|)$, ed allora
non esiste $A^-1$ se $|A|=0$.
Per dimostrare che esiste ed è unica $A^-1$ se $|A|!=0$, considera
il sistema lineare quadrato $A(A^-1)_j="e"_j$, dove $(A^-1)_j$ è la $j$-esima colonna di $A^-1$ ed $"e"_j$ il
vettore "canonico" che ha tutte componenti nulle tranne la $j$-esima che è $1$.
Se $|A|!=0$ la soluzione esiste ed è unica.
Così esiste $A^-1$ tale che $"A"A^-1=I$
per le proprietà del determinante nel prodotto: $AB=C=>|A||B|=|C|$;
allora poichè $"A"A^-1=I=>|A||A^-1|=1,|A^-1|=1/(|A|)$, ed allora
non esiste $A^-1$ se $|A|=0$.
Per dimostrare che esiste ed è unica $A^-1$ se $|A|!=0$, considera
il sistema lineare quadrato $A(A^-1)_j="e"_j$, dove $(A^-1)_j$ è la $j$-esima colonna di $A^-1$ ed $"e"_j$ il
vettore "canonico" che ha tutte componenti nulle tranne la $j$-esima che è $1$.
Se $|A|!=0$ la soluzione esiste ed è unica.
Così esiste $A^-1$ tale che $"A"A^-1=I$
grazie per la risposta.
se non sbaglio qui hai utilizzato il teorema di Binet.
a me però non interessa binet,primo: perchè su internet non riesco a trovare una dimostrazione seria di questo teorema, secondo: vorrei sapere se la mia dimostrazione può andare..anche se ovviamente è un po dispendiosa.
grazie di nuovo
se non sbaglio qui hai utilizzato il teorema di Binet.
a me però non interessa binet,primo: perchè su internet non riesco a trovare una dimostrazione seria di questo teorema, secondo: vorrei sapere se la mia dimostrazione può andare..anche se ovviamente è un po dispendiosa.
grazie di nuovo
Se $ad=bc$, come dici, il determinante è $0$ ed
il sistema è impossibile.
provalo, ma considera bene qual'è la matrice dei coefficienti
del tuo sistema: è un sistema $4x4$.
il sistema è impossibile.
provalo, ma considera bene qual'è la matrice dei coefficienti
del tuo sistema: è un sistema $4x4$.
si il sistema da soluzioni solo se $ad-bc!=0$, devo quindi verificare che i due vettori non siano linearmente dipendeti.
solo che mi blocco di fronte al sistema
solo che mi blocco di fronte al sistema
Puoi prenderla così:
Il prodotto tra matrici quadrate $AB=C$
vuol dire che ogni colonna di $B$ è composta dai pesi di una combinazione lineare delle colonne di $A$ per dare una colonna di $C$.
Se $|A|=0$ gli $n$ vettori colonne di $A$ non sono tutti linearmente indipendenti.
Se i vettori di $C$ sono linearmente indipendenti allora NON esiste la matrice $B$, perchè
$m
Il prodotto tra matrici quadrate $AB=C$
vuol dire che ogni colonna di $B$ è composta dai pesi di una combinazione lineare delle colonne di $A$ per dare una colonna di $C$.
Se $|A|=0$ gli $n$ vettori colonne di $A$ non sono tutti linearmente indipendenti.
Se i vettori di $C$ sono linearmente indipendenti allora NON esiste la matrice $B$, perchè
$m
si certo grazie. stavo pensando ad un'altra cosa, e vorrei la conferma da te.
due matrici se ridotte a scala e moltiplicate danno sempre una matrice a scala giusto?
come si può dimostrare questa cosa? se riesco a dimostrare questo allora penso di riusciere a dimostrare anche il teorema sopra.
due matrici se ridotte a scala e moltiplicate danno sempre una matrice a scala giusto?
come si può dimostrare questa cosa? se riesco a dimostrare questo allora penso di riusciere a dimostrare anche il teorema sopra.
Scusate se mi intrometto, provo a darti un'idea su come risolverlo in maniera diversa.
Come hai giustamente detto, $det = 0$ vuol dire colonne linearmente dipendenti.
Per cui ti chiedo: se hai un sistema fatto così $Ax = 0$ con x che ovviamente appartiene al nucleo, cosa succede se puoi moltiplicare a sinistra per $A^-1$?
Succede che quel vettore x ti si riduce al solo vettore nullo. Per cui se esiste $A^-1$, allora il nucleo è composto dal solo vettore nullo (in particolare il determinante è diverso da 0).
Partendo da questo spunto, sai indicare l'altra freccia della doppia implicazione? (perché quella che hai detto è proprio una doppia implicazione!)
Come hai giustamente detto, $det = 0$ vuol dire colonne linearmente dipendenti.
Per cui ti chiedo: se hai un sistema fatto così $Ax = 0$ con x che ovviamente appartiene al nucleo, cosa succede se puoi moltiplicare a sinistra per $A^-1$?
Succede che quel vettore x ti si riduce al solo vettore nullo. Per cui se esiste $A^-1$, allora il nucleo è composto dal solo vettore nullo (in particolare il determinante è diverso da 0).
Partendo da questo spunto, sai indicare l'altra freccia della doppia implicazione? (perché quella che hai detto è proprio una doppia implicazione!)
vai tranquillo borador...ogni altra opinione è ben accetta(non che quelle di orazioster non siano valide..)
tu quindi dici giustamente che per l'esistenza dell'inversa ker(A) deve essere vuoto.
non capisco però cosa tu voglia intendere nella tua ultima frase.
su queste uguaglianze(ker=0 $det!=0$ ecc) siamo daccordo tutti penso..
il problema nasce quando si cerca di fare una dimostrazione seria,
ora con il teorema di binet si può fare ed è carina, voglio però sapere se il mio modo (in alto) può andare bene. e sopratutto come proseguire.
grazie comunque per la risposta
tu quindi dici giustamente che per l'esistenza dell'inversa ker(A) deve essere vuoto.
non capisco però cosa tu voglia intendere nella tua ultima frase.
su queste uguaglianze(ker=0 $det!=0$ ecc) siamo daccordo tutti penso..
il problema nasce quando si cerca di fare una dimostrazione seria,
ora con il teorema di binet si può fare ed è carina, voglio però sapere se il mio modo (in alto) può andare bene. e sopratutto come proseguire.
grazie comunque per la risposta
nessuno che vuole partecipare alla discussione? peccato mi stava piacendo dibattere...
Ciao! Sono il tuo Tutor AI, il compagno ideale per uno studio interattivo. Utilizzo il metodo maieutico per affinare il tuo ragionamento e la comprensione. Insieme possiamo:
- Risolvere un problema di matematica
- Riassumere un testo
- Tradurre una frase
- E molto altro ancora...
Il Tutor AI di Skuola.net usa un modello AI di Chat GPT.
Per termini, condizioni e privacy, visita la relativa pagina.
Per termini, condizioni e privacy, visita la relativa pagina.