Matrice identica

silvia851-votailprof
Allora vi spiego il mio dubbio......ho una matrice A 3x3......ho la sua matrice aggiunta.......e le formule mi dicono che la mtrice A per la sua aggiunta (se è esatta) mi dovrebbero dare l'identica....l'unica cosa che mi sfugge è come faccio a calcolarmi questa identica....

mi spiego meglio:

$A=((1,0,-2),(3,-1,0),(-1,0,1))$

$A^a=((-1,0,-2),(-3,-1,-6),(-1,0,-1))$

adesso voglio verificare che $A A^a=A^aA=I$
vorrei proprio capire il calcolo matematico, potete aiutarmi?

[xdom="Martino"]Ho messo il titolo in minuscolo, come da regolamento. Attenzione in futuro, grazie.[/xdom]

Risposte
silvia851-votailprof
ma facendo il prodotto di queste matrici che fine fanno i segni????

gio73
Vorrei aiutarti, ma sono fortemente impreparata. Se ti faccio delle domande banalissime puoi provare a rispondermi?
Se sì procedo, altrimenti come non scritto.

silvia851-votailprof
prova....anch'io non è che sono proprio cosi preparata!!!!!! :)

gio73
D'accordo allora le domande sono queste:
I) come è fatta la matrice identità?
II)come si fa a fare il prodotto di due matrici? AxB? Vale la proprietà commutativa? AxB=BxA?
III) Cosa succede se moltiplico una matrice per se stessa?

silvia851-votailprof
"gio73":
D'accordo allora le domande sono queste:
I) come è fatta la matrice identità?
II)come si fa a fare il prodotto di due matrici? AxB? Vale la proprietà commutativa? AxB=BxA?
III) Cosa succede se moltiplico una matrice per se stessa?


Allora:
1) matrice identica

$A= ((1,0,0),(0,1,0),(0,0,1))$

questo è un esempio....nella matrice identica gli ellementi della diagonale principale sono sempre 1 e tutti gli altri elementi sono 0

2)per il prodotto devi moltiplica gli elementi della prima riga per gli elementi della prima colonna e cosi via....per il prodotto non vale la commutativa $A$x$B!=B$x$A$

3)perchè dovresti moltiplicare moltiplicare una matrice per se stessa?

retrocomputer
"silvia_85":

adesso voglio verificare che $A A^a=A^aA=I$


Io sapevo che questo vale se $A^a$ è l'inversa della matrice $A$, non necessariamente per l'aggiunta. In questo caso mi pare che il determinante di $A$ sia 1, quindi inversa e aggiunta coincidono, sempre che io non sia troppo arrugginito in materia :-D

La verifica si fa con il prodotto "righe per colonne", no?

silvia851-votailprof
"retrocomputer":
[quote="silvia_85"]
adesso voglio verificare che $A A^a=A^aA=I$


Io sapevo che questo vale se $A^a$ è l'inversa della matrice $A$, non necessariamente per l'aggiunta. In questo caso mi pare che il determinante di $A$ sia 1, quindi inversa e aggiunta coincidono, sempre che io non sia troppo arrugginito in materia :-D

La verifica si fa con il prodotto "righe per colonne", no?[/quote]

si si il prodotto si fa righe x colonne ma volevo capire perchè i segni non mi coincidono

retrocomputer
"silvia_85":

si si il prodotto si fa righe x colonne ma volevo capire perchè i segni non mi coincidono


Non so, il prodotto della prima riga di $A$ per la prima colonna di $A^a$ è $1\times(-1)+0\times(-3)+(-2)\times(-1)=-1+2=1$ e questo è infatti $I_{1,1}$, no?

silvia851-votailprof
si si esatto......chiarito il mio dubbio....avevo sbagliato a scrivere un segno e anzicchè venirmi $1$ mi veniva $-1$.....svanito il mio dubbio

retrocomputer
"gio73":

Vale la proprietà commutativa? AxB=BxA?


In generale no, ma per esempio in questo caso vale.

III) Cosa succede se moltiplico una matrice per se stessa?


Niente :-D Il calcolo si fa come per le altre matrici (righe per colonne), e anche in questo caso vale ovviamente la proprietà commutativa :wink:

gio73
Vediamo se ho capito: date due matrici (quadrate) dello stesso rango le posso moltiplicare ottenendo come risultato un'altra matrice di rango identico alle precedenti mettendo nella prima riga della matrice risultato il prodotto dei termini della prima riga della prima matrice per i termini della prima colonna della seconda?
AxB=C

$c_11=a_11*b_11$
$c_12=a_12*b_21$
$c_22=a_22*b_22$
$c_21=a_21*b_12$
eccetera?
Se non ho capito male dunque la diagonale della matrice risultato sarà identica anche se cambio l'ordine dei fattori e BxA la posso ottenere facendo la simmetria rispetto alla diagonale di AxB?
Infine le matrici possono rappresentare trasformazioni nel piano (rango 2?) o nello spazio (rango 3?)?
La matrice identica lascia dunque invariata la posizione dei punto nel piano (spazio)?

retrocomputer
Il conto dovrebbe essere questo:

$c_11=a_11*b_11+a_12*b_21$
$c_12=a_11*b_12+a_12*b_22$
$c_22=a_21*b_12+a_22*b_22$
$c_21=a_21*b_11+a_22*b_21$

cioè

$c_{ij}=a_{i1}*b_{1j}+a_{i2}*b_{2j}$

Infine le matrici possono rappresentare trasformazioni nel piano (rango 2?) o nello spazio (rango 3?)?
La matrice identica lascia dunque invariata la posizione dei punto nel piano (spazio)?


Devi fare attenzione a non confondere la dimensione della matrice con il rango: sono due cose piuttosto diverse, in generale.

gio73
grazie dell'attenzione retrocomputer!

Sk_Anonymous
[semi-OT @ gio73]
E' sempre bene ricordare cosa rappresenta una matrice, cioè un'applicazione lineare. Il rango viene definito pertanto non solo a livello puramente algebrico (come si fa alle scuole superiori) come l'ordine della più grande matrice quadrata "estraibile" da quella data con determinante non nullo, ma come la dimensione dell'immagine dell'applicazione rappresentata da tale matrice (nonché il numero di colonne linearmente indipendenti - ma poi le due "definizioni" sono all'incirca equivalenti, sennonché la prima mi venne data senza spiegazioni di sorta).
Nel linguaggio degli spazi vettoriali è interessante notare come il rango ed il numero di soluzioni del sistema omogeneo associato alla matrice data (la si pensi, per semplicità, quadrata di ordine \(\displaystyle n \in \mathbb{N} \)) siano strettamente collegati: se infatti \(\displaystyle V \) è uno spazio vettoriale su di un campo \(\displaystyle C \) e \(\displaystyle \phi: V \rightarrow V \) è un'applicazione lineare, vale la relazione \[\displaystyle \mbox{dim im} \ \phi + \mbox{dim ker} \ \phi=\mbox{dim} \ V \]
Ne discende pertanto che un siffatto sistema omogeneo* ammette soluzioni se e solo se \[\displaystyle \mbox{dim im} \ \phi
__________________________________________
* Infatti in algebra lineare è sempre interessante ed utile capire come sia fatto il sottospazio vettoriale \(\displaystyle \mbox{ker} \ \phi \); se \[\displaystyle A=\begin{pmatrix} a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{nn} \end{pmatrix} \] è la matrice dell'applicazione \(\displaystyle \phi \) e \[\displaystyle v=\begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix} \] un generico vettore, interrogarsi intorno al kernel equivale a studiare operativamente il prodotto \(\displaystyle A \cdot v=0 \), che equivale al sistema \[\displaystyle \begin{cases}a_{11}x_{1} + \cdots + a_{1n}x_{n}=0 \\ \vdots \\ a_{n1}x_{1} + \cdots + a_{nn}x_{n}=0 \end{cases} \]
[/semi-OT @ gio73]

EDIT: refuso grammaticale.

gio73
Grazie per l'attenzione delirium, ma il mio livello è davvero basso e capisco quanto mi dici solo parzialmente, molto parzialmente.

silvia851-votailprof
Spero allora ti esserti stata d'aiuto io, visto che comunque anch'io non è che sia una cima!!!!buona domenica

Sk_Anonymous
"gio73":
Grazie per l'attenzione delirium, ma il mio livello è davvero basso e capisco quanto mi dici solo parzialmente, molto parzialmente.

Vabhé non preoccuparti. Il messaggio è lì, e ci rimarrà per sempre, quindi potrai rileggertelo e meditarlo anche in futuro, magari cercando poi un qualche testo per approfondire la questione :wink:

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.