Invertibilità a destra e a sinistra
In un anello unitario (chiaramente non commutativo), possono esistere elementi invertibili solo a destra o solo a sinistra?
Per le matrici la risposta è no, ma il ragionamento che seguo per arrivarci è questo:
se una matrice quadrata è invertibile a destra, vuol dire che rappresenta una applicazione lineare suriettiva di uno spazio di dim. finita in sé: perciò questa applicazione è anche biiettiva e quindi invertibile a destra e a sinistra.
Questo ragionamento si può estendere alle algebre unitarie di dimensione finita, ma agli anelli in genere no...
Per le matrici la risposta è no, ma il ragionamento che seguo per arrivarci è questo:
se una matrice quadrata è invertibile a destra, vuol dire che rappresenta una applicazione lineare suriettiva di uno spazio di dim. finita in sé: perciò questa applicazione è anche biiettiva e quindi invertibile a destra e a sinistra.
Questo ragionamento si può estendere alle algebre unitarie di dimensione finita, ma agli anelli in genere no...
Risposte
Ah e naturalmente discorso analogo per i divisori dello zero.
Ricapitolando:
negli anelli unitari non commutativi possono esistere elementi invertibili oppure divisori dello zero solo a destra oppure solo a sinistra?
Ricapitolando:
negli anelli unitari non commutativi possono esistere elementi invertibili oppure divisori dello zero solo a destra oppure solo a sinistra?
una considerazione (non è una risposta però):
in $M_2(RR)$ consideriamo $A=((1,0),(0,0)), B=((0,0),(0,1))$. Allora $AB=((0,0),(0,0)), BA=((0,0),(1,0))$.
Comunque sia $A, B$ essendo matrici sono div. dello zero tanto a dx quanto a sx. Però non è vero che $AB=0 => BA=0$.
Invece, se in un anello $R$ unitario un elemento $a$ è invertibile, allora l'inversa destra è uguale all'inversa sinistra (segue dalla proprietà analoga dei gruppi).
Restano aperte le domande di prima. Esistono elementi invertibili, o divisori dello zero, solo da un lato?
in $M_2(RR)$ consideriamo $A=((1,0),(0,0)), B=((0,0),(0,1))$. Allora $AB=((0,0),(0,0)), BA=((0,0),(1,0))$.
Comunque sia $A, B$ essendo matrici sono div. dello zero tanto a dx quanto a sx. Però non è vero che $AB=0 => BA=0$.
Invece, se in un anello $R$ unitario un elemento $a$ è invertibile, allora l'inversa destra è uguale all'inversa sinistra (segue dalla proprietà analoga dei gruppi).
Restano aperte le domande di prima. Esistono elementi invertibili, o divisori dello zero, solo da un lato?
Altra cosa ovvia: se a è invertibile a destra ma non a sinistra allora a divide lo zero: $aa^{-1}a=a$ allora $a(a^{-1}a-1)=0$
Ora mi metto a capire questa: http://www.mathlinks.ro/viewtopic.php?t=218059
Ora mi metto a capire questa: http://www.mathlinks.ro/viewtopic.php?t=218059
La risposta è sì. Esistono degli elementi invertibili solo a destra o solo a sinistra. Guarda questi esempi:
http://en.wikipedia.org/wiki/Inverse_element
dovrebbero chiarire il tutto!
http://en.wikipedia.org/wiki/Inverse_element
dovrebbero chiarire il tutto!
"Lord K":
La risposta è sì. Esistono degli elementi invertibili solo a destra o solo a sinistra. Guarda questi esempi:
http://en.wikipedia.org/wiki/Inverse_element
dovrebbero chiarire il tutto!
Non ti offendere, ma è molto facile trovare esempi su insiemi come le matrici rettangolari, che NON sono anelli.
Non ti preoccupare che non mi offendo.
in realtà mi ero molto concentrato sulla:
e quindi ho pensato a trovare un controesempio di questo. A breve un controesempio in un anello.

se una matrice quadrata è invertibile a destra, vuol dire che rappresenta una applicazione lineare suriettiva di uno spazio di dim. finita in sé: perciò questa applicazione è anche biiettiva e quindi invertibile a destra e a sinistra.
e quindi ho pensato a trovare un controesempio di questo. A breve un controesempio in un anello.
Ciao K! Dici che la frase che hai citato è falsa?
No solo che quando l'ho letta mi ha ricordato quanto ho postato...
Ricapitolando, se permettete:
- il fatto che nell'anello delle matrici quadrate non ci siano elementi con solo inverso sinistro (destro) è vero.
- un esempio di anello in cui ci sono cose che hanno solo inverso sinistro si trova al link che ho postato, ove viene presentato come esempio "classico", (quindi dubito che ce ne siano di più semplici)
- il fatto che nell'anello delle matrici quadrate non ci siano elementi con solo inverso sinistro (destro) è vero.
- un esempio di anello in cui ci sono cose che hanno solo inverso sinistro si trova al link che ho postato, ove viene presentato come esempio "classico", (quindi dubito che ce ne siano di più semplici)
Nel link postato da pic si trova un esempio relativo all'algebra unitaria $("End"(c_0), +, *, \circ)_{RR}$ dove $c_0$ è lo spazio vettoriale delle successioni reali infinitesime, $"End"(c_0)$ indica gli operatori lineari continui $c_0\toc_0$, $+, *$ sono le operazioni naturali di $RR$, $\circ$ è la composizione.
Consideriamo $L, R: c_0\toc_0$, $L(x_0, x_1, ldots)=(x_1, x_2, ldots), R(x_0, x_1, ldots)=(0, x_0, x_1, ldots)$ che sono applicazioni lineari limitate (perciò continue; in effetti si tratta degli shift di un elemento verso sx o verso dx).
La cosa interessante è che $L\circR$ è l'identità, mentre $R\circL$ no ($R\circL(x_0, x_1, ldots)=(0, x_1, ldots)$).
Soprattutto, non essendo $L$ iniettiva, non può essere invertibile a sx. (E non essendo $R$ suriettiva non può essere invertibile a dx). Molto interessante come esempio.
(si prega di correggere nel caso avessi sbagliato a riportarlo dal link!)
Consideriamo $L, R: c_0\toc_0$, $L(x_0, x_1, ldots)=(x_1, x_2, ldots), R(x_0, x_1, ldots)=(0, x_0, x_1, ldots)$ che sono applicazioni lineari limitate (perciò continue; in effetti si tratta degli shift di un elemento verso sx o verso dx).
La cosa interessante è che $L\circR$ è l'identità, mentre $R\circL$ no ($R\circL(x_0, x_1, ldots)=(0, x_1, ldots)$).
Soprattutto, non essendo $L$ iniettiva, non può essere invertibile a sx. (E non essendo $R$ suriettiva non può essere invertibile a dx). Molto interessante come esempio.
(si prega di correggere nel caso avessi sbagliato a riportarlo dal link!)
"dissonance":
In un anello unitario (chiaramente non commutativo), possono esistere elementi invertibili solo a destra o solo a sinistra?
Per le matrici la risposta è no, ma il ragionamento che seguo per arrivarci è questo:
se una matrice quadrata è invertibile a destra, vuol dire che rappresenta una applicazione lineare suriettiva di uno spazio di dim. finita in sé: perciò questa applicazione è anche biiettiva e quindi invertibile a destra e a sinistra.
Questo ragionamento si può estendere alle algebre unitarie di dimensione finita, ma agli anelli in genere no...
Forse mi intrometto a sproposito visto che di algebra mi ricordo poco o nulla.
Però il ragionamento fatto da dissonance mi mi porta a ricordare che se si prendono le applicazioni lineari e continue $L:H\to H$,
dove per esempio $H$ è un Hilbert di dimensione infinita, allora è facile trovare delle $L$ iniettive e non surgettive o $L$
surgettive e non iniettive. Questo ha qualcosa a che fare con il problema posto?
Ciao V.G.E.!!!
Certo che questo ha a che fare con il problema posto. Infatti la suriettività di una applicazione equivale (*) alla sua invertibilità a destra, e l'iniettività alla sua invertibilità a sinistra. Nel caso di applicazioni lineari, queste inverse destre e sinistre sono sempre applicazioni lineari(**): quindi fanno parte dello stesso anello e perciò sono le inverse destre e sinistre rispetto al prodotto dell'anello (che ho sottointeso essere la composizione).
(*) Bisogna assumere l'assioma della scelta però...è una questione di cui non ho capito granché francamente...
(**) Ora che ci penso questo bisognerebbe dimostrarlo.
Certo che questo ha a che fare con il problema posto. Infatti la suriettività di una applicazione equivale (*) alla sua invertibilità a destra, e l'iniettività alla sua invertibilità a sinistra. Nel caso di applicazioni lineari, queste inverse destre e sinistre sono sempre applicazioni lineari(**): quindi fanno parte dello stesso anello e perciò sono le inverse destre e sinistre rispetto al prodotto dell'anello (che ho sottointeso essere la composizione).
(*) Bisogna assumere l'assioma della scelta però...è una questione di cui non ho capito granché francamente...
(**) Ora che ci penso questo bisognerebbe dimostrarlo.
"dissonance":
Ciao V.G.E.!!!
Certo che questo ha a che fare con il problema posto. Infatti la suriettività di una applicazione equivale (*) alla sua invertibilità a destra, e l'iniettività alla sua invertibilità a sinistra. Nel caso di applicazioni lineari, queste inverse destre e sinistre sono sempre applicazioni lineari(**): quindi fanno parte dello stesso anello e perciò sono le inverse destre e sinistre rispetto al prodotto dell'anello (che ho sottointeso essere la composizione).
(*) Bisogna assumere l'assioma della scelta però...è una questione di cui non ho capito granché francamente...
(**) Ora che ci penso questo bisognerebbe dimostrarlo.
e quindi se trovi applicazioni lineari surgettive e non iniettive (o viceversa) la tua domanda ha avuto risposta?
Per esempio in $l^2$ puoi prendere lo shift a destra $R$ definito da $R[(a_n)] = (b_n)$ dove $b_n=a_{n-1}$, $b_0=0$ (iniettiva ma non surgettiva)
o lo schift a sinistra $L$ dato da $L[(a_n)] = (b_n)$ dove $b_n=a_{n+1}$ (surgettiva ma non iniettiva). Indipendentemente da discorsi generali mi pare
che $L \circ R=id$, ma che $L$ non abbia inversa sinistra e $R$ non abbia inversa destra.
Ma cos'è la destra ? cos'è la sinistra ....
è esattamente l'esempio citato nel link di pic.
Che difatti dimostra l'esistenza di elementi invertibili solo da una parte, come le tue app. lineari iniettive e non suriettive e viceversa, rispondendo alla mia domanda iniziale.
Veramente adesso resterebbe da spiegare una cosa:
per le matrici abbiamo visto che questo fenomeno non succede. E questo perché essenzialmente le matrici sono app. lineari in dimensione finita. L'esempio che abbiamo visto riguarda spazi di dimensione infinita...Allora la prossima domanda è:
possono esistere elementi invertibili solo da un lato in anelli finiti o algebre di dimensione finita? (Presumo di no).
Che difatti dimostra l'esistenza di elementi invertibili solo da una parte, come le tue app. lineari iniettive e non suriettive e viceversa, rispondendo alla mia domanda iniziale.
Veramente adesso resterebbe da spiegare una cosa:
per le matrici abbiamo visto che questo fenomeno non succede. E questo perché essenzialmente le matrici sono app. lineari in dimensione finita. L'esempio che abbiamo visto riguarda spazi di dimensione infinita...Allora la prossima domanda è:
possono esistere elementi invertibili solo da un lato in anelli finiti o algebre di dimensione finita? (Presumo di no).
Allora diciamo che a ha inverso destro. Le potenze di a si ripetono, per pigeonhole (se l'anello è finito). Ma da $a^p=a^q$ si deduce, moltiplicando a sinistra $p$ volte per $a^{-1}$, che $a^{q-p}=1$, ma allora c'è l'inversa destra.
non riesco a seguirti...
Mi spiego. Stai supponendo $a$ invertibile a sx. Con $a^(-1)$ ti riferisci all'inversa sinistra di $a$. Allora $a^(-1) a=1$, ma non è (ancora) detto che $a^(-1), a$ commutino.
(Proprio nel link che hai postato c'è un esempio di $L*R=1, R*L!=1$.)
E allora come fai a dire che $(a^(-1))^(p)a^q=a^(q-p)$...? Mi sfugge questo punto. (Forse c'entra qualcosa il fatto che anche le potenze di $a^(-1)$ (inversa sx) si ripetono?)
Mi spiego. Stai supponendo $a$ invertibile a sx. Con $a^(-1)$ ti riferisci all'inversa sinistra di $a$. Allora $a^(-1) a=1$, ma non è (ancora) detto che $a^(-1), a$ commutino.
(Proprio nel link che hai postato c'è un esempio di $L*R=1, R*L!=1$.)
E allora come fai a dire che $(a^(-1))^(p)a^q=a^(q-p)$...? Mi sfugge questo punto. (Forse c'entra qualcosa il fatto che anche le potenze di $a^(-1)$ (inversa sx) si ripetono?)
Io farei così. Supponiamo $R$ anello unitario finito. Allora succede che ogni elemento diverso da zero è invertibile a destra (sinistra), oppure divide lo zero a destra (sinistra).
dim.: ogni applicazione $R\toR$ iniettiva è anche bigettiva perché R è finito. Perciò, se $a$ non divide lo zero a dx, $(a*):R\toR$ è bigettiva. Segue dal fatto che $(a*)\in "End"(R,+)$ (endomorfismi del gruppo additivo) e dal fatto che $"ker"(a*)={0}$ perché $a$ non divide lo zero. Allora $\exists! b\inR\ "t.c."\ ab=1$ ovvero $a$ è invertibile a destra.
Possiamo quindi dire che $R={0}uu{"div. dello zero destri"}uu{"unità destre"}={0}uu{"div. dello zero sinistri"}uu{"unità sinistre"}$ (*) e queste unioni sono disgiunte.
Aggiungiamo che in nessun anello unitario possono esistere divisori destri (risp. sinistri) dello zero che siano invertibili a sinistra (risp. destra): sia $a$ div. destro dello zero, invertibile a sinistra, allora $ab=0, ca=1$. Moltiplichiamo a destra la seconda identità per $b$: $cab=b$ quindi $0=b$ contraddicendo il fatto che $a$ sia un divisore destro dello zero.
Conclusione: ${"div. dello zero destri"}={"div. dello zero sinistri"}, {"unità destre"}={"unità sinistre"}$.
Che dite? Può andare? In effetti è quello marcato con (*) il fenomeno che succede nelle matrici: una matrice divide lo zero se e solo se non ha rango massimo, cioè se e solo se non è invertibile (a destra o sinistra che sia).
E adesso che ci penso, la proposizione marcata (*) dovrebbe essere vera anche per algebre di dimensione finita... può essere?
dim.: ogni applicazione $R\toR$ iniettiva è anche bigettiva perché R è finito. Perciò, se $a$ non divide lo zero a dx, $(a*):R\toR$ è bigettiva. Segue dal fatto che $(a*)\in "End"(R,+)$ (endomorfismi del gruppo additivo) e dal fatto che $"ker"(a*)={0}$ perché $a$ non divide lo zero. Allora $\exists! b\inR\ "t.c."\ ab=1$ ovvero $a$ è invertibile a destra.
Possiamo quindi dire che $R={0}uu{"div. dello zero destri"}uu{"unità destre"}={0}uu{"div. dello zero sinistri"}uu{"unità sinistre"}$ (*) e queste unioni sono disgiunte.
Aggiungiamo che in nessun anello unitario possono esistere divisori destri (risp. sinistri) dello zero che siano invertibili a sinistra (risp. destra): sia $a$ div. destro dello zero, invertibile a sinistra, allora $ab=0, ca=1$. Moltiplichiamo a destra la seconda identità per $b$: $cab=b$ quindi $0=b$ contraddicendo il fatto che $a$ sia un divisore destro dello zero.
Conclusione: ${"div. dello zero destri"}={"div. dello zero sinistri"}, {"unità destre"}={"unità sinistre"}$.
Che dite? Può andare? In effetti è quello marcato con (*) il fenomeno che succede nelle matrici: una matrice divide lo zero se e solo se non ha rango massimo, cioè se e solo se non è invertibile (a destra o sinistra che sia).
E adesso che ci penso, la proposizione marcata (*) dovrebbe essere vera anche per algebre di dimensione finita... può essere?
"dissonance":
E allora come fai a dire che $(a^(-1))^(p)a^q=a^(q-p)$...? Mi sfugge questo punto. (Forse c'entra qualcosa il fatto che anche le potenze di $a^(-1)$ (inversa sx) si ripetono?)
$(a^{-1})^pa^q=(a^{-1}....a^{-1})(a....a)=a^{-1}....(a^{-1}a)...a$ come vedi in questo prodotto i termini in mezzo si semplificano, e ciò permette il passaggio induttivo. Ti torna?
si si adesso ho capito. naturalmente moltiplichi per $"min"{p,q}$, che supponiamo essere $p$, e quindi cancelli $p$ termini da $a^q$. Torna.