Intelligenze artificiali, morale ed etica di una mosca.

3m0o
Vorrei proporre una discussione su questo Talk di Google sul libro Scary Smart:

https://www.youtube.com/watch?v=-PEXveXzV-k

Non ho letto il libro sinceramente. Probabilmente lo leggerò. Mi chiedo cosa ne pensate?

Da quello che ho capito l'autore, Mo Gawdat (ex CBO di Google X) e che non conosco sinceramente, fa assunzione che lui ritiene un evento inevitabile: arriverà un intelligenza artificiale senziente che possiede autonomia, capacità decisionali proprie, impara, si riproduce, non vuole morire e che è molto ma molto più intelligente di un essere umano. Lui fa un paragone tra Einstein e una mosca. Noi siamo la mosca. E si domanda: come facciamo a fare in modo che Einstein abbia a cuore l'interesse e il benessere delle mosche? Essendo molto più intelligenti delle mosche è difficile credere che una mosca sia capace di contenere la volontà di Einstein. Dice che ci sono rischi nello sviluppo di queste tecnologie e che siamo in un momento della storia che lui chiama singolarità: in modo simile al orizzonte degli eventi di un buco nero non sappiamo cosa ci sarà. Potremmo star sviluppando qualcosa che ci permetterà di vivere in un utopia e risolvere il problema di cambiamento climatico, risolvere i conflitti mondiali, curare malattie, produrre di più con meno risorse, etc oppure verso una distopia in cui le intelligenze artificiali potrebbero semplicemente imparare dai comportamenti peggiori dell'umanità.
Fa un paragone con Superman: ha superpoteri incredibili e potrebbe usarli a favore dell'umanità ma anche diventare un super cattivo in grado di annientarci e quello che sarà dipende dall'educazione che ha avuto da bambino. I valori etici e morali che gli hanno insegnato i genitori. Noi siamo i genitori delle AI che ci supereranno e che adesso sono ancora bambini, ma arriverà l'adolescenza e poi l'età adulta.
Fa un esempio interessante: prende un posti su twitter di un politico, il primo commento insulta chi ha fatto il post, il secondo insulta il primo e il terzo insulta tutti. La "macchina di twitter" molto rapidamente inizia a capire che gli umani sono aggressivi. Mamma e papà sono aggressivi e sarò aggressivo con loro quando saranno in disaccordo con me perché questa è la risposta giusta da dare. Fa esempi di questo, come per esempio Tay un bot di Microsoft, o Norman del MIT.
Insomma la sua conclusione è che dovremmo agire più saggiamente e mostrare ai computer i lati belli e positivi dell'essere umano come l'amore, la comprensione, la compassione. Lui per esempio dichiara che ringrazia sempre google, o chiede sempre perfavore quando fa una richiesta.

Cosa ne pensate? Sia dell'assunzione ma anche assumendo ciò che lui ritiene inevitabile. Io penso sia molto interessante, sulla sua assunzione sinceramente non penso di essere qualificato per dare una reale opinione in merito. Per quanto riguarda il discorso che fa data l'assunzione, credo possa avere ragione, e alla peggio saremmo più gentili online :-D

Risposte
Faussone
"gio73":

È possibile che ci siano app che semplificano il linguaggio dei libri?

Assolutamente sì, chatgpt stessa questo già lo fa.
(E sì è una cosa sia utilissima che deprecabilissima, a secondo del contesto).

il_carter
Ecco , nell’ AI non vedo né anima né cuore.

Penso l'errore sia che si sta umanizzando troppo sta AI. La Ai è altri se non uno strumento, un "oggetto", è come dire "il piano non ha un animo e un cuore", beh grazie; è un piano! :lol: Direi tautologico!

gio73
https://cdn.discordapp.com/attachments/ ... 1adb89ed7&

È possibile che ci siano app che semplificano il linguaggio dei libri?

Shackle
...non voglio dire che siamo uguali alle AI...


E meno male : Penso che siamo un tantino meglio, no ? Una vecchia canzone napoletana verteva su “ Anema e core “ (non traduco perché non siete così sprovveduti da non capire). Ecco , nell’ AI non vedo né anima né cuore.

Noi siamo qualcosa di piú meglio assai ( lo so che è sgrammaticato, ma non mi importa) .

Vi lascio dei versi famosi di Dante (Canto II , Inferno) :

O muse, o alto ingegno, or m’aiutate;
mente che scrivesti ciò ch’io vidi,
qui si parrà la tua nobilitate.


Ecco, questo non lo farei a cambio con nessun “ mental jerking” .

il_carter
In un modo molto diverso forse sì, ma comunque la AI sono molto più efficienti su certe moli di dati. Altrimenti perché sarebbero state inventate?
Sì, non voglio dire che siamo uguali alle AI, ma solo che a ben pensarci mi pare che nulla di ciò che facciamo sia inventato di sana pianta.
E' solo frutto di un rimestamento di concetti appresi: all'inizio della nostra era dalla natura, poi alcuni hanno rimaneggiato offrendoli al prossimo il quale li ha rimaneggiati ecc ecc aggiungendo complessità da parti apprese a sua volta da altri ambiti ad egli esterni.

Nulla arriva dall'interno della mente e tutto è un semplice incastrare ciò che già c'era in altra forma, forse solo nascosta ai più (quella è l'intuizione).

Faussone
"3m0o":

Se questo è simile o no a quello che fa il nostro cervello per pensare non lo so perché non conosco abbastanza bene il funzionamento del nostro cervello. Ma diciamo che è la cosa che intuitivamente si avvicina maggiormente al ragionamento tra tutto quello che l'uomo ha creato fino ad ora.

Diciamo che come ispirazione un poco sì, ma per costruire un vero cervello artificiale che davvero sia in grado di pensare in modo autonomo, per come la vedo io, ancora c'è parecchia strada. Intendiamoci non sto dicendo che certamente siamo lontanissimi, non sono in grado di fare affermazioni così categoriche. Quello che ritengo abbastanza certo è che i risultati delle AI che vediamo oggi sono sorprendenti, ma è sbagliato da questi trarre la conclusione che manchi poco ad avere un automa davvero pensante.

I temi che hai posto dopo nel tuo messaggio li trovo certamente importanti, e saranno fondamentali certamente.
Dalla prima impressione del video che hai messo però non mi piace come sia trattato il tema, ma dovrei guardarlo tutto per avere un'idea chiara.

Faussone
"il_carter":
Ma non sono in grado di produrre un ragionamento nuovo che non sia una combinazione dei dati che conosce. L'uomo è in grado? Non mi è chiaro.
Ma l'uomo non ricombina, solo con miglior maestria di una AI, quanto già c'è?
Secondo me sì.

In un modo molto diverso forse sì, ma comunque la AI sono molto più efficienti su certe moli di dati. Altrimenti perché sarebbero state inventate?

il_carter
Ma non sono in grado di produrre un ragionamento nuovo che non sia una combinazione dei dati che conosce. L'uomo è in grado? Non mi è chiaro.
Ma l'uomo non ricombina, solo con miglior maestria di una AI, quanto già c'è?
Secondo me sì.

3m0o
Allora, una premessa mi è dovuta: io non credo, e per quel poco che so come funzionano le GPT, penso di poter affermare con certezza che le AI non sono assolutamente senzienti, anzi sono piuttosto stupidi. Sono dei grandi compressori di dati e sono bravissimi ad imitare il ragionamento umano semplicemente "indovinando" la parola successiva, minimizzando una funzione, che è diverso dal ragionare (credo)! Io lo vedo come un assistente personale molto performante. Per esempio, se ho errori di compilazione che non conosco, se devo scrivere mail in una lingua che non conosco, etc etc. Sul discorso se arriviamo dove dice questo signore che non conosco francamente: io non so se in un futuro non meglio definito saremo in grado o no di programmare un intelligenza artificiale più brava del uomo e senziente. Questa secondo me è una domanda mal posta: rispetto quale metrica? Cosa vuol dire senziente? Sono domande filosofiche molto interessanti a cui non penso noi abbiamo la risposta perché cosa vuol dire ragionare?
Oggi le AI imitano, sono addestrate su dati, quindi sanno imitare la creatività. Ma non sono in grado di produrre un ragionamento nuovo che non sia una combinazione dei dati che conosce. L'uomo è in grado? Non mi è chiaro.
Se questo è simile o no a quello che fa il nostro cervello per pensare non lo so perché non conosco abbastanza bene il funzionamento del nostro cervello. Ma diciamo che è la cosa che intuitivamente si avvicina maggiormente al ragionamento tra tutto quello che l'uomo ha creato fino ad ora.

Ci sono molte problematiche reali senza dover scomodare la fantascienza di uno scenario di macchina ribelle: come dici giustamente tu ad esempio l'educazione, il tasso di disoccupazione, la vastità di disinformazione che può essere creata per dirne alcuni. Vero però che le macchine stanno facendo sempre più compiti, e il discorso sul fatto che per esempio quello che vediamo online molto è deciso da un computer può essere potenzialmente rischioso, perché se per raggiungere il suo obbiettivo la strategia ottimale è mostrare un sacco di disinformazione e/o creare una realtà distorta può influenzare la vita delle persone in modo negative. Quindi è interessante il discorso di programmare una sorta di codice "etico", una sorta "morale", cosa va bene mostrare? Cosa no? Anche qui è un discorso complesso! E' etico creare un contenuto di DeepFake e mostrarcelo senza dirci che è un DeepFake? Già ad esso per esempio ci sono televisioni in cui c'è un DeepFake che presenta la meteo. Penso che però, indipendentemente dal fatto che queste macchine siano senzienti o no (e non lo sono), è interessante iniziare a pensare: ma vogliamo davvero costruire dei computer che sono più bravi di noi, o per lo meno che ci sostituiscono così bene nei nostri lavori, e in sempre più lavori (rispetto a sempre più metriche)? E' già successo in passato mi direte! Sì, ma ne creava di posti di lavori allo stesso tempo, mi sembra che il rate di crescità di popolazione, posti di lavori potenzialmente sostituibili e creazione posti di lavori nuovi abbia un trend "negativo".

Facendo la sua assunzione (che è una forzatura enorme ad oggi), e quindi entrando nella fantascienza, lo trovo interessante come scenario, è una bella storia! E dovesse succedere la sua assunzione credo che il suo discorso sia interessante. Sul fatto che dice sempre grazie a google mi ha fatto sorridere, ma di base non è negativo come atteggiamento, insensato? Probabile :-D

La sua conclusione è una bella conclusione comunque: dovremmo iniziare ad essere un po' più umani e mostrare compassione e amore verso l'uomo. Con questo non voglio dire ringraziare google maps. Ma forse è il caso di pensare a che tipo di società l'essere umano vuole con questo tipo di macchina, nel senso: per cosa vogliamo usarle? Come? Moralmente? O costruire delle macchine da guerra? Commettere gli errori del passato? Ritengo interessante questo talks, non tanto per il contenuto forzato, più per il fatto che fa riflettere su questa problematica in modo attuale (forse si trova qualcuno che fa riflette meglio :-D ).

Faussone
"3m0o":

Da quello che ho capito l'autore, Mo Gawdat (ex CBO di Google X) e che non conosco sinceramente, fa assunzione che lui ritiene un evento inevitabile: arriverà un intelligenza artificiale senziente che possiede autonomia, capacità decisionali proprie, impara, si riproduce, non vuole morire e che è molto ma molto più intelligente di un essere umano.

Premetto che non ho letto quel libro e ho ascoltato solo in parte il video (quello che scrivi qui mi pare confermato dagli stralci che ho visto comunque).
Nel mio piccolo io ci vedo parecchie forzature in quanto affermato: non è affatto scontato arrivi a breve (né si sa quanto a medio/lungo termine) una intelligenza artificiale senziente. C'è da tenere presente che le AI più impressionanti di oggi sono "solo" (tra mille virgolette) dei grossi elaboratori di dati in grado di relazionare in modo molto efficace ed efficiente l'informazione contenuta in quella mole di dati. E per quanto possano apparire sorprendenti certi risultati, sono lontani da essere una vera intelligenza per così dire autonoma, figuriamoci quanto possono essere poi senzienti (in qualunque modo si possa interpretare questo concetto).

Tutto il resto dei discorsi sull'intelligenza cattiva che ci può dominare, a me sa di fantascienza molto poco originale. I problemi che mi faccio io piuttosto sono altri: quanto e come l'avere soluzioni a portata di mano impatterà sulla formazione e l'educazione di noi umani, questi strumenti sono infatti una grandissima opportunità, ma possono rischiare pure di farci impigrire e di renderci poco interessante l'imparare, "tanto, se mi serve, c'è chi mi risolve il problema senza che debba fare alcuno sforzo". Ma non è detto accada così, è tutto da vedere. Sicuramente bisognerebbe prevedere di educare, soprattutto i più piccoli, ma non solo, al corretto uso.

Riguardo alle solite paure, riconducibili alla solita classica sindrome della macchina che si ribella all'uomo, il mio riferimento fantascientifico è Asimov, lì i robot con le loro famose 3 leggi della robotica, alla fine si mostrano anche migliori moralmente degli umani (ma non voglio fare spoiler sul suo "ciclo dei robot" come si collega al "ciclo dell'impero" e a quello "della fondazione" :-D)

il_carter
Lui per esempio dichiara che ringrazia sempre google, o chiede sempre perfavore quando fa una richiesta.
Non ho capito il senso di questa cosa. In teoria non dovrebbe imparare dalle conversazioni degli utenti, il suo database e addestramento è chiuso alla data di completamento dell'apprendimento.

Quindi che senso ha? :roll: E' come ringraziare un muro.

otta96
Mi sembra uno scenario un tantinello fantasioso, inoltre non basterebbe mai a cambiare su così larga scala il comportamento.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.