Si può parlare di coscienza in terza persona?

mgrau
E’ problematico trovare una sezione adatta. Ci vorrebbe l’auspicata sezione di filosofia della scienza; e in mancanza di questa vada per Generale.
Parto dalla questione nella sua forma più grezza: tutti noi (esseri umani) proviamo delle sensazioni: se mangiamo un gelato, se ci pestiamo un dito con un martello, se facciamo un bel bagno caldo, ecc ecc. Alcune di queste le sentiamo “piacevoli”, altre “spiacevoli”, altre , magari, neutre.
Ma, NOI; il nostro corpo, è un pezzo di materia: molto organizzato, estremamente complesso, ma insomma, un pezzo di materia. Quindi, noi sappiamo che un pezzo di materia – il nostro corpo – può provare delle sensazioni. Su questo fatto veramente non possono esserci dubbi: è una specie di “cogito ergo sum”, ma, direi, ancora più forte (perché il “sum”, insomma, è ancora un po’ nebuloso; ma una martellata su un dito no).
Da questa base, ricaverei una serie di questioni.
- la prima, certamente è: ma come è possibile una cosa del genere? Come fa, della materia, a SENTIRE qualcosa?
- La seconda: visto che il fatto, anche se inspiegabile, non è però dubitabile, è: quali caratteristiche deve avere, un pezzo di materia, per sentire qualcosa? Un termostato sente? Probabilmente no. Un computer sente? Probabilmente no, Un batterio, una pianta, un lombrico, sentono? ….. forse no…. Un gatto, una mucca sentono? Molto probabilmente sì. Quindi: c’è speranza di trovare un criterio?
- La terza: c’è qualche – sia pur ipotetica – speranza di SAPERE se un certo pezzo di materia sente qualcosa?

Può sembrare – in particolare la terza questione – una rielaborazione del test di Turing. A me però sembra di no, nel senso che – salvo il massimo rispetto per Turing – direi che la sua domanda “le macchine possono PENSARE?” (maiuscolo mio) non centra il punto. Mette l’accento sul “pensare”, invece che sul “sentire” , e questo mi pare faccia perdere il contatto con il vero e fondamentale “scandalo” di una materia che si accorge di “esserci”. E, su questa linea, tutto quel che mi è capitato di leggere (Dennett, Hofstadfer, e altri non ricordo) si perdono in questioni computazionali che mancano completamente il bersaglio (IMHO)

Qualcuno raccoglierà questa proposta di discussione? Lo spero… è faticoso pensarci da solo, la questione pare così imprendibile…

Risposte
mgrau
"Overflow94":

Quello che tu chiami “sentire” è molto vago e indefinito, come ti sei reso conto non si riesce a fornire una spiegazione del perché un uomo può farlo e una macchina no, perché non si riesce a definire che cosa è.


Eh certo che è vago. Però:1- non vorrei gettare subito la spugna. 2 - a parte il come e il perchè, non sono neppure sicuro del "cosa": chi l'ha detto che un uomo sente (beh, questo lo sappiamo) e una macchina no? Lo sai tu? E come lo sai? E gli animali? E quali? Tutti? E le piante? Insomma, anche l'ontologia (per metterla giù dura) è parecchio vaga.

"Overflow94":

Il mio campo è il machine learning e ti posso dire che ce lo sogniamo la notte di poter creare un’AI con le caratteristiche che ha il cervello umano.


Ma guarda, io ti auguro di cuore che tu possa riuscirci. In fondo, perchè no? Il cervello umano è un oggetto fisico, non credo contenga ingredienti soprannaturali, quindi...
Solo, quando ci sarai riuscito, il problema sarà ancora più imbarazzante. Perchè oggi, in cui gli unici sistemi che si comportano come esseri umani sono appunto solo gli esseri umani, non costa molta fatica supporre che gli altri siano fatti più o meno come noi, e che sentano male quando si scottano, o provino piacere mangiando un bel gelato; sarebbe anche poco "polite" sospettare che il nostro prossimo sia fatto di automi. Ma estenderemo questa condiscendenza anche ai tuoi robot? Mah... e, ad ogni modo, dovrà essere per forza un articolo di fede?
Qui viene fuori un altro argomento - non ricordo se è già uscito - Possiamo essere sicuri che qualcosa, altro da noi, sente? (non: "reagisce agli input": SENTE) Esiste, o è immaginabile, qualche prova? (non : indizio; prova). Visto che il bravo Turing, che stupido non era, non è riuscito a tirar fuori niente di meglio che il test, dovremmo essere pessimisti.

Notare che il buon Cartesio arriva a dire "cogito, ergo sum", ma non so, non mi risulta, che dicesse "cogitat, ergo est". Anche se io avrei preferito che dicesse "Sento male se mi scotto, ergo sum", perchè il suo cogitare potrà benissimo essere fatto dall'AI.

Con questo vorrei mettermi al riparo dalle obiezioni riguardo al leone, Wittgenstein, ecc. D'accordo che "esperienze" fatte da "sistemi" diversi siano incomunicabili. Alla fine dobbiamo rassegnarci alla limitatezza del nostro hardware. In fondo, non potremo mai vedere con le orecchie come i gufi e i pipistrelli, nè con la pelle, come i pesci elettrici, e amen.
Ma anche sapere se ci sono "esperienze" di questo tipo, è un obiettivo irraggiungibile? Nel solito senso, c'è un "soggetto" dietro queste esperienze?
E con questo, intendo rispondere anche a
seven
. Cioè, non pretendo di comprendere l'esperienza di un altro; mi basterebbe sapere che c'è.

fab_mar9093
"Overflow94":
Riportandolo al nostro contesto per sapere perfettamente cosa prova la rana quando prende la mosca, il tuo cervello dovrebbe essere identico al suo, dovresti essere la rana.

Esattamente. La qual cosa è anche suggerita dal buon senso. Addirittura le persone che non hanno provato qualcosa non sono in grado di capire cosa sente chi sta provando quella cosa. Per questo la comprensione e la saggezza passano anche per l'esperienza.
Rispondendo all'autore della domanda, per me è no, non si può capire la sensazione senza compararla ad una propria già provata.

Pur non avendo studiato AI, overflow94, la penso allo stesso modo riguardo all'esempio del leone, insomma impossibilità di percepire il mondo allo stesso modo se l'ontologia è differente. Mi fa piacere che la scienza tocchi questi argomenti.

Overflow94
Chiaramente stiamo parlando di cose diverse. Tu metti l'accento sull'intelligenza, la logica, la capacità deduttiva, Godel, Popper, Penrose, ecc ecc ; sono questioni interessanti certamente, ma che non scalfiscono neanche di striscio la questione del "sentire", che per me è tutt'uno col senso di "esserci".


Quello che tu chiami “sentire” è molto vago e indefinito, come ti sei reso conto non si riesce a fornire una spiegazione del perché un uomo può farlo e una macchina no, perché non si riesce a definire che cosa è. Ora, di certo io non sono riuscito a spiegarlo nel migliore dei modi, ma invece la definizione di coscienza che ho portato, penso sia più consistente, per molti versi è chiaro come la natura della mente umana sia diversa da quella di un’intelligenza artificiale. Potresti vederla come una definizione più formale del tuo “sentire”, cioè il sentire di una macchina è diverso da quello di uomo proprio perché in un uomo un’esperienza non è mai fine a se stessa ma produce conoscenza. Dal momento in cui mangi la fragola essa diventa un nuovo oggetto del tuo mondo non precedentemente costituito, un mondo fatto di regole e categorie flessibili oltre ogni limite. Mentre una macchina può avere solo regole e oggetti precostituiti, o almeno con dei template fissati, una nuova esperienza in lei potrà solo andare a riempire un contenitore, non a generarne di nuovi.

In totale disaccordo. Quel che penso - o temo - è che non c'è molto da trovare "dietro", ossia che, sotto l'aspetto fisico, credo che sappiamo abbastanza sul funzionamento del cervello, e non sarà una più precisa mappatura delle connessioni a risolvere il mistero.


Il mio campo è il machine learning e ti posso dire che ce lo sogniamo la notte di poter creare un’AI con le caratteristiche che ha il cervello umano. Per esempio il principale metodo per ottimizzare i pesi delle connessioni sinaptiche tra neuroni è la discesa del gradiente, metodo brutalmente ignorante che si basa sul retropropagare la derivata e sperare che converga a un ottimo locale sufficientemente buono. Questo ci costringe a usare funzioni di attivazione che abbiano buone proprietà rispetto alla derivazione, cioè lineari o pseudo-lineari, che non tendano ad annullare il gradiente, altrimenti l’apprendimento diventerebbe impossibile. Ecco sappiamo che il cervello usa funzioni di attivazione altamente non lineari, non abbiamo idea di come ottimizzi le proprie sinapsi, sicuramente non opera la discesa del gradiente. Non mi sembra assurdo pensare che sia qualcosa di più simile alla quantum annealing https://en.wikipedia.org/wiki/Quantum_annealing . Google sta anche comprando computer quantistici costruiti all’unico scopo di fare quantum annealing per trovare ottimi globali su reti neurali, al fine di finanziare l’interesse e la ricerca nel settore https://en.wikipedia.org/wiki/D-Wave_Systems .

Ok che sappiamo già un sacco di cose sul funzionamento del cervello (fisica/chimica). Mettiamola così, allora: è un po' un problema come da ingegneri, che mica mettono in discussione la fisica, ma dalla fisica non ricavano un granché quando devono studiare strutture complicate. Faccio ancora un piccolo tentativo per spiegarmi meglio. Ammettiamo che sappiamo il meccanismo di funzionamento dei neurotrasmettitori: ma ci sono aspetti sia di dettaglio che di sistema ed organizzazione complessiva del sistema nervoso, che sono lì a sfidarci perché proviamo a capirli. Penso a quelle cosa tipo le "proprietà emergenti" (con le quali mio nipote tempo fa mi faceva una capa tanta...). Sono aspetti sistemici che non hanno dietro nessuna magia, ma solo son complicati da capire. Non so se mi sono spiegato (ne dubito), ma è dalla comprensione di questi aspetti che poi deriva la possibilità di "misurare" non solo cosa pensi, ma che sensazione provi. Non vedo per quale motivo la sensazione che provi prima volta che assaggi una fragola dovrebbe essere refrattaria ad una analisi "oggettiva" (in altri termini, io posso sapere quale è la sensazione che tu provi).

Certo che deve passare ancora un po' di acqua sotto i ponti, ma non capisco per quale motivo ci dovrebbe essere una sorta di complessità inesplorabile. Anche se, pensando ad esempio alla complessità computazionale, può benissimo essere che la resistenza si riveli alla fin fine "invincibile".


Nei miei post precedenti non mettevo in dubbio il fatto che un giorno potremmo capire il “come” funziona il cervello, mettevo in dubbio il fatto che ne capiremo mai il “perché”. Anche ammesso che si possa comprendere per filo e per segno come funziona il cervello e costruirne un modello, saremo in grado di dimostrare le proprietà matematiche di questo modello? Cioè di capire cosa è o non è in grado di fare? Poiché anche noi usiamo lo stesso modello non sarebbe una contraddizione? Certo adesso è fuori contesto, ma non è da escludere che un domani quanto ci troveremo a formalizzare il problema non incorreremo davvero nell’incompletezza di Godel. Detto questo, certo l’uomo potrebbe non aver bisogno della teoria per passare alla pratica, come ha fatto la natura. Per esempio, come dicevo prima, simulando l’evoluzione e allora potrebbe creare un’intelligenza vera aldilà di ogni limite teorico.

Ma facciamo un passo in dietro, siamo sicuri di poter capire il come? Se i fenomeni quantistici sono parte integrante del modo in cui funziona il cervello allora il suo stato potrebbe essere inconoscibile. Oltre alla logica anche la fisica potrebbe porre un limite invalicabile allo studio e la comprensione della coscienza.

Dipende da cosa intendi per "sapere". Se vuoi dire che possiamo sapere, neurone per neurone, cosa stanno facendo, non c'è problema. Se invece intendi dire che tu "senti" il gusto della fragola, allora non so immaginare in che modo ti possa dare il suo responso il sofisticato rivelatore che immagini di usare, in modo da farti sentire qualcosa. Qualcosa come "elettrodi nel tuo cervello" o cose del genere? Beh, anche questo potrebbe non essere un problema. Però.... qui si fa implicitamente l'ipotesi che tu abbia applicato il Sofisticato Rlvelatore ad un cervello analogo al tuo, per cui, alla fine, si tratta di replicare i famosi pattern neurali da un cervello all'altro, ma dello stesso modello. Una cosa fantascientifica oggi, ma in linea di principio non impossibile. Ma cosa succede fra cervelli - o, a questo punto, fra SISTEMI diversi? Cosa sente una rana quando acchiappa una mosca? Pensi davvero di poterlo "sapere"? Non sarebbe come prendere un eseguibile per Windows e caricarlo pari pari su un Apple? Sì, i bit sono gli stessi, però... non funziona


“I limiti del mio linguaggio sono i limiti del mio mondo”. Wittgenstein ha risposto nel migliore dei modi a questa domanda. In poche parole Wittgenstein sosteneva che ci fosse un isomorfismo tra forma di vita e linguaggio, due entità possono comunicare solo nella misura in cui condividono lo stesso modello del mondo. Se anche il leone potesse parlare, per capirlo dovresti aver vissuto nella savana e dovresti essere un leone. In informatica si dice che due AI possono comunicare solo se hanno la stessa ontologia. Riportandolo al nostro contesto per sapere perfettamente cosa prova la rana quando prende la mosca, il tuo cervello dovrebbe essere identico al suo, dovresti essere la rana.

mgrau
"Meringolo":


ti consiglio il libro di D.Dennet "L'Io della Mente"


Conosco; non ricordo gran che, ma ricordo di averlo trovato insoddisfacente. Mi pare fosse il solito approccio computazionale, ricorsività, ecc, cose che secondo me lasciano il tempo che trovano.

Meringolo1
"mgrau":


Si può parlare di coscienza in terza persona?


ti consiglio il libro di D.Dennet "L'Io della Mente"

dan952
Questo thread è spettacolare non appena prendo una laurea in filosofia vi rispondo...

mgrau
"Fioravante Patrone":

Mica mi spaventa essere in disaccordo con qualcuno, eh!)

Ma non avevo intenzione di spaventare nessuno....

"Fioravante Patrone":
Non vedo per quale motivo la sensazione che provi prima volta che assaggi una fragola dovrebbe essere refrattaria ad una analisi "oggettiva" (in altri termini, io posso sapere quale è la sensazione che tu provi).

Dipende da cosa intendi per "sapere". Se vuoi dire che possiamo sapere, neurone per neurone, cosa stanno facendo, non c'è problema. Se invece intendi dire che tu "senti" il gusto della fragola, allora non so immaginare in che modo ti possa dare il suo responso il sofisticato rivelatore che immagini di usare, in modo da farti sentire qualcosa. Qualcosa come "elettrodi nel tuo cervello" o cose del genere? Beh, anche questo potrebbe non essere un problema. Però.... qui si fa implicitamente l'ipotesi che tu abbia applicato il Sofisticato Rlvelatore ad un cervello analogo al tuo, per cui, alla fine, si tratta di replicare i famosi pattern neurali da un cervello all'altro, ma dello stesso modello. Una cosa fantascientifica oggi, ma in linea di principio non impossibile. Ma cosa succede fra cervelli - o, a questo punto, fra SISTEMI diversi? Cosa sente una rana quando acchiappa una mosca? Pensi davvero di poterlo "sapere"? Non sarebbe come prendere un eseguibile per Windows e caricarlo pari pari su un Apple? Sì, i bit sono gli stessi, però... non funziona

Fioravante Patrone1
Fioravante Patrone ha scritto:
3. prima o poi conosceremo i processi chimico-fisici che stanno "dietro" il fenomeno della coscienza...

In totale disaccordo. Quel che penso - o temo - è che non c'è molto da trovare "dietro", ossia che, sotto l'aspetto fisico, credo che sappiamo abbastanza sul funzionamento del cervello, e non sarà una più precisa mappatura delle connessioni a risolvere il mistero.


Mica mi spaventa essere in disaccordo con qualcuno, eh! Però forse c'è un fraintendimento, dovuto al fatto che ho sintetizzato un cicicnin (ergo, colpa mia sicuramente).
Ok che sappiamo già un sacco di cose sul funzionamento del cervello (fisica/chimica). Mettiamola così, allora: è un po' un problema come da ingegneri, che mica mettono in discussione la fisica, ma dalla fisica non ricavano un granché quando devono studiare strutture complicate. Faccio ancora un piccolo tentativo per spiegarmi meglio. Ammettiamo che sappiamo il meccanismo di funzionamento dei neurotrasmettitori: ma ci sono aspetti sia di dettaglio che di sistema ed organizzazione complessiva del sistema nervoso, che sono lì a sfidarci perché proviamo a capirli. Penso a quelle cosa tipo le "proprietà emergenti" (con le quali mio nipote tempo fa mi faceva una capa tanta...). Sono aspetti sistemici che non hanno dietro nessuna magia, ma solo son complicati da capire. Non so se mi sono spiegato (ne dubito), ma è dalla comprensione di questi aspetti che poi deriva la possibilità di "misurare" non solo cosa pensi, ma che sensazione provi. Non vedo per quale motivo la sensazione che provi prima volta che assaggi una fragola dovrebbe essere refrattaria ad una analisi "oggettiva" (in altri termini, io posso sapere quale è la sensazione che tu provi).
Certo che deve passare ancora un po' di acqua sotto i ponti, ma non capisco per quale motivo ci dovrebbe essere una sorta di complessità inesplorabile. Anche se, pensando ad esempio alla complessità computazionale, può benissimo essere che la resistenza si riveli alla fin fine "invincibile".


PS:
"mgrau":

...
Questo infilare la meccanica quantistica a destra e a manca mi sa tanto di pensiero "new age"
...

Vedi? Sei già capace di leggere nel pensiero altrui :-D

mgrau
"Fioravante Patrone":
1. secondo me le robbe quantistiche non c'entrano niente


Perfettamente d'accordo. Questo infilare la meccanica quantistica a destra e a manca mi sa tanto di pensiero "new age"
"Fioravante Patrone":
3. prima o poi conosceremo i processi chimico-fisici che stanno "dietro" il fenomeno della coscienza, per cui la potremo certamente studiare in terza persona, più o meno come possiamo studiare il lievito o la ruggine.

In totale disaccordo. Quel che penso - o temo - è che non c'è molto da trovare "dietro", ossia che, sotto l'aspetto fisico, credo che sappiamo abbastanza sul funzionamento del cervello, e non sarà una più precisa mappatura delle connessioni a risolvere il mistero.

"Fioravante Patrone":
Con il "rivelatore di pensieri" si potrà sapere cosa passa per la testa (e per la trippa) di un'altra persona

Perchè no? Se sta pensando 2+2=4, o al PIN del suo bancomat, mi pare del tutto possibile. Ma se sta mangiando una fragola, e noi non abbiamo mai mangiato una fragola, non sarà così che potremo conoscere il sapore della fragola.

Fioravante Patrone1
Ma sì che so di Penrose, e sono anche convinto che non abbia capito una cippa

Quanto ai punti 2 e 3, non vedo perché applicare teoremini di logica matematica fuori contesto

Overflow94
"Fioravante Patrone":
1. secondo me le robbe quantistiche non c'entrano niente, la spiegazione sta altrove, nelle banalissime chimica e fisica che ci sono ben note da un po'. Solo che i processi sono un po' complicatini da capire e descrivere, per le nostre povere forze, per ora
2. ovvio che le macchine (se il pianeta non viene prima vaporizzato dagli umani e/o dalle macchine) avranno la coscienza. Naturalmente quelle più sofisticate
3. prima o poi conosceremo i processi chimico-fisici che stanno "dietro" il fenomeno della coscienza, per cui la potremo certamente studiare in terza persona, più o meno come possiamo studiare il lievito o la ruggine. Con il "rivelatore di pensieri" si potrà sapere cosa passa per la testa (e per la trippa) di un'altra persona

0. non ambisco a convincere nessuno, ho solo esposto i miei convincimenti


PS: a proposito di "I, robot", la Tesla ha già da pensare sul serio alle "leggi della robotica" di Asimov


Per il punto uno ti rimando a Penrose, la presenza di fenomeni quantistici nel funzionamento del cervello dovrebbe essere comprovata (cito l'autore, non ho letto studi in merito). Per i punti 2 e 3 non è chiaro in che modo è ovvio, anzi se leggi il mio post precedente ti mostro come per la matematica odierna è dimostrato impossibile. Cioè dicendo che è ovvio tu dai per scontato che scopriremo cose assurde e in apparenza in contraddizione con i risultati odierni, come se dicessi che è ovvio che un giorno dimostreremo la coerenza di ogni teoria matematica (cosa impossibile). Con questo non dico che magari non accadrà mai, potrei certo sbagliarmi su molti punti, però dico che qualsiasi sia la risposta ad oggi non è di certo "ovvia".

Fioravante Patrone1
1. secondo me le robbe quantistiche non c'entrano niente, la spiegazione sta altrove, nelle banalissime chimica e fisica che ci sono ben note da un po'. Solo che i processi sono un po' complicatini da capire e descrivere, per le nostre povere forze, per ora
2. ovvio che le macchine (se il pianeta non viene prima vaporizzato dagli umani e/o dalle macchine) avranno la coscienza. Naturalmente quelle più sofisticate
3. prima o poi conosceremo i processi chimico-fisici che stanno "dietro" il fenomeno della coscienza, per cui la potremo certamente studiare in terza persona, più o meno come possiamo studiare il lievito o la ruggine. Con il "rivelatore di pensieri" si potrà sapere cosa passa per la testa (e per la trippa) di un'altra persona

0. non ambisco a convincere nessuno, ho solo esposto i miei convincimenti


PS: a proposito di "I, robot", la Tesla ha già da pensare sul serio alle "leggi della robotica" di Asimov

mgrau
"Overflow94":

La coscienza, definita da me come la capacità di sviluppare vera conoscenza...

Chiaramente stiamo parlando di cose diverse. Tu metti l'accento sull'intelligenza, la logica, la capacità deduttiva, Godel, Popper, Penrose, ecc ecc ; sono questioni interessanti certamente, ma che non scalfiscono neanche di striscio la questione del "sentire", che per me è tutt'uno col senso di "esserci".

Overflow94
Non ho letto Asimov, sul tema dell'intelligenza artificiale consiglio (anche se non l'ho ancora finito) "La nuova mente dell'imperatore" di Penrose e in generale per ragionare di forme di vita, biologia, "Il gene egoista" dovrebbe essere un must anche se ad oggi non concordo al 100% con tutte le posizioni di Dawkins ma mi piace il suo approccio, basato sul mettere i fatti al primo posto, prima di qualsiasi considerazione morale o emotiva.

Quando ho detto che nessuna macchina si comporterebbe come un uomo, mi riferisco al concetto di macchina che abbiamo adesso, cioè macchina di Turing. Non so se in futuro arriveremo ad avere una nuova idea di macchina e di algoritmo in grado di produrre una macchina con le stesse capacità dell'uomo (una super-intelligenza). Per le teorie che abbiamo adesso è assolutamente impossibile a causa di due teoremi limitativi, uno è proprio l'incapacità di sviluppare un algoritmo che possa dire se un generico algoritmo converga o meno. A parer mio, questo è il limite che mette in luce come una macchina possa ragionare solo in modo induttivo senza avere la capacità di vedere i problemi nella loro generalità. L'altro risultato limitativo è il teorema del no-free lunch che mostra come non può esistere un algoritmo che sia migliore di ogni altro per un problema generico.

Le moderne AI sono problemi di ottimizzazione, si basano sull'approssimare una funzione target in base all'esperienza, cioè ai dati di cui dispongono. Ma, citando Popper, nessuna conoscenza può nascere dall'osservazione, il fatto che il sole sia sempre sorto non implica nessuna necessità logica che sorga anche domani. Parafrasando Newton, la vera conoscenza nasce non quando si pensa a come il mondo è ma a come dovrebbe essere, nel momento in cui si formulano teorie che spiegano tutto l'osservato e che spesso arrivano a prevedere anche quello che osserveremo.

Le macchine al momento non hanno questa facoltà prettamente umana. E ho dei seri dubbi sul fatto che ce la possano mai avere, arrivare a sviluppare una super-intelligenza vorrebbe dire costruire una teoria completa e coerente della conoscenza. Ci vedo dell'incompletezza di Godel, la conoscenza che studia se stessa, dubito che sia possibile venirne a capo. Un'altra via potrebbe essere, in futuro, nel momento in cui avremo una nuova definizione di algoritmo, magari grazie allo sviluppo dell'informatica quantistica (il nostro cervello sfrutta anche fenomeni quantistici, c'è ancora tanto da scoprire in questa direzione); anche senza avere una conoscenza teorica completa potremmo mischiare queste nuove tecniche con algoritmi genetici per ricreare il meccanismo dell'evoluzione e cercare di sviluppare l'intelligenza nello stesso modo in cui si è sviluppata naturalmente. Sara possibile? La coscienza, definita da me come la capacità di sviluppare vera conoscenza, è un semplice prodotto del processo di evoluzione, quindi può essere ricreata dall'uomo? Oppure è qualcosa di più simile a "un dono divino", qualcosa in nessun modo riproducibile dall'uomo?

gio73
thread interessante
"mgrau":


[quote="Overflow94"] Infatti credo anche che nessuna macchina si comporterebbe mai in modo del tutto indistinguibile da un essere umano.

Su questo invece io non metterei la mano sul fuoco[/quote]

Avete mai letto "Io, robot" di Asimov?

mgrau
"Overflow94":

Mi sono espresso male qui intendevo comportamento emergente come si usa in teoria della complessità. Con un significato analogo a quello che ha nella seguente frase: "la fisica classica è un comportamento emergente della meccanica quantistica".

Sì , avevo capito

"Overflow94":
Io credo che la forma sia la sostanza, in matematica due cose che si comportano nello stesso modo sono isomorfismi e diventano del tutto equivalenti, questo è il principio su cui si basa l'algebra astratta.


Se parliamo del comportamento, siamo perfettamente d'accordo.
Il problema che vedo è che, se guardiamo solo il comportamento, perdiamo la parte importante del fenomeno, la "soggettività", che purtroppo è un concetto quasi imprendibile, e, a quel che vedo, incomunicabile

"Overflow94":
Infatti credo anche che nessuna macchina si comporterebbe mai in modo del tutto indistinguibile da un essere umano.

Su questo invece io non metterei la mano sul fuoco

Overflow94
"mgrau":

Secondo me, la coscienza non è un comportamento: guardando dall'esterno il comportamento di una certa "cosa", non c'è modo di sapere se la "cosa" ha, o non ha, una coscienza, cioè "sente di esserci". (siamo nel tema del test di Turing, che per l'appunto è un metodo pratico, convenzionale, per decidere la questione). Ma certo non te lo posso dimostrare.


Mi sono espresso male qui intendevo comportamento emergente come si usa in teoria della complessità. Con un significato analogo a quello che ha nella seguente frase: "la fisica classica è un comportamento emergente della meccanica quantistica".

Però la tua risposta mi ha dato un ottimo spunto per approfondire il mio punto di vista. Io credo che la forma sia la sostanza, in matematica due cose che si comportano nello stesso modo sono isomorfismi e diventano del tutto equivalenti, questo è il principio su cui si basa l'algebra astratta. Infatti credo anche che nessuna macchina si comporterebbe mai in modo del tutto indistinguibile da un essere umano.

mgrau
"Overflow94":

Per sapere se un cibo è velenoso e prendere la decisione di mangiarlo o meno ci sarà bisogno di un qualche tipo di sensore (lingua) che restituisca un qualche tipo di valore (sapore) sul quale basare la decisione, ecco questo è "Il sentire il gusto della fragola" a livello logico è lo stesso schema di una macchina.

Che dirti... per me, se tu dici che il sentire è questo, ti perdi l'essenziale del concetto. Ma certo non te lo posso dimostrare.

"Overflow94":
Non mi stupisce che un uomo senta il dolore o il sapore delle cose, perché ripeto mi sembra una capacità che banalmente appartiene a qualsiasi modello dotato di un sensore

Idem

"Overflow94":
infatti la coscienza è considerata un comportamento emergente del sistema costituito dai singoli neuroni e dai loro impulsi elettrici.

Secondo me, la coscienza non è un comportamento: guardando dall'esterno il comportamento di una certa "cosa", non c'è modo di sapere se la "cosa" ha, o non ha, una coscienza, cioè "sente di esserci". (siamo nel tema del test di Turing, che per l'appunto è un metodo pratico, convenzionale, per decidere la questione). Ma certo non te lo posso dimostrare.

Overflow94
"mgrau":
Mi pare che proprio non ci intendiamo sul significato di "sentire".
Il senso che gli dai tu - che ricavo dagli esempi che hai fatto - è quello - correggimi se sbaglio - di : "modificare il proprio stato a seguito di modifiche ambientali". Il che si applica sostanzialmente a TUTTO (magari possiamo escludere i neutrini...) Poi tu ci aggiungi altri ingredienti, che però mi sembrano inessenziali, come "al fine di assolvere un compito", cosicchè, per esempio, deduco, un termostato sente (accende o spegne la caldaia) e un termometro no (si limita a segnare la temperatura, ma non interviene).
Per me, sentire implica che ci sia "qualcuno" o "qualcosa" che sente, un soggetto insomma. Qualcosa di cui si possa dire "Cosa si prova a essere X?" (faccio riferimento al libro di Nagel "What is like to be a bat?", che ti consiglio)
Secondo te, avrebbe senso dire "Cosa si prova ad essere un termostato?"?
Per me no; se invece per te è sì, beh, forse sei animista, o forse sei mooolto più materialista di me


Non capisco perché tu sia così convinto che la tua percezione sia così categoricamente diversa da quella di un oggetto non biologico. Per sapere se un cibo è velenoso e prendere la decisione di mangiarlo o meno ci sarà bisogno di un qualche tipo di sensore (lingua) che restituisca un qualche tipo di valore (sapore) sul quale basare la decisione, ecco questo è "Il sentire il gusto della fragola" a livello logico è lo stesso schema di una macchina.

Non sono ne animista, ne materialista, infatti quello che sto affermando è che la differenza tra una macchina e un uomo non è di tipo materiale. Un elettrone preso dal pensiero di un uomo piuttosto che dal transistor di un termostato sono del tutto indistinguibili, infatti la coscienza è considerata un comportamento emergente del sistema costituito dai singoli neuroni e dai loro impulsi elettrici. Cioè un comportamento che non può essere spiegato dalle singole parti. Per me la differenza tra macchina e uomo sta proprio a livello logico, cioè se potessimo rappresentare completamente con un modello matematico il nostro cervello, non sarebbe una macchina di Turing.

Non mi stupisce che un uomo senta il dolore o il sapore delle cose, perché ripeto mi sembra una capacità che banalmente appartiene a qualsiasi modello dotato di un sensore, un modo per acquisire un input. Quello che mi stupisce tantissimo del cervello umano è la sua natura deduttiva, mentre un computer è solo induttivo Se dici a un bambino che i numeri sono infiniti e lui non ci crede si metterà a contare e dopo un po' se ne renderà conto da solo. Se chiedi a un computer di verificare se i numeri sono infiniti andrà avanti a contare all'infinito senza giungere a nessuna conclusione. Non è una differenza materiale, è una differenza sul piano logico.

fab_mar9093
Al ragazzo del 94:
anche io non condivido la tua definizione di sentire.
Non mi è mai capitato di dire che un computer (un oggetto) sente le mie istruzioni (qualcosa).

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.