L'intelligenza artificiale legge il pensiero

gabriella127
Leggo oggi questo articolo, metto in fondo il link, su Repubblica: GpTI ha indovinato le parole pensate da una persona esaminando immagini del cervello. Il che mi lascia esterrefatta, non tanto per il fatto che questi fenomeni avvengano, ma perché non riesco ad avere la minima idea del perché e come avvengano.

E devo dire che non mi piace affatto un'informazione su queste cose che non dà mai un minimo di spiegazioni, ma lascia tutto a una specie di suggestione metafisica, che serve solo a épater le bourgeois, e a far diventare la tecnologia una entità mistica. Salvo poi dire: corriamo ai ripari dal futuro orwelliano.

Immagino non sia facile, perché è roba da neuroscienziati, e poi lo so che sul funzionamento del cervello non si sa ancora molto, ma insomma, uno sforzo di divulgazione scientifica ci vorrebbe. Anche perché sono temi di assoluto fascino, se si evitano le facili suggestioni.

Qualcuno ha una idea di quale sia la spiegazione dal punto di vista scientifico?

https://www.repubblica.it/esteri/2023/0 ... 401553324/

Metto anche qui sotto l'articolo come immagine, perché temo che non sia leggibile dai non abbonati:




Risposte
gabriella127
Sì, sgrisolo, la tua è una giustissima osservazione, non so rispondere, tendo a pensare che ci siano entrambe le cose, i modelli sbagliati di cui parli, e credo anche alcune caratteristiche del mezzo in sé.
Un eccesso di facilità nell'accedere a troppe informazioni, che non vengono adeguatamente organizzate mentalmente e 'digerite', proprio per la frammentarietà del mezzo, che fornisce tanto quantitativaente ma non fornisce un quadro in cui organizzare quelle informazioni, abitua a un saltare di palo in frasca senza una vera elaborazione, e senza approfondire.
Diverso è un libro, dove hai un ordine, una gerarchia, capisci cosa è importante e cosa e minore e così via.

E poi ho notato che spesso internet e le varie app fanno schermo al mondo. Faccio un esempio, tra i tanti che ho notato: una ragazza alla fermata dell'autobus che compulsava il telefonino per sapere le fermate di un certo autobus, senza riuscirci, e poi ha chiesto a un autista che non lo sapeva, e lei ha continuato a compulsare il telefonino.
Sarebbe bastato alzare gli occhi e vedere tutto il percorso scritto sulla paletta della fermata, come si sa, ma sembra che questi aggegi diventano paraocchi.

sgrisolo
"gabriella127":
e alcuni studiosi lo attribuiscono alla iperconnessione, telefonini, internet, etc.

Sì, sarebbe da capire se è dovuto a internet in sé (cioè avere sempre info sotto mano e non sforzarsi) o se piuttosto sia dovuto all'uso che se ne fa.
Voglio dire, internet è un grandissimo punto di riferimento per molte persone e anche una "scuola di pensiero", anche i più giovani, e se pubblicizzo su questo media la stupidità e la premio con lauti stipendi e "bella vita", questi modelli diventano il punto di arrivo e di ispirazione per molti. Abbandonare così lo studio per mirare a una vita del genere è ovvio che abbassa il QI mondiale.
E' un peccato, ma spesso a me sembra proprio che succeda proprio questo.

gabriella127
Non ho ancora visto il video, poi lo vedo.

Sono d'accordo, come avevo detto, che nella vulgata comune e giornalistica, si tende a divinizzare l'AI, e francamente non lo trovo pericoloso di per sé, ma semplicemente sottoculturale.
Se ben vedi, ma questo da sempre, quelli più critici e meno scioccamente entusiasti sono spesso state le persone del settore, molti sviluppatori di internet e AI, che sanno di che si parla e ne conoscono meglio di noi pregi e difetti.
Parlo ad esempio di quelli che lavorano nella Sylicon Valley e mandavano i figli nelle scuole Steineriane dove i computer sono proibiti, o uno dei guru di internet Jaron Lanier, che ha scritto bestsellers super-critici su come si è evoluta internet (la chiama 'la fregatura', non di per sé ma per come nei fatti si è sviluppata).

Non credo che ci sia un disegno particolare unico dietro questa divinizzazione, non perché siano buoni ma perché gli interessi possono essere contrastanti, caso mai interessi particolari sì, anche fortissimi, ma molto è la sciatteria dell'informazione, compreso il fatto che bisogna attirare il pubblico con informazioni emotive e ad effetto, favorire la contrapposizione, spaccare il mondo in bianco e nero. Spiegare davvero è diventata cosa rara.

Questo non vuol dire che non ci siano in gioco interessi fortissimi, anche contrastanti, che influenzano anche l'informazione, e naturalmente ci sono parti sociali ed economiche più forti di altri. Non è certo complottismo, questo ormai lo dice persino Mattarella (una frase misteriosa in proposito nel suo ultimo discorso di Capodanno, tipo ''ci sono poteri sovranazionali etc. etc.," non ricordo bene) e la Von der Leyen ("ci sono al giorno d'oggi poteri più forti degli stati" ha detto di recente). Giorgio Paris in una intervista di un paio di giorni fa, a la Stampa, mi pare, ha detto che lo preoccupano più gli interessi delle case farmaceutiche che l'AI.

La scienza ha sempre presentato dei pericoli, e sta agli scienziati (vedi bomba atomica) ma soprattutto alla società stabilire se e dove ci devono essere limiti. Il problema è che ora i cambiamenti sono sempre più veloci.

Ma oltre a pericoli eclatanti (bomba in testa o controllo delle menti o aspetti effettivamente inquietanti come il riconoscimento facciale mal usato) ce ne sono di molto più sfuggenti difficili da individuare e difficili da gestire, che coinvolgono anche la vita quotidiana, e il futuro dei nostri ragazzi e bambini, perché non si può ne' fare i luddisti ne' accettare qualsiasi cosa a come capita, vedendo nell'innovazione tecnologica sempre il 'bene' (o il 'male').

La cosa è ora esplosa nei media con ChatGpt, perché è entrata subito nella quotidianetà. Ed è ovvio che ci saranno interessi economici che vorrebbero piazzare la Chatgpt pure in mano ai neonati, o la vorrebbero far usare pure per fare la pizza.

Ma ad esempio una cosa che si sa, ci sono ormai ricerche in merito, è che per la prima volta dal dopoguerra il quoziente di intelligenza medio nei paesi occidentali è diminuito, e alcuni studiosi lo attribuiscono alla iperconnessione, telefonini, internet, etc.

(In questo momento, mentre scrivo, vorrei che la ricerca si occupasse un po' meno di AI e un po' più di come tenere lontane le zanzare, ci sono quest'anno zanzare refrattarie al freddo, al Vape, al Napalm, penso anche all'atomica, che mi stanno già tormentando a maggio).

utente__medio11
Leggendo qui mi è tornato alla mente un video visto un mesetto fa:

https://www.youtube.com/watch?v=5N6e5a-oCmg

Ovviamente il video non ha nessuna pretesa di divulgazione scientifica, ma riporta alcune notizie interessanti, come una conferenza del WEF 2023 basata su questi argomenti e intitolata "Pronti alla trasparenza cerebrale?"; inoltre partendo da alcuni articoli mostrati nel video, mi è sembrato di capire che esistono anche alcuni esperimenti di lettura della mente (basati su immagini) che non fanno uso di alcun "pre-allenamento".

Per quanto mi riguarda comunque non condivido l'entusiasmo e il sensazionalismo dei media sull'intelligenza artificiale, oramai si parla di AI (spesso a sproposito) in ogni settore... sarò complottista, ma secondo me si tende quasi a divinizzare questa presunta intelligenza artificiale solo per celare, e in futuro magari assolvere, coloro che sono addetti alla sua implementazione, ossia uomini in carne ed ossa spinti da ben precise ideologie, oltre che da interessi politici ed economici.


P.S.
Sempre dal video mi sono imbattuto in "Stable Diffusion", un'IA che stando a quanto letto riuscirebbe a convertire descrizioni testuali in immagini. Qualcuno di voi l'ha testata?

gabriella127
@ Zero mi riferivo a me stessa, non a te, alla mia 'acidità', che è solo un fastidio per come queste cose sono in genere trattate, un misto di informazione approssimativa, atteggiamento mistico, citazioni di scenari orweliani e simili, ha ragione matos quando dice che sembra che si parla di super poteri da fumetto e si fantastica come bambini.

In realtà gli articoli non sono così diversi, più che altro quello del Corriere dice qualcosa, quello di Repubblica poco o niente.

Poi la parte interessante della notizia, mi pare, dal basso della mia ignoranza in neuroscienze, non è il lato AI, che alla fine riconosce immagini come in altre situazioni, ma come le parole possano influire in modo così riconoscibile sul cervello di una persona, cioè se pensi 'capra' viene un'immagine, se pensi cavolo' un'altra, tale da essere univocamente riconoscibili ex post.

Zero87
"gabriella127":
Non è che così siano sciocchezze, sempre sono cose sorprendenti comunque, agli occhi del profano almeno.

D'altra parte ho scritto così (sottolineo)
"il sottoscritto, nel post precedente, ":
qui stiamo con i piedi per terra e con tante aspettative.

perché è ovvio che si tratta di un risultato sorprendente. Stiamo parlando del cervello umano, praticamente il cuore (ah, che gioco di parole! :D ) della nostra individualità, razionalità e irrazionalità.
Se hai notato una punta di acidità nel mio intervento precedente, hai ragione Gabriella, ma è ovvio che non è diretta a te. È che il Corriere della sera e La Repubblica - che, per lo meno io, da profano, considero tra le fonti più grandi e attendibili (?) a livello nazionale - riportano, nella pratica, due notizie tanto diverse... #-o

gabriella127
Sono d'accordo con te al 200%, (e lo so che non parlavi di me), sul senso comune (e anche il giornalismo ci si mette) che guardano all'AI come a una entità metafisica tipo idolo, ed è chiaro che se lo vedi come un potere mistico poi ne hai paura, tipo Giove che ti manda il fulmine sulla capoccia, sono facce della stessa medaglia.
Senza però non riconoscere che pericoli ci possono essere ed è un problema serio su cui riflettere.

In un altro post qui disse che in effetti l'AI e il machine learning alle fine sono una poco mitologica classificazione di cani e gatti ... Era una esagerazione retorica, ma molto è quello, riconoscimento di immagini e classificazioni.

Delle neuroscienze purtroppo non so davvero un tubo, e trovo interessante la tua considerazione che usano strumenti arretrati.

Forse, quella cosa più rudimentale di cui parli erano degli esperimenti fatti mi pare negli Stati Uniti, che in qualche modo somigliavano alla trasmissione del pensiero tipo telepatia, senza AI. Quello è un campo di cui si sa pochissimo credo, ma ci sono studiosi seri che prendono la cosa sul serio.

matos1
"gabriella127":

Io per la verità non mi spavento per niente, come dice Zero cerco di capirci qualcosa e di uscire da un livello di informazione tipo Futurama (senza offesa per Futurama, penso allusione al grande Matt Groening :D ).

No, ma non parlavo di te sia chiaro.

Parlavo del senso comune che fantastica sulle IA come se avessero un superpotere, ma alla fine gira che ti rigira è un riconoscimento di immagini, mica un indovino! E mi fa ridere che gli articolisti fantastichino come bambini ma basterebbe far 2+2 e capire che sena RMN dove vai? :-D

Comunque, anni fa, una cosa più rudimentale era stata fatta anche sulle onde cerebrali e sfruttando un eeg, se non ricordo male. Senza IA

Il cervello è affascinante, hai ragione, però il problema della ricerca in questo campo secondo me è che finché non ci sarà un modello valido dietro (matematico/fisico) è un po come navigare nella fisica pre "philosophiae naturalis principia mathematica". La mia sensazione è quella.
Lo dico perché ho una coinquilina che è un postdoc in neuroscienze e comparandolo al metodo che trovo nella mia branca (per quando io sia un novizio-incapace nella mia branca :lol:) mi sembra che lavori come in un medioevo concettuale scientificamente parlando.

gabriella127
Così capisco qualcosa, ha un senso, e comunque presuppone che l' aggeggio AI abbia visto una grande quantità di immagini del cervello di quella persona singola, questo mi sembra di capire, cioè se addestrato su una persona non decodifica quello che pensano altri, ma solo quella persona, no?
Cioè, sembra che apprenda come reagisce la capoccia del singolo individuo a quelle letture, e poi può indovinare quello che l'individua stesso pensa, ex post.

Quello che mi lasciava sbalordita, è che ci fossero dei segnali-immagini per le parole nel cervello uguali per tutti, ma quindi non mi sembra allora che sia così. Infatti tu riporti "I risultati per gli individui sui quali il decodificatore non è stato addestrato erano incomprensibili".
Non è che così siano sciocchezze, sempre sono cose sorprendenti comunque, agli occhi del profano almeno.
Ma il punto credo che davvero del cervello ancora c'è tanto da sapere, a me la cosa che mi affascina è quella, il funzionamento del cervello umano.

"matos":
Ma secondo me, è solo una ipotesi, semplicemente la IA è istruita su una gran mole di dati di immagini di cervelli che pensano una tal cosa. Quindi dalle figure (risonanza funzionale) colorate che appaiono di cervelli pensanti lei deduce ciò che pensi (sull'esperienza che ha avuto).
[...]
A questo punto perché fare fantasie sulla IA e spaventarci se quella legge immagini di un cervello, potremmo fantasticare su mille altre cose future/dispositivi che possono leggere il pensiero senza sfruttare la IA, no?


Sì certo, così è molto più comprensibile, è un riconoscimento di fatto di immagini, non di parole in sé.

Io per la verità non mi spavento per niente, come dice Zero cerco di capirci qualcosa e di uscire da un livello di informazione tipo Futurama (senza offesa per Futurama, penso allusione al grande Matt Groening :D ).

Zero87
Anche il corriere della sera cita la stessa notizia (riporto il link intero in codice)
https://www.corriere.it/salute/neuroscienze/23_maggio_02/intelligenza-artificiale-legge-pensiero-bdf80060-e80c-11ed-90be-edffb0f60146.shtml

Non credo che occorra essere abbonati, io l'ho aperto e non sono abbonato.

Comunque si legge un passaggio specifico, non riportato da Repubblica.
«L’attività cerebrale viene misurata utilizzando Risonanza Magnetica Funzionale (fMRI) dopo un lungo addestramento del decodificatore, in cui l’individuo ascolta ore di podcast nello scanner. Successivamente, a condizione che il partecipante sia disposto a far decodificare i propri pensieri, l’immaginazione del racconto di una storia consente alla macchina di generare il testo corrispondente dalla sola attività cerebrale.»
E un altro passaggio specifico.
«Circa la metà delle volte, quando il decodificatore è stato addestrato a monitorare l’attività cerebrale di un partecipante, la macchina ha prodotto un testo che corrisponde ai significati previsti delle parole originali. I ricercatori hanno precisato che la decodifica ha funzionato solo con partecipanti cooperativi che avevano partecipato volontariamente all’addestramento del decodificatore. I risultati per gli individui sui quali il decodificatore non era stato addestrato erano incomprensibili.»

Non so chi abbia ragione tra il Corsera e la Repubblica, ma di là siamo a livello Futurama mentre qui stiamo con i piedi per terra e con tante aspettative.

matos1
Ma secondo me, è solo una ipotesi, semplicemente la IA è istruita su una gran mole di dati di immagini di cervelli che pensano una tal cosa. Quindi dalle figure (risonanza funzionale) colorate che appaiono di cervelli pensanti lei deduce ciò che pensi (sull'esperienza che ha avuto).

Quindi se cosi fosse ci sono due cose che servono perché funzioni:
- ottenere una immagine di un cervello in funzione: e per farlo serve una RMN
- la IA indovina solo guardando le immagini, quindi non può funzionare quel metodo guardando altre cose e dedurre alcunché

A questo punto perché fare fantasie sulla IA e spaventarci se quella legge immagini di un cervello, potremmo fantasticare su mille altre cose future/dispositivi che possono leggere il pensiero senza sfruttare la IA, no?
la fantasia non ha limiti tanto.

Era questo che volevo dire :D

gabriella127
Be', la fantasia di leggere nel pensiero c'è sempre stata, e questa possibilità avrebbe conseguenze incalcolabili, la fantasia si può sbizzarrire, probabilmente segnerebbe la distruzione dell'umanità.

Immagino ad esempio un convegno, in cui si ascoltano delle relazioni degli altri con noia micidiale, poi dopo ci si scambia tanti complimenti "Molto interessante il tuo lavoro...", e intanto si pense "Questo è un cretino".
Un mio amico professore universitario mi diceva che per sopportare la noia di certe relazioni ai congressi immaginava il relatore con un'ascia piantata nel cranio... :-D Ecco, si aprirebbero scenari sanguinosi.


Però il fatto che veramente avvenga è sconcertante, quello che mi colpisce è che veramente si indovinino le parole pensate.
Non troverei nulla di strano se si capisse se la persona sente musica, o legge o altro, ma le specifiche parole???
Ma come è possibile che in immagini del cervello ci siano codificate in qualche modo le parole?

matos1
Beh, oddio, mi sembra in effetti abbastanza azzardato dire che possa leggere in futuro contro la volonta. Anche perché chi, senza accorgersene, entra dentro una RMN :-D

E dato che l'esperimento si basa sulla lettura di immagini funzionali di risonanza la vedo dura fare previsioni in tal senso. Se succedesse non sarebbe di sicuro tramite quella tecnologia di riconoscimento immagini tramite IA.

Rispondi
Per rispondere a questa discussione devi prima effettuare il login.