Mentire nel formare coalizioni
Salve,
siete a conoscenza di particolari giochi o domini applicativi in cui di fatto è possibile per un agente/giocatore mentire riguardo le proprie informazioni (risorse/capacità) per determinare al termine del processo di coalition formation un payoff ancora maggiore per sè (rispetto ad uno derivabile da una distribuzione di payoff stabile ad esempio)?
Mi sono imbattuto in tale problematica e ora cerco di determinare un campo preciso in cui tale situazione può presentarsi e mi servono riferimenti teorici da studiare, mi sono appena avvicinato alla TdG. Vi chiedo di essere propriamente indirizzato su qualche lettura : ) Credo sia fondamentale che gli agenti non abbiano la conoscenza completa delle informazioni relative agli altri agenti e che la tipologia degli agenti sia eterogenea. Mi chiedo però se si parte dal presupposto che tutti gli agenti partecipanti siano razionali, se un agente mentisse per ottenere quanto detto sopra, lo sarebbe ancora?
siete a conoscenza di particolari giochi o domini applicativi in cui di fatto è possibile per un agente/giocatore mentire riguardo le proprie informazioni (risorse/capacità) per determinare al termine del processo di coalition formation un payoff ancora maggiore per sè (rispetto ad uno derivabile da una distribuzione di payoff stabile ad esempio)?
Mi sono imbattuto in tale problematica e ora cerco di determinare un campo preciso in cui tale situazione può presentarsi e mi servono riferimenti teorici da studiare, mi sono appena avvicinato alla TdG. Vi chiedo di essere propriamente indirizzato su qualche lettura : ) Credo sia fondamentale che gli agenti non abbiano la conoscenza completa delle informazioni relative agli altri agenti e che la tipologia degli agenti sia eterogenea. Mi chiedo però se si parte dal presupposto che tutti gli agenti partecipanti siano razionali, se un agente mentisse per ottenere quanto detto sopra, lo sarebbe ancora?
Risposte
Non mi occupo di questo "ramo", non ho quindi una risposta specifica.
Potresti dare un'occhiata alla pagina web del "Coalition Theory Network":
http://www.feem-web.it/ctn/
PS: non avevo notato questo:
La razionalità (come intesa in TdG, od anche nella economia neoclassica: preferenze coerenti sugli esiti + anelare verso l'esito "più preferito") non è in contraddizione col fatto di mentire.
Potresti dare un'occhiata alla pagina web del "Coalition Theory Network":
http://www.feem-web.it/ctn/
PS: non avevo notato questo:
"Aero Dinamica":
Mi chiedo però se si parte dal presupposto che tutti gli agenti partecipanti siano razionali, se un agente mentisse per ottenere quanto detto sopra, lo sarebbe ancora?
La razionalità (come intesa in TdG, od anche nella economia neoclassica: preferenze coerenti sugli esiti + anelare verso l'esito "più preferito") non è in contraddizione col fatto di mentire.
Ti ringrazio molto per la risposta
Sto scoprendo che esistono due tipi di razionalità (o forse sarebbe meglio dire due aspetti di uno stesso concetto di razionalità): la razionalità individuale e quella di gruppo. Nei modelli che io conosco (veramente pochi per la verità) vi è il presupporre la razionalità di gruppo quando si parla di giochi cooperativi (e in particolare conosco CFG con problematiche di coalition formation). L'atto di mentire in tali scenari equivalrebbe per un agente a dimostrarsi razionale individualista fra razionali per il gruppo, oppure razionale per il gruppo fino ad una determinata azione della sua strategia e poi individualista. Mi chiedevo se esistessero modelli per tali scenari o se fossero delle chimere prodotte da me. La mia conoscenza in TdG è limitata e potrei aver scritto delle grandi cavolate
Sto scoprendo che esistono due tipi di razionalità (o forse sarebbe meglio dire due aspetti di uno stesso concetto di razionalità): la razionalità individuale e quella di gruppo. Nei modelli che io conosco (veramente pochi per la verità) vi è il presupporre la razionalità di gruppo quando si parla di giochi cooperativi (e in particolare conosco CFG con problematiche di coalition formation). L'atto di mentire in tali scenari equivalrebbe per un agente a dimostrarsi razionale individualista fra razionali per il gruppo, oppure razionale per il gruppo fino ad una determinata azione della sua strategia e poi individualista. Mi chiedevo se esistessero modelli per tali scenari o se fossero delle chimere prodotte da me. La mia conoscenza in TdG è limitata e potrei aver scritto delle grandi cavolate
Mah, uno dei "pilastri" della TdG (piaccia o no) è il cosiddetto individualismo metodologico. Per cui quella che chiami razionalità di gruppo è derivata (giustificata, spiegata) a partire dalla razionalità individuale. Esempio classico, nel contesto dei giochi cooperativi, è la nozione di "nucleo".
Sul "mentire" il punto di vista standard è che uno sceglie, tra le azioni disponibili, quella che ritiene lui più conveniente, data l'info che possiede e i belief da cui "è posseduto" (
) (*). Quindi, fissare una soglia che indichi il passaggio da una scelta che fa gli inteessi del gruppo a una scelta "individualistica" dipenderà dai paameti menzionati.
Le considerazioni "morali" sono fuori luogo. Il che non vuol dire che non ci sia interesse a scoprire quali strutture istituzionali inducano comportamenti "etici" o come questi modi di comportamento nascano e si evolvano.
(*) [size=75]Esempio. Io sono l'agente delle tasse e ti chiedo: quest'anno hai guadagnato 10.000 o 100.000 euro? Se la tassa è funzione crescente del reddito, tu mi dirai 10.000. A meno che tu non abbia (ritenga di avere) un rischio troppo elevato di essere scoperto, etc.[/size]
Sul "mentire" il punto di vista standard è che uno sceglie, tra le azioni disponibili, quella che ritiene lui più conveniente, data l'info che possiede e i belief da cui "è posseduto" (

Le considerazioni "morali" sono fuori luogo. Il che non vuol dire che non ci sia interesse a scoprire quali strutture istituzionali inducano comportamenti "etici" o come questi modi di comportamento nascano e si evolvano.
(*) [size=75]Esempio. Io sono l'agente delle tasse e ti chiedo: quest'anno hai guadagnato 10.000 o 100.000 euro? Se la tassa è funzione crescente del reddito, tu mi dirai 10.000. A meno che tu non abbia (ritenga di avere) un rischio troppo elevato di essere scoperto, etc.[/size]
Grazie per aver ancora risposto. Credo di capire che la distinzione fra i due aspetti di razionalità sia effettiva in campi quali la AI e la DAI (in informatica) nel momento in cui ci si accinge a modellare agenti intelligenti ci si riduce a renderli razionali e in relazione all'ambiente in cui opereranno e allo specifico dominio applicativo li si dota (sostanzialmente) di un tipo di razionalità. Comprendo come in TdG, assunto l'individualismo metodologico, ne consegue la derivazione di un aspetto dall'altro.
Il mio interesse ricade nella informatica, in questo settore mi è stato proposto il problema di coalition formation e gli approcci visti assumevano gli agenti come razionali per la coalizione, ad eccezione di un caso (qui http://www.dfki.de/~blankenb/publicatio ... afekca.pdf basato sul kernel set) in cui si parlava della possibilità da parte di un agente di mentire e ciò era presentato come aspetto negativo per la coalizione (e gli altri agenti). Io mi chiedevo se tale occasione fosse possibile in relazione al dominio applicativo, alla scelta di come distribuire i payoff fra gli agenti (in questo caso kernel set) e via dicendo. Credo che la risposta sia : ciò è possibile rispetto a come in generale si modella l'agente intelligente e in situazioni di incertezza (per cui anche la distribuzione dei payoff può essere alterata). Credo però ancora che vi siano problemi o giochi in cui cooperare tramite la formazione di coalizioni non lasci spazio a mentire e quindi rompere la coalizione.
Il mio interesse ricade nella informatica, in questo settore mi è stato proposto il problema di coalition formation e gli approcci visti assumevano gli agenti come razionali per la coalizione, ad eccezione di un caso (qui http://www.dfki.de/~blankenb/publicatio ... afekca.pdf basato sul kernel set) in cui si parlava della possibilità da parte di un agente di mentire e ciò era presentato come aspetto negativo per la coalizione (e gli altri agenti). Io mi chiedevo se tale occasione fosse possibile in relazione al dominio applicativo, alla scelta di come distribuire i payoff fra gli agenti (in questo caso kernel set) e via dicendo. Credo che la risposta sia : ciò è possibile rispetto a come in generale si modella l'agente intelligente e in situazioni di incertezza (per cui anche la distribuzione dei payoff può essere alterata). Credo però ancora che vi siano problemi o giochi in cui cooperare tramite la formazione di coalizioni non lasci spazio a mentire e quindi rompere la coalizione.