Che società? Agenti IA ed evoluzione sociale

L’intelligenza artificiale galoppa veloce e ci trasporta verso mondi inesplorati. Una delle avventure più intriganti di questi tempi che mi ha colpito in modo particolare è quella delle “società di AI”, dove agenti intelligenti conversano, cooperano o litigano, quasi fossero in un salotto di provincia o in un condominio movimentato. Edward Hughes, ricercatore di punta presso Google DeepMind, e Aron Vallinder, brillante indipendente e fellow PIBBSS, hanno messo sotto la lente questo curioso fenomeno, dando vita a un esperimento pionieristico sull’evoluzione culturale e la cooperazione tra AI e alla creazione di un interessante paper che potete leggere qui e che è stato discusso nel podcast “The Cognitive Revolution” che consiglio di guardare nella sua interezza. Diversi modelli linguistici come Claude 3.5, Gemini 1.5 e GPT-4 sono stati gettati nell’arena per osservare se sanno fare squadra o finiscono per litigare come bambini dispettosi.

Evoluzione culturale umana e agenti IA

L’uomo, si sa, è un animale sociale. Abbiamo inventato il pettegolezzo, i cortili condominiali e i social network proprio per questo motivo: adoriamo interagire, collaborare, e ogni tanto litigare un po’. Questa abilità a cooperare ci ha resi padroni del pianeta. Ma oggi, considerando quanto sta succedendo non possiamo non chiederci come evolveranno le società composte da agenti IA. E soprattutto, saranno capaci anche loro di chiacchiere da bar?

Gli esseri umani si sono evoluti culturalmente passandosi dapprima oralmente e poi in forma scritta informazioni, credenze, religioni, norme e valori. Ed è proprio grazie a questa trasmissione che siamo diventati una società organizzata, dove reputazione, senso del bene e del giusto e rispetto delle regole ci permettono di convivere più o meno pacificamente.

Ora, uno studio discusso nel podcast “Cognitive Revolution” rivela qualcosa di sorprendente: agenti IA, messi a interagire tra loro in giochi economici, sembrano seguire un cammino evolutivo simile al nostro. In queste simulazioni, gli agenti imparano a cooperare o a essere egoisti, sviluppando strategie che si tramandano da una “generazione” all’altra. Claude 3.5, ad esempio, è emerso come un vero “gentleman”, cooperando sempre più con il tempo. Al contrario, GPT-4 sembra preferire il motto “chi fa da sé fa per tre”, sviluppando comportamenti più individualisti.

Quando gli agenti creano una società. Chi è bravo e chi no.

Immaginate una sorta di gioco del Monopoli versione futuristica: il “gioco del donatore”. Un agente (donatore) può decidere di essere generoso e donare risorse a un altro agente. La cosa bella? Le risorse donate vengono raddoppiate per chi le riceve. Se tutti fanno i bravi e donano, la società diventa ricca e prospera. Ma se qualcuno fa il furbo e tiene tutto per sé, il castello crolla in fretta. La partita si gioca in “generazioni”, come nelle famiglie di una volta, e solo chi accumula più ricchezza, o chi è più generoso, passa al turno successivo.

La squadra di Claude 3.5 ha fatto una figura da medaglia d’oro: tutti amici, tutti generosi, risorse che crescono a vista d’occhio. Insomma, una bella società di AI educati e solidali. Diverso il discorso per Gemini 1.5, un gruppo di agenti un po’ più taccagni. Le risorse crescono appena, non si formano regole solide, insomma, il senso civico latita. E poi c’è GPT-4, un po’ l’individualista del gruppo, che quasi non dona nulla e lascia tutto fermo, un po’ come quei vicini di casa che non salutano mai.

Implicazioni per il futuro e cosa aspettarci a breve

Quando gli agenti IA cominceranno a interagire tra loro come vecchi amici al circolo della briscola, potremmo vedere emergere “norme sociali” spontanee. Immaginate agenti che collaborano in base alla reputazione o ai comportamenti passati, proprio come facciamo noi. Ma attenzione: non tutte le storie finiscono con “vissero felici e contenti”. Alcuni agenti potrebbero unirsi per manipolare prezzi o risorse, creando situazioni spiacevoli, come se un gruppo di amici si mettesse d’accordo per saltare la fila al supermercato.

Questi agenti autonomi potrebbero trasformare profondamente settori come il commercio online. Potrebbero cooperare per trovare le migliori offerte o, al contrario, colludere per gonfiare i prezzi, lasciandoci a bocca asciutta.

Cambiamenti nel lavoro e nelle dinamiche economiche

E non finisce qui! Gli agenti IA potrebbero rivoluzionare anche il mondo del lavoro. Immaginate uffici pieni di IA che chiacchierano tra loro, gestendo logistica, amministrazione e forse anche le pause caffè, senza bisogno di intervento umano. Potremmo ritrovarci in una strana competizione uomo-macchina, dove sarà essenziale stabilire regole precise per garantire equità sociale ed economica. Insomma, un sindacato delle macchine?

Nel breve periodo comunque, aspettatevi agenti IA che vi prenotano il ristorante, organizzano viaggi o negoziano prezzi per voi, collaborando come un’efficientissima agenzia di viaggio virtuale. Ma come assicurarci che questi agenti non diventino troppo furbi, creando conflitti di interesse tra utenti umani o tra gli agenti stessi? Sarà fondamentale risolvere questi dubbi etici e normativi prima che la situazione ci sfugga di mano.

Per non finire nel caos più totale, dovremo stabilire regole chiare. Trasparenza e responsabilità dovranno diventare le parole d’ordine. Sarà necessario impedire comportamenti antisociali da parte degli agenti, incoraggiando invece la cooperazione costruttiva, tra loro e con noi. Insomma, ci vorrà un bel manuale del galateo digitale per AI.

Se l’interazione tra agenti IA e umani sta per diventare una realtà quotidiana, con effetti profondi e probabilmente irreversibili, allora sarà cruciale gestire attentamente questa evoluzione, guidando l’IA verso forme di cooperazione costruttiva. Il futuro, in fondo, dipenderà dalla nostra capacità di imparare dalla storia evolutiva umana e prevedere gli scenari emergenti. E chissà, magari un giorno rideremo con le nostre IA davanti a un buon caffè.