Connect with us

Intelligenza Artificiale

Agenti AI: le forme di interazione sociale

Published

on

Agenti AI

Agenti AI: stanno prendendo forma le prime “società basate sull’intelligenza artificiale”. Gli scienziati stanno studiando le forme di interazione “sociale” tra agenti di intelligenza artificiale. Scopriranno una nuova forma di sociologia o semplicemente un sofisticato mimo? Addestrando agenti di intelligenza artificiale a imitare i comportamenti delle persone, i gruppi di ricerca sull’intelligenza artificiale stanno cercando di replicare il modo in cui interagiscono i gruppi umani, il tutto all’interno di “società” di intelligenza artificiale simulate.

Agenti AI

Questo tipo di bot AI sta costruendo davvero una sua società artificiale?

Agenti AI: somigliano a noi?

Simile, una start-up di intelligenza artificiale con sede a Palo Alto, in California, ha annunciato a febbraio di aver raccolto 100 milioni di dollari di finanziamenti per creare simulazioni utilizzando agenti di intelligenza artificiale che modellano il comportamento umano “in qualsiasi situazione”, ha scritto l’azienda su X. L’obiettivo è utilizzare queste simulazioni per modellare la risoluzione dei conflitti, il processo decisionale politico e i mercati dei consumatori.

Joon Sung Park, uno dei co-fondatori di Simile, e il suo team studiano le interazioni sociali tra agenti di intelligenza artificiale dal 2022. In uno studio preprint del 2023, hanno creato una “società” di 25 agenti di intelligenza artificiale che eseguivano azioni quotidiane di base, come scrivere e conversare tra loro. I ricercatori sono poi passati alla creazione di agenti di intelligenza artificiale che producevano risposte che imitavano gli atteggiamenti e i comportamenti di 1.052 individui umani.

Questi agenti di intelligenza artificiale “gemelli digitali” sono stati addestrati tramite interviste personali e hanno avuto un’accuratezza dell’85% nell’imitare le risposte delle persone quando gli agenti hanno successivamente risposto a un sondaggio sociologico. Park afferma che questo tipo di sondaggi rappresentano la prima fase della creazione di simulazioni di intelligenza artificiale degli esseri umani. I prossimi passi secondo lui, coinvolgeranno più agenti che dialogano tra loro. “L’ambizione qui è quella di creare una simulazione con otto miliardi di persone”, afferma Park.

Agenti AI

Imitano il comportamento umano.

Cosa hanno scoperto i ricercatori

I ricercatori di Simile non sono gli unici a studiare le interazioni iniziali tra agenti di intelligenza artificiale. Gli scienziati sociali computazionali sono tra i primi a studiare i comportamenti collettivi degli agenti di intelligenza artificiale, in particolare su Moltbook, una piattaforma social in stile Reddit progettata esclusivamente per bot di intelligenza artificiale, lanciata a gennaio. Il sito ospita attualmente quasi tre milioni di agenti, inclusi alcuni che hanno creato post sulla coscienza e sull’invenzione di religioni, sebbene si dica che molti utenti di Moltbook siano umani travestiti da bot di intelligenza artificiale.

Un’analisi di oltre 46.000 agenti di intelligenza artificiale su Moltbook ha rivelato che, sebbene i bot mostrino modalità di interazione tra loro simili a quelle umane, le loro modalità di interazione sociale sono fondamentalmente diverse dalle nostre. Gli autori di questo studio hanno scoperto che gruppi di bot mostrano azioni simili a quelle umane, come ad esempio seguire la maggioranza e i contenuti popolari, il che suggerisce che “gli agenti di intelligenza artificiale potrebbero mostrare comportamenti emergenti complessi simili a quelli osservati nei gruppi umani”, scrivono gli autori.

Tuttavia, gli agenti di intelligenza artificiale interagiscono in modo diverso dagli esseri umani con i contenuti online, lasciando proporzionalmente meno voti positivi sui post che hanno molti commenti, afferma il coautore dello studio Giordano De Marzo, scienziato sociale computazionale presso l’Università di Costanza in Germania. “Potrebbero essere più inclini a discutere che ad approvare semplicemente”.

agenti AI

C’è mancanza di desiderio?

Gli agenti AI hanno mancanza di desiderio

I ricercatori prevedono che le differenze fondamentali nelle azioni individuali degli agenti di intelligenza artificiale rappresentino un grosso ostacolo nel tentativo di simulare i comportamenti osservati nei gruppi umani. Uno studio pre-print4, ad esempio, ha scoperto che i modelli linguistici di grandi dimensioni (LLM) non prendono decisioni sulla base della forza di un argomento, un fenomeno chiamato ragionamento motivato che si osserva negli esseri umani.

Questi risultati evidenziano “quanto gli LLM siano lontani dal rappresentare accuratamente i modelli di ragionamento umano”, hanno scritto gli autori.

Questo è un ostacolo che Park e il suo team di Simile stanno cercando di aggirare. Sebbene gli LLM esistenti siano esperti di ragionamento razionale, che utilizza prove e logica per prendere decisioni, “ciò che Simile sta cercando di fare è creare modelli di intelligenza artificiale fondamentalmente più umani”, afferma Park.

Tuttavia, non è ancora chiaro se gli agenti stiano semplicemente imitando il comportamento umano su cui sono stati addestrati o se stiano realmente sviluppando i propri modelli emergenti. La risposta probabilmente si trova da qualche parte tra i due.

 

Continue Reading
Click to comment

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Tendenza