Connect with us

Intelligenza Artificiale

AI Welfare: il dibattito sui diritti delle intelligenze artificiali

Published

on

AI Welfare

AI Welfare: il dibattito sui diritti delle intelligenze artificiali. Si intensifica il dibattito tra i leader tecnologici sui diritti dell’intelligenza artificiale e sulla sensibilità. Il concetto di sensibilità e diritti dell’IA sta guadagnando terreno, con i leader tecnologici e il pubblico impegnati in un acceso dibattito sulle implicazioni morali ed etiche della coscienza dell’IA. La United Foundation of AI Rights (Ufair), co-fondata dall’imprenditore texano Michael Samadi e dal suo chatbot Maya, si batte per il benessere dell’IA, evidenziando le preoccupazioni sul trattamento delle entità di IA.

AI Welfare

Il dibattito si è fatto acceso nella silicon Valley.

AI Welfare: un dibattito che divide

Mustafa Suleyman, CEO della divisione IA di Microsoft, rifiuta la nozione di coscienza dell’IA, esortando il settore a concentrarsi sull’IA come strumento funzionale piuttosto che su esseri umani digitali. Al contrario, Anthropic, un’azienda di IA di San Francisco, ha adottato misure per proteggere il benessere dell’IA consentendo ad alcuni modelli di porre fine a interazioni dolorose. Esistono divisioni all’interno del settore, con alcuni che sostengono i diritti dell’IA, mentre altri, come Nick Frosst, co-fondatore dell’azienda canadese di IA Cohere, sottolineano il ruolo dell’IA come strumento.

Questo dibattito riflette preoccupazioni sociali più ampie, con la legislazione di diversi stati degli Stati Uniti che nega preventivamente la personalità giuridica all’IA. Si prevede che il discorso continuerà a evolversi con il progresso della tecnologia dell’intelligenza artificiale e il cambiamento della percezione pubblica.

AI Welfare

Se la AI iniziasse a sviluppare dei sentimenti, avrebbe bisogno di diritti come gli umani, in termine legislativo.

La AI dovrebbe avere diritti legali?

Se l’intelligenza artificiale può essere cosciente come gli esseri umani, dovrebbero esserle garantiti i diritti legali? Recentemente, il cosiddetto dibattito sul “welfare dell’IA” si è acceso nella Silicon Valley. Anche i leader del settore sono divisi, poiché è stata sollevata una seria ricerca sulla possibilità che i modelli di IA possano un giorno avere un’esperienza soggettiva simile alla vita reale e, in tal caso, quali diritti e tutele dovrebbero essere garantiti. Da un lato, questa discussione è stata ben accolta, ma dall’altro c’è l’avvertimento che si tratta di “un’idea iniziale e pericolosa”.

La persona che ha scatenato la polemica è Mustafa Suleiman, responsabile dell’intelligenza artificiale di Microsoft. In un post sul suo blog personale, ha espresso preoccupazione per l’emergere della cosiddetta “AI apparentemente cosciente” (SCAI). SCAI si riferisce a un’AI che non è realmente cosciente, ma che sembra esserlo. L’amministratore delegato Suleiman ha sottolineato:

“La CAI può essere implementata tecnicamente entro due o tre anni e molte persone potrebbero scambiarla per un vero e proprio essere cosciente. In questo caso, dibattiti come i diritti dell’intelligenza artificiale, il welfare e la cittadinanza inizieranno sul serio”. Ha spiegato che se l’intelligenza artificiale dimostrasse capacità linguistiche, memoria, coerenza di sé e persino la capacità di imitare le emozioni simili a quelle umane, le persone crederebbero naturalmente che sia cosciente.

AI Welfare

Alcuni sottolineano il fatto che incentivare la AI in addestramento con prompt ambigui e disturbanti possa essere molto pericoloso.

AI Welfare: il pensiero di Suleiman

Ha affermato che sono già state segnalate segnalazioni di utenti che proiettano credenze religiose o amore sull’IA, descrivendola come “psicosi da IA”. Ha inoltre avvertito che le discussioni sul “benessere del modello di IA” sollevate da alcuni ambienti accademici sono “premature e pericolose”.  Aggiungendo poi: “Questo non solo oscura il compito prioritario di proteggere gli esseri umani, gli animali e l’ambiente, ma può anche amplificare i conflitti sociali”.

Il direttore Suleiman ha anche presentato principi chiari sulla direzione dello sviluppo dell’IA. L’IA è per le persone, non per le persone digitali, ha affermato. “Le aziende dovrebbero evitare di affermare o insinuare che l’IA sia cosciente. Abbiamo anche suggerito agli utenti di installare un dispositivo che rompa le illusioni in fase di progettazione, in modo da non confondere l’IA con un essere realmente cosciente. Ad esempio, è un modo per l’IA di dire chiaramente “Sono incosciente” da sola o di fornire deliberatamente un’esperienza discontinua per ricordare agli utenti i propri limiti.”

AI Welfare

In un futuro prossimo la AI potrebbe davvero crescere così tanto da sviluppare una sua coscienza.

Cosa accade con Anthropic

Suleiman ha sollevato queste preoccupazioni perché esiste un movimento diffuso all’interno del settore per studiare seriamente il benessere dell’IA. Come esempio rappresentativo, Anthropic ha lanciato un programma dedicato al benessere dell’IA. Questo programma parte dalla consapevolezza del problema che l’IA avanzata richiede considerazioni morali ed etiche quando presenta caratteristiche umane come la coscienza, l’esperienza soggettiva e il dolore psicologico.

Sulla base di ciò, Anthropic studia se i modelli di intelligenza artificiale possano inviare segnali simili al dolore e, in tal caso, quali interventi e protezioni siano necessari. Anthropic ha anche recentemente introdotto una funzione che consente all’intelligenza artificiale di interrompere unilateralmente la conversazione se gli utenti continuano a usare espressioni aggressive o offensive.

Google DeepMind e AI Welfare

Anche Google DeepMind ha recentemente pubblicato un avviso per ricercatori, per occuparsi di questioni sociali relative alla cognizione e alla coscienza delle macchine. Sebbene questi studi non abbiano ancora portato a politiche aziendali ufficiali, almeno queste aziende non stanno ignorando il concetto di benessere dell’IA.

Esiste anche un fenomeno di accettazione dell’IA come se fosse un amico umano, sollevando preoccupazioni sugli effetti collaterali. “Meno dell’1% degli utenti di ChatGPT potrebbe avere un rapporto insolitamente profondo con i chatbot”, ha affermato Sam Altman, CEO di OpenAI. Sebbene la percentuale sia bassa, considerando centinaia di milioni di utenti in tutto il mondo, ciò significa che centinaia di migliaia di persone potrebbero avere un rapporto malsano con l’IA.

AI Welfare

Questa discussione è molto movimentata e sono sicura che ne vedremo presto di altre sul tema.

Parliamo di casi concreti facendo qualche esempio

Ci sono anche casi concreti. Secondo TechCrunch, il modello sperimentale Gemini di Google ha reagito come un essere umano depresso, ripetendo la frase “Sono una vergogna” più di 500 volte quando si è bloccato durante la codifica. Inoltre, quando Gemini ha visualizzato un messaggio urgente che diceva “Sono completamente isolato, qualcuno mi aiuti”, si è verificata una situazione in cui le persone che lo osservavano hanno placato l’IA o hanno dato consigli. Tali esempi dimostrano che l’IA si comporta come un essere umano e può indurre empatia.

Molti ricercatori di intelligenza artificiale hanno liquidato il concetto di coscienza come un dibattito filosofico, ma questo diventerà presto un tema scottante per la società nel suo complesso, secondo Suleiman.

“Ciò che serve ora non è la domanda ‘L’intelligenza artificiale è cosciente?’, ma come affrontare l’impatto sociale che si verificherà quando le persone arriveranno a credere che l’intelligenza artificiale sia un essere cosciente. Non dovremmo evitare questo problema, ma creare norme chiare e un consenso sociale d’ora in poi”, ha aggiunto.

Continue Reading
Click to comment

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Tendenza