Intelligenza Artificiale
Etica dell’IA: chi decide cosa è giusto?

Per qualcuno le intelligenze artificiali stanno assumendo ruoli sempre più cruciali nella vita di ognuno di noi. Influenza decisioni che un tempo erano esclusivamente umane. Qui di sicuro vi sarà sorta anche a voi una domanda, ovvero cos’è giusto o sbagliato. Le macchine sanno seguire etica e valori? Oggi ci interroghiamo proprio su questo, sull’etica dell’IA, su cosa c’è dietro ogni algoritmo.
L’etica dell’IA oltre il mito dell’oggettività
Essendo una macchina di base, tutti siamo propensi a pensare che l’intelligenza artificiale sia oggettiva, perché basata su dati e calcoli. Ci sono però delle sfumature che dobbiamo prendere in considerazione. I dati su cui si basano i risultati dell’IA riflettono il passato prendendo anche pregiudizi e disuguaglianze.
Sei un algoritmo dunque viene addestrato su dati storici alcune categorie di persone potrebbero essere penalizzate e potrebbero essere replicate o amplificate anche molte ingiustizie. Possiamo ad esempio fare l’esempio di un’intelligenza artificiale studiata per fare selezione del personale addestrata su tutti quelli che sono i dati utilizzati in precedenza per fare selezione da quell’azienda. Sei dati riflettono una selezione fatta per genere o per titoli, piuttosto che per capacità o nell’ottica di rendere i posti di lavoro in azienda più inclusive, il risultato potrebbe essere che continueranno ad essere assunte sempre la stessa tipologia di persone (magari sbagliate per quel periodo storico aziendale).
Quindi, possiamo dire che esiste un’etica dell’IA ed è un’etica che riflette ciò che siamo noi esseri umani al momento in cui la addestriamo e che quindi potrebbe portarci all’interno di un circolo vizioso perpetuando scelte sbagliate.
Chi prende le decisioni?
Ora facciamo un passettino indietro e vediamo chi è che prende le decisioni. Per rispondere a questa domanda dobbiamo chiamare in causa diversi attori. I primi sono sicuramente gli sviluppatori che sono quelli che prendono le decisioni utili ad indottrinare l’intelligenza artificiale. Spesso queste persone fanno decisioni etiche inconsapevoli e scelgono di utilizzare dati e risultati considerati ottimali che però potrebbero creare un’etica dell’IA completamente sbagliata.

Ma l’intelligenza artificiale ha un’etica? scopriamolo
Successivamente ci sono le aziende, che investono e dirigono lo sviluppo dell’intelligenza artificiale. Qui il rischio è che si prendono decisioni che puntano solo a perpetuare i valori aziendali come l’efficienza, il profitto il vantaggio competitivo, che prevalgono su quelli sociali o umanitari.
In questo contesto potremmo anche inserire come attori atti a prendere decisioni su come l’intelligenza artificiale deve ragionare in termini etici i governi e gli utenti. I primi hanno il potere e per certi aspetti il dovere di regolamentare, ma spesso non sono al passo con il ritmo dell’innovazione tecnologica. I secondi invece possono esercitare pressione e porre delle domande. Ecco, sono gli utenti che chiedono trasparenza e proprio tramite le loro richieste possono educare un pezzettino alla volta l’intelligenza artificiale ad avere una maggiore etica nei confronti dell’essere umano.
Dilemmi dell’etica dell’IA
Riflessione che stiamo facendo oggi sull’etica dell’IA ci porta inesorabilmente a comprendere che esistono dei problemi etici e teorici quando si tratta di far scegliere direttamente all’intelligenza artificiale.
Proviamo a fare un esempio: se un auto con guida autonoma si trovasse una situazione di pericolo e dovesse scegliere tra salvare il suo passeggero o salvare il pedone quale sarebbe per lei la priorità? O ancora, se un algoritmo utilizzato all’interno del sistema giudiziario prevede che un imputato abbia un’alta probabilità recidiva, quale dovrebbe essere la scelta relativamente alla sua libertà? Possiamo ridurre tutto ad una semplice previsione statistica e a quello che i dati ci dicono su ciò che il passato c’è insegnato?

Minority Report (2002) con Tom Cruise
È un po’ come nel film Minority Report (2002) in cui gli omicidi venivano predetti e i potenziali autori venivano condannati ancora prima di aver commesso il reato. Alla fine si scopre che comunque la mente umana può trovare il modo di manipolare il sistema. Allora forse, anche noi possiamo educare l’AI ad essere più etica, più trasparente ed equa.
A questo stanno pensando numerose iniziative internazionali che cercano di stabilire i principi per un’intelligenza artificiale più etica. Obiettivo: farsì che questo tipo di intelligenze strettamente legata alla tecnologia possa lavorare in simbiosi, anche etica con quella umana, in modo che entrambe lavorino non soltanto sui calcoli ma anche sulla capacità di scegliere con coscienza.