Connect with us

Intelligenza Artificiale

AI e guerra: come verrà usata in futuro

Published

on

AI e guerra

AI e guerra: sta plasmando la guerra in Iran e sarà sempre più presente nei conflitti presenti e futuri. Il rapido sviluppo tecnologico sta dando avvio a urgenti discussioni sulla regolamentazione dell’uso e dell’acquisizione dell’intelligenza artificiale per uso militare. L’escalation del conflitto tra Stati Uniti, Israele e Iran ha posto l’attenzione sull’uso dell’intelligenza artificiale in guerra. Appena un giorno prima dell’inizio dell’offensiva USA-Israele, il 28 febbraio, il governo statunitense ha messo da parte uno dei suoi principali fornitori di intelligenza artificiale. Nell’ambito di una controversia che sottolinea le preoccupazioni etiche sull’uso dell’intelligenza artificiale.

AI e guerra

C’è un’acceso dibattito sulla sicurezza ed etica dell’uso dell’intelligenza artificiale in campo bellico.

AI e guerra: come sta plasmando il futuro nel campo militare

Questa settimana, accademici ed esperti legali si incontreranno a Ginevra, in Svizzera , per discutere di sistemi di armi autonome letali e dell’acquisizione di intelligenza artificiale in ambito militare, nell’ambito di un impegno di lunga data per giungere a un accordo internazionale sugli usi etici o legali dell’intelligenza artificiale in guerra.

Secondo il politologo Michael Horowitz dell’Università della Pennsylvania a Philadelphia, il rapido sviluppo tecnologico sta superando la lentezza delle discussioni internazionali.

“L’attuale incapacità di regolamentare la guerra basata sull’intelligenza artificiale, o di sospenderne l’uso finché non si raggiunga un accordo su un utilizzo legittimo, sembra suggerire che la potenziale proliferazione della guerra basata sull’intelligenza artificiale sia imminente”, afferma Craig Jones, geografo politico presso l’Università di Newcastle, nel Regno Unito, che studia gli obiettivi militari.

AI e guerra

L’IA viene già utilizzata in guerra dall’esercito statunitense.

Come viene usata sul campo di battaglia?

L’esercito statunitense utilizza l’intelligenza artificiale basata su modelli linguistici di grandi dimensioni (LLM) per: il supporto logistico e d’ufficio, la raccolta e l’analisi di intelligence e il supporto decisionale sul campo di battaglia, afferma Horowitz. Il Maven Smart System, che utilizza l’intelligenza artificiale per applicazioni che includono l’elaborazione delle immagini e il supporto tattico, accelera le capacità di attacco suggerendo e prioritizzando gli obiettivi, ad esempio.

Il sistema è stato utilizzato in precedenti conflitti e negli attacchi all’Iran, secondo quanto riportato dal Washington Post e da altre testate giornalistiche. “I dettagli non sono noti al pubblico”, afferma Horowitz.

AI e guerra

Ci sono diversi dubbi sull’uso della IA in guerra, come la precisione di puntamento dei droni.

AI e guerra: la precisione di puntamento

È possibile che la precisione di puntamento dell’IA possa contribuire a ridurre le vittime civili durante la guerra. Tuttavia, i conflitti in corso in Ucraina e Gaza (nel quale l’IA viene utilizzata, tra le altre cose, per assistere l’identificazione dei bersagli e la navigazione dei droni) hanno causato un elevato numero di vittime civili. “Non ci sono prove che l’IA riduca le vittime civili o le decisioni sbagliate di puntamento, e potrebbe essere vero il contrario”, afferma Jones.

La possibilità di utilizzare l’IA per guidare armi autonome letali senza supervisione umana è un’area estremamente controversa. Le forze armate potrebbero apprezzare la possibilità, ad esempio, di utilizzare droni basati sull’IA per identificare, localizzare e uccidere autonomamente i combattenti nemici. Tuttavia, le leggi umanitarie esistenti richiedono che tali armi siano in grado di distinguere tra obiettivi militari e civili. Le armi completamente autonome basate su LLM e senza supervisione umana non sono attualmente affidabili e non sono conformi alle leggi internazionali, afferma Horowitz.

AI e guerra

Anche le stesse aziende che sviluppano LLM hanno dei dubbi.

Questo scenario è alquanto preoccupante

I potenziali usi futuri dell’intelligenza artificiale sono al centro del disaccordo tra il Dipartimento della Difesa degli Stati Uniti e Anthropic, un’azienda di intelligenza artificiale con sede a San Francisco, in California. Dal 2024, il sistema Maven è supportato da Claude LLM di Anthropic nell’ambito di un contratto da 200 milioni di dollari con il Dipartimento della Difesa.

A gennaio, il dipartimento ha emesso una nota in cui dichiarava che i contratti per l’acquisizione di IA per il governo dovevano specificare che l’IA poteva essere utilizzata per “qualsiasi uso lecito”, senza vincoli. Ma Anthropic si è rifiutata di rimuovere le garanzie. Affermando poi che Claude non poteva essere utilizzato per la sorveglianza domestica di massa. O per guidare armi completamente autonome.

Cose che la tecnologia attuale non può fare in modo affidabile, ha affermato l’azienda. Il 27 febbraio, il presidente degli Stati Uniti Donald Trump ha ordinato al governo di interrompere l’utilizzo della tecnologia di Anthropic. “Tutta questa faccenda è esplosa come una disputa teorica su possibili casi d’uso futuri”, afferma Horowitz.

Continue Reading
Click to comment

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Tendenza