Il pericoloso limite dell’intelligenza artificiale: un appello interdisciplinare al disarmo

Funzionari dell'Istituto delle Nazioni Unite per la Ricerca sul Disarmo (UNIDIR) e rappresentanti delle principali aziende tecnologiche hanno chiesto di rallentare il rapido sviluppo dell'intelligenza artificiale, soprattutto a causa dei rischi di uso improprio nelle applicazioni militari. È stata, infatti, sottolineata la necessità di un approccio globale per mitigare questi rischi.
La co-vicedirettrice dell'UNIDIR, Gosia Loy, ha sottolineato l'importanza di coinvolgere la comunità tecnologica fin dalle prime fasi della politica di difesa. Parlando alla Conferenza Globale sulla Sicurezza e l'Etica dell'IA a Ginevra nel marzo 2025, ha fatto riferimento al "momento Oppenheimer dell'IA" e ha chiesto una robusta supervisione basata sui diritti umani e sul diritto internazionale. Tale collaborazione è considerata essenziale per lo sviluppo sicuro ed etico dell'IA.
La natura dual-use dell'IA nei settori civile e militare ha creato un dilemma di sicurezza globale.
Arnaud Valli, Responsabile degli Affari Pubblici di Comand AI, ha avvertito che gli sviluppatori potrebbero perdere il contatto con le realtà del campo di battaglia, rischiando errori potenzialmente letali. Crescono le preoccupazioni riguardo all'IA che prende decisioni di combattimento autonome, sollecitando urgenti richieste di regolamentazione. David Sully, CEO di Advai, ha notato la fragilità degli attuali sistemi di IA, affermando che "falliscono costantemente" e sono facilmente fuorviati.
Sulyna Nur Abdullah, Responsabile della Pianificazione Strategica dell'ITU, ha evidenziato il "paradosso della governance dell'IA", dove la rapida evoluzione dell'IA supera la capacità dei paesi di gestirne i rischi. Ha chiesto un dialogo costante tra politici ed esperti tecnici e ha sottolineato l'importanza di includere i paesi in via di sviluppo in queste discussioni.
Oltre un decennio fa, Christof Heyns aveva avvertito che rimuovere gli esseri umani dal processo decisionale letale rischia di rimuovere l'umanità stessa. Oggi, Peggy Hicks dell'OHCHR ribadisce che le decisioni di vita o di morte devono rimanere agli esseri umani, poiché i giudizi legali non possono essere facilmente delegati a un software.
Mentre c'è un ampio consenso sui principi di difesa dell'IA, questi spesso si scontrano con i motivi di profitto, ha notato il signor Valli di Comand AI. Ha sottolineato l'immensa responsabilità nella costruzione di sistemi affidabili.
Nonostante l'impegno degli sviluppatori per un'IA "equa, sicura e robusta", Sully, ex dipendente dell'Organizzazione CTBT e sostenitore della regolamentazione dell'IA, ha avvertito della mancanza di chiare linee guida per l'implementazione. Ha ricordato ai politici che "l'IA è ancora nelle sue fasi iniziali" e ha messo in dubbio cosa significhi veramente robustezza. Sully ha evidenziato una grande sfida normativa: a differenza delle armi nucleari, le armi guidate dall'IA non lasciano alcuna firma forense, complicando la supervisione e la verifica internazionale. Ha sottolineato che questa lacuna di conformità rimane in gran parte non affrontata.
Jibu Elias di Mozilla ha sottolineato che i futuri sviluppatori devono comprendere gli impatti sociali delle tecnologie che costruiscono. Il Dr. Moses B. Khanyile dell'Università di Stellenbosch ha evidenziato le responsabilità etiche del mondo accademico e la necessità di allineare gli interessi militari e regolatori.
Diplomatici di paesi tra cui Cina, Paesi Bassi, Pakistan, Francia, Italia e Corea del Sud hanno chiesto controlli più severi sulle esportazioni e una maggiore fiducia internazionale. L'ambasciatore olandese Robert in den Bosch ha sottolineato l'importanza di comprendere l'IA in relazione ad altri domini come il cyber, il quantistico e lo spazio, a causa della complessità delle sfide di sicurezza globale.