fbpx

Rapporto sull’uso responsabile dell’Intelligenza Artificiale in ambito Difesa

Un documento importante, che segna nuovi traguardi nel campo dell’Artificial Intelligence, è questo relativo alla sua applicazione nel campo della Difesa, dal titolo “Uso Militare Responsabile dell’Intelligenza Artificiale – L’Unione Europea può guidare lo sviluppo di best practices?”; sviluppato come parte di un progetto di ricerca su “Governare le opportunità e i rischi di AI per la pace e la sicurezza internazionale“, esso cerca di fornire un contributo sul tema della governance dell’Intelligenza Artificiale nel settore militare, a seguito di uno workshop on line del SIPRI (Stockholm Interational Peace Research Intitute), tenutosi l’8 e il 9 settembre scorso, e pubblicato nel mese di novembre. Durante la Presidenza Finlandese del Consiglio dell’Unione Europea, nel 2019, diversi Stati membri hanno chiesto una maggiore regolamentazione a livello nazionale, ma anche una maggiore collaborazione fra gli Stati, nel campo della Difesa. A questo punto, nasce spontanea la domanda se si possa effettivamente pensare ad un uso etico, responsabile e legittimo dell’IA in ambito militare. La presente Relazione arriva a tre conclusioni, che si condensano di seguito.

Department of Defense photo by U.S. Air Force Tech. Sgt. Michael R. Holzworth/Released

In primo luogo, l’UE e i suoi Stati membri trarrebbero indubbio vantaggio, dal punto di vista politico, strategico e economico, dallo sviluppo di principi e standard per un uso militare responsabile dell’IA, anche se sarà un processo difficile che coinvolgerà competenze di destrezza, politiche e di sensibilità e volontà dei vari attori dell’UE (istituzioni e Stati membri). Da un punto di vista politico, permetterebbe loro di guadagnare terreno nella discussione globale sull’uso militare dell’IA e la sua governance, e difendere efficacemente una visione allineata con i loro valori e interessi condivisi. Da un punto di vista strategico, li aiuterebbe a mantenere una certa autonomia, per quanto riguarda la volontà e le modalità di impiego della tecnologia militare. Da un punto di vista economico, andrebbe a beneficio dello sviluppo di una capacità operativa e di una base militare-industriale europea, nel campo dell’IA.

In secondo luogo, le basi per lo sviluppo di una visione europea dell’uso militare dell’IA sono state già stabilite. Il lavoro, condotto a suo tempo dall’Agenzia per la Difesa dell’Unione Europea (EDA) ed il Parlamento europeo, nonché da diversi Stati membri dell’UE, dimostra un crescente interesse politico per l’argomento. Il lavoro, iniziato dalla Commissione europea sull’IA affidabile, fornisce una base utile e sostanziale per impegnarsi in conversazioni sull’uso militare responsabile dell’IA. A tal proposito, il Rapporto fornisce una serie di proposte concrete per le Istituzioni e per gli Stati membri dell’UE, di considerare in maniera aperta, metodica e collaborativa, lo sviluppo di un’unica prospettiva sull’uso militare responsabile dell’IA. Il rapporto suggerisce in particolare di concentrarsi su tre sessioni di discussioni di esperti relativamente:

  1. la conformità legale, che si concentra sulle revisioni legali e sulle sfide poste dall’IA, nell’interpretazione e nell’applicazione del diritto internazionale;
  2. l’etica, che si concentra sullo sviluppo di principi condivisi per l’uso militare umano-centrico dell’IA;
  3. la sicurezza dell’IA, che si concentra sugli standard di trasparenza, spiegabilità e affidabilità dei sistemi di IA.

In terzo luogo, ci sono diversi modi per l’UE e i suoi Stati membri di svolgere queste discussioni di esperti sull’uso militare responsabile dell’IA in generale. L’EDA fornisce già un forum per discussioni politiche ad alto livello, tra i Ministri della Difesa degli Stati membri e per deliberazioni tecniche tra esperti nazionali sull’IA militare. Il lavoro dell’EDA, sullo sviluppo delle capacità dell’IA, potrebbe essere ampliato, per includere, esplicitamente, le questioni relative alla conformità legale e all’etica. Gli organi preparatori del Consiglio dell’UE, come il Gruppo di lavoro del Consiglio dell’UE sul diritto internazionale pubblico (COJUR), il Gruppo di lavoro sulla non proliferazione (CONOP), il gruppo di lavoro del Consiglio dell’UE sul disarmo globale e il controllo degli armamenti (CODUN) e il gruppo di lavoro del Comitato militare del Consiglio dell’UE (EUMCWG), forniscono anche dei forum, in cui gli Stati possono condividere le loro prospettive, coordinare i loro punti di vista e potenzialmente, raggiungere un consenso sui principi e le migliori pratiche per il rispetto del diritto internazionale e dell’etica.

Infine, la Commissione Europea, potrebbe utilizzare il Fondo Europeo per la Difesa (EDF) per finanziare progetti, che esplorino i modi per soddisfare gli standard di sicurezza per l’IA a livello tecnico.

Da questo quadro introduttivo, emergono quattro principali raccomandazioni:

Impegnarsi, in modo più aperto e trasparente, a livello nazionale e intraeuropeo, in delibere relative alle opportunità ed ai rischi dell’IA per il settore militare. Per esempio, redigere rapporti nazionali e documenti strategici o sintesi dei loro contenuti chiave, pubblicamente disponibili.

Creare un gruppo di esperti ad hoc, composto da esperti nazionali, per discutere come le raccomandazioni del Gruppo di esperti di alto livello sull’IA (AI HLEG) possano applicarsi nel contesto militare, con l’obiettivo di proporre, a livello europeo, principi e linee guida per lo sviluppo e l’uso responsabile dell’IA nella difesa.

Impegnarsi con il mondo accademico e l’industria ed impiegare l’Alleanza Europea AI per coinvolgere la società in senso lato, il settore delle imprese e la società civile su questioni relative allo sviluppo, all’uso e al controllo dell’IA militare.

Finanziare progetti di ricerca su “progettazione etica” o metodologie end-to-end, che consentirebbe di prendere in considerazione le questioni etiche, in tutto il ciclo di tecnologia; la trasparenza, la spiegabilità e la tracciabilità dei sistemi di IA militari; lo sviluppo di un sistema quadro di riferimento per il test e la valutazione dei sistemi di IA militari; la progettazione di metodologie per la messa in comune dei dati a livello UE, secondo i principi etici fondamentali.

Si propone, inoltre, di aprire discussioni più profonde e incontri speciali, in merito a:

Questioni di interpretazione e di applicazione delle norme internazionali di diritto umanitario (IHL), per quanto riguarda gli usi militari dell’IA, che potrebbe includere la conduzione di revisioni legali di armi, mezzi e metodi di guerra all’interno del COJUR.

Possibili principi etici e linee guida di sicurezza, per l’uso militare dell’IA, da parte di Forze armate europee, attraverso l’EUMCWG.

– La posizione dell’UE sul controllo umano, nel dibattito sui sistemi autonomi e letali di armamento (LAWS), a Ginevra e in altri forum, sul controllo delle armi, mentre l’uso militare dell’IA potrebbe essere discusso nell’ambito del CODUN/CONOP.

INTRODUZIONE

L’IA è diventata il centro della competizione tra le grandi potenze del mondo e in particolare tra Stati Uniti e Cina; la presente relazione si concentra sul motivo per cui si dà il via a queste discussioni, e le ragioni per cui l’UE e i suoi Stati membri debbano impegnarsi, in modo più concertato, nella conversazione globale sull’uso militare responsabile dell’IA (capitolo 2). Successivamente, delinea come l’UE e i suoi Stati membri potrebbero essere all’avanguardia in termini di best practices, concentrandosi su tre aree: conformità legale, etica e sicurezza tecnica (capitolo 3). Infine, conclude riassumendo i principali risultati e raccomandazioni (capitolo 4).

  •  L’UNIONE EUROPEA E L’USO MILITARE RESPONSABILE DELL’INTELLIGENZA ARTIFICIALE

L’opportunità di una visione condivisa e globale in questo settore, da parte degli Stati dell’Unione Europea, si legge nel Rapporto, avrebbe l’indubbio vantaggio di far ottenere loro maggiore peso nel dibattito globale sulla governance dell’IA, di garantire una maggiore interoperabilità tra le varie forze armate, collaborando per una spinta anche economica verso uno studio condiviso delle potenzialità delle nuove tecnologie in questo settore!

Gli Stati Uniti e la Cina stanno investendo capitali per sviluppare tecnologie all’avanguardia, e la circostanza che li vede correre in testa, potrebbe essere problematica sotto un duplice punto di vista: se l’UE rimanesse indietro, nella ricerca e nello sviluppo, correrebbe il serio rischio di doversi allineare a strategie decise da altri, inoltre potrebbe dover subire dottrine e principi, alieni dalla visione europea, perché imposti da superpotenze quali USA, Cina e Russia!

Ne deriva un’esigenza di un approccio proattivo, piuttosto che reattivo, da parte degli Stati membri dell’Unione Europea.

Il concetto di autonomia strategica, in seno all’Europa, ha acquisito maggiore rilevanza, in quanto l’accesso alla tecnologia ne rappresenta uno degli aspetti più rilevanti, e, pertanto, il discorso sulla difesa rientrerebbe in un disegno più ampio. La politica di sicurezza dell’UE, nota come Strategia Globale o EUGS pubblicata nel 2016, ha intensificato una collaborazione tra gli Stati, nell’identificare principi comuni nella strategia in ambito di difesa. Peraltro, questa roadmap deve sposarsi con una maggiore efficienza tecnologica ma, al tempo stesso, anche con una ottimizzazione dei costi a livello nazionale, creando progetti comuni come il Future Combat Air System (FCAS), sviluppato in collaborazione tra Germania, Francia e Spagna!

  • EUROPA LEADER DELLE BEST PRACTICES

Come anticipato nella introduzione, qui il Rapporto si concentra su come Ue e Stati membri possano far avanzare la loro riflessione su un uso responsabile militare dell’IA, garantendone conformità legale, accettabilità etica e sicurezza.

Già l’EDA (European Defence Agency) dal 2016, sta lavorando per un disegno condiviso in materia di AI responsabile: ha coordinato diversi progetti di ricerca e sviluppo (R&S) che riguardano l’IA. Inoltre, ha lavorato anche per la produzione di:

  1. una definizione comune di IA, tassonomia e glossario per risolvere le possibili differenze concettuali, tra gli stati, sul concetto;
  2. una visione condivisa dei settori di applicazione pertinenti per il Piano Europeo di Sviluppo delle Capacità (European Capability Development Plan), nell’ambito dell’ampio spettro di capacità che possono essere abilitate con l’IA;
  3. un piano d’azione, per la collaborazione dell’UE in materia di IA nella difesa, che deve essere presentato al ministro della difesa dell’UE nel dicembre 2020.

Tuttavia questi documenti non sono stati ancora resi pubblici, ma pare volgano lo sguardo ad una visione più pratica ed operativa, pur mantenendo primario il controllo dell’uomo, sull’uso dell’Intelligenza Artificiale militare.

Nel 2018, il Parlamento Europeo ha adottato una risoluzione che vieta l’uso di armi autonome letali, definite come “armi senza un significativo controllo umano”, sebbene essa abbia avuto poco impatto sulle strategie nazionali in ambito di LAWS, cioè sistemi autonomi militari letali, tanto che nel giugno di quest’anno, il Parlamento Europeo ha deciso di istituire una commissione speciale su AI, che ha il mandato di indagare su applicazioni militari di IA. Secondo un esperto dell’UE, che ha partecipato al workshop ospitato dal SIPRI, il lavoro degli Stati membri dell’UE sull’uso militare dell’IA, è stato limitato; infatti, secondo l’EDA solo tre Stati membri hanno prodotto strategie nazionali sull’uso militare dell’IA. Di questi, la Francia è l’unico Stato che ha reso pubblica la sua strategia. Detto ciò, un piccolo gruppo di Stati cerca un maggiore coordinamento ed una riflessione nazionale sull’argomento, come dimostra il documento di riflessione che la Finlandia ha pubblicato nel 2019, mentre presiedeva il Consiglio dell’EDA. Il documento invita gli Stati membri dell’UE a riflettere sul ruolo strategico dell’IA per il futuro della difesa dell’UE. Esso sottolinea che le considerazioni etiche devono svolgere un ruolo chiave in tale riflessione, e delinea una serie di questioni che gli Stati membri dell’UE dovrebbero considerare come parte della loro riflessione nazionale.

Il libro bianco pubblicato dalla Commissione Europea nel 2020, intitolato “On Artificial Intelligence – A European Approach to Excellence and Trust“, fornisce una base per il potenziale lavoro dell’UE sull’uso militare responsabile dell’IA in tre ambiti:

  • obiettivi e coordinamento con istituti di ricerca, laboratori e aziende del settore;
  • principi tra i quali deve emergere che la tecnologia debba essere legittima, etica e incentrata sull’uomo che ne deve avere il controllo e non ne deve subire nocumento, e robusta in termini di sicurezza in ambienti sociali;
  • essendo poi, in questo preciso ambito, l’uso della tecnologia dual-use, si fa riferimento all’applicabilità delle raccomandazioni tecniche HLEG sulle applicazioni AI “ad alto rischio”.

Conformità legale, in questo ambito, vuol dire rispetto delle normative internazionali, soprattutto quelle in ambito umanitario. Già la Francia ha indicato la conformità al diritto internazionale, un elemento chiave della sua strategia militare in IA. Ma questo non basta, occorre calare questo elemento nella conformità di leggi e regolamenti condivisi, formare personale specializzato e condurre indagini per verificare la corretta applicabilità delle norme.

L’obbligo di effettuare revisioni legali di nuove armi, mezzi e metodi di guerra è stabilito dall’articolo 36 del Protocollo addizionale alle Convenzioni di Ginevra del 1977. Gli Stati membri dell’UE riconoscono ampiamente l’importanza di effettuare verifiche giuridiche, ai sensi dell’articolo 36, ed è sempre più sottolineata, alla luce dei continui sviluppi tecnologici. Si tratta di uno strumento essenziale per garantire che gli Stati conducano le ostilità, conformemente ai loro obblighi internazionali. Tuttavia, gli esami legali sono procedure nazionali e non sono soggetti alla supervisione internazionale. Non esistono norme stabilite su come gli Stati membri dell’UE debbano condurre le revisioni legali. In realtà, la maggior parte degli Stati non è nota per avere un meccanismo di revisione legale permanente.

La condivisione di informazioni e la cooperazione tra gli Stati membri dell’UE sulle revisioni legali – sia in generale che in relazione alle capacità militari abilitate dall’IA – potrebbe essere utile sotto tre aspetti:

  1. segnalerebbe al mondo che gli Stati membri dell’UE sono impegnati a rispettare la legge e determinati a garantire che i loro processi nazionali di revisione siano un meccanismo adeguato, e quindi legittimo, per assicurare lo sviluppo responsabile e l’uso militare dell’IA, almeno dal punto di vista legale;
  2. potrebbe aiutare gli Stati a imparare gli uni dagli altri e assistere gli Stati membri dell’UE che desiderano stabilire meccanismi di revisione legale o rafforzarli. Attualmente, secondo un’indagine SIPRI, solo 11 Stati membri dell’UE sembrano aver formalizzato un processo di revisione legale e solo 5 hanno pubblicato informazioni pubbliche dettagliate al riguardo.
  3. offre, agli Stati membri dell’UE, l’opportunità di condividere informazioni sensibili sui processi di revisione, passati o in corso, e di avere informazioni trasparenti su discussioni sull’interpretazione e l’applicazione dello stato di diritto internazionale. Nel corso del tempo, questo potrebbe aiutare a costruire competenze tra i soggetti coinvolti nelle revisioni legali.

Accettabilità etica: premessa comune, sia in ambito civile che militare, è il principio che l’agente umano sia fondamentale e necessario per un uso responsabile dell’IA, che deve rimanere uno strumento per l’uomo per prendere decisioni, ma senza spogliare gli esseri umani del loro obbligo e della loro capacità di farlo! Ma se c’è piena condivisione sul fatto che il controllo umano debba essere mantenuto durante l’intero ciclo di vita dell’arma, la questione di come l’agenzia umana debba essere esercitata nella pratica, rimane tuttavia irrisolta. La creazione di forum intraeuropei potrebbe alimentare le discussioni e far approdare a disegni condivisi.

Sicurezza: questo è un elemento già preso in considerazione dal Libro Bianco della Commissione Europea sull’IA del 2020, stabilendo, alla base della progettazione, principi quali “agenzia umana e supervisione, robustezza tecnica e scurezza, privacy e governance dei dati, trasparenza, diversità e non discriminazione, equità, benessere sociale ed ambientale, responsabilità”.

La sicurezza dell’IA è altrettanto, se non maggiormente, importante per il settore militare che per quello civile.

Il contesto militare è per definizione conflittuale: un nemico intelligente cercherà di sconfiggere il sistema attaccandolo o sfruttando le sue debolezze. Pertanto, i sistemi militari devono generalmente rispettare elevati standard di sicurezza e protezione, anche con applicazioni che non sono direttamente destinate al combattimento (ad es. logistica); gli ultimi sviluppi tecnologici in AI sollevano sfide di sicurezza, che sono particolarmente problematiche nelle “applicazioni life-critical” (applicazioni il cui uso potrebbe mettere in pericolo la vita umana o mettere a rischio la sicurezza), poiché potrebbero portare a usi della forza non intenzionali o illeciti, e quindi minare la capacità dell’utente militare di comportarsi in modo lecito ed etico. Per esempio, le distorsioni del bias algoritmico, nei sistemi di intelligenza artificiale, sorveglianza e ricognizione (ISR, intelligence, surveillance and reconnaissance), potrebbe portare un comandante militare a selezionare il tipo sbagliato di obiettivi, o a concentrarsi in modo sproporzionato su certi tipi di obiettivi. Il problema delle black box, che è caratteristico dei sistemi di deep learning, rende il comportamento dei sistemi, difficile da comprendere e prevedere per l’utente, e difficile da indagare quando le cose vanno male. In sintesi, la comunità militare ha un interesse personale nel progresso della sicurezza dell’IA, sia da un punto di vista operativo, legale o etico.

PRINCIPALI RISULTATI E RACCOMANDAZIONI

Abbiamo già visto all’inizio della presente analisi, gli indubbi vantaggi che deriverebbero all’unione Europea e agli Sati membri, nel creare un disegno condiviso sull’uso responsabile dell’Intelligenza Artificiale in ambito militare. Più processi dovrebbero essere condotti in parallelo, i forum dell’EDA, creare discussioni tra i vari organismi quali il COJUR, il CONOP, il CODUN e l’EUMCWG, e, non ultimo, il Parlamento Europeo ha aperto un forum di discussione democratica pubblica, su questioni etiche fondamentali sollevate dall’uso dell’IA nell’esercito.

Gli Stati membri dell’Unione Europea, per contribuire ad una riflessione aperta sull’uso militare responsabile dell’IA, potrebbero seguire l’esempio degli USA ed essere più aperti e trasparenti sulle loro delibere nazionali e intraeuropee, relative alle opportunità e ai rischi dell’IA per le forze armate. Ciò potrebbe comportare:

  • Redigere rapporti nazionali e documenti strategici o sintesi delle loro contenuti chiave disponibili al pubblico.
  • Rispondere all’invito, rivolto agli Stati membri durante la Presidenza finlandese del Consiglio dell’UE nel 2019, di redigere un documento concettuale sulla digitalizzazione e l’IA in difesa. Il documento potrebbe affrontare, non solo le questioni delineate nel documento di riflessione, ma anche le prospettive degli Stati membri sull’applicazione del diritto internazionale umanitario, l’etica e gli standard di sicurezza nell’uso delle capacità militari abilitate all’IA.
  • Consentire all’EDA, attraverso il comitato direttivo dei ministri della difesa, di rendere pubblici i documenti e le risoluzioni concordate internamente sull’IA, come mezzo per aumentare la consapevolezza del lavoro dell’EDA sul uso responsabile dell’IA.
  • Incaricare l’EDA di creare un gruppo di esperti ad hoc, composto da esperti nazionali, per discutere di come le raccomandazioni di AI HLEG possano essere applicate nel contesto militare, con l’obiettivo di proporre principi europei e linee guida per lo sviluppo e l’uso responsabile dell’IA nella difesa.

Riproduzione riservata.

Articolo precedente

Sistema di visione elettronica DVS del conducente per i Boxer 8×8 tedeschi

Prossimo articolo

Osservatorio di Arecibo, crolla la piattaforma di 900 tonnellate

Lascia un commento

Your email address will not be published.

Ultime notizie