fbpx

Risoluzione del Parlamento Europeo sull’utilizzo dell’IA in ambito militare

In questo momento storico e sociale, in cui la crisi epidemiologica sembrerebbe aver “asfaltato” ogni guizzo di ingegno e di ricerca, in realtà la corsa a nuove scoperte e all’utilizzo di nuovi strumenti tecnologici è in pieno svolgimento: fioccano una serie di documenti, ufficiali, che, oltre a spiegare ed incentivare i fenomeni, cercano anche di “circoscriverne” modalità e regolamentazioni! Proprio il 20 gennaio scorso, il Parlamento Europeo ha emesso una Risoluzione (A9-0001/2021), avente ad oggetto l’utilizzo dell’Intelligenza Artificiale in ambito militare!

Considerando che l’intelligenza artificiale (IA), la robotica e le tecnologie correlate sono in rapida evoluzione ed hanno un impatto diretto su tutti gli aspetti della società, provocando una rivoluzione nella dottrina e nel materiale militare, attraverso un profondo cambiamento nel modo di operare degli eserciti dovuto, principalmente, all’integrazione e allo sfruttamento delle nuove tecnologie e delle nuove capacità autonome, è però fondamentale rammentare sempre come debbano comunque essere incentrate sull’uomo, vale a dire fondamentalmente intese per essere impiegate al servizio dell’umanità e per il bene comune, onde contribuire al benessere e all’interesse generale dei cittadini!

Si legge di seguito, che, considerando che la Commissione europea non contempla gli aspetti militari dell’utilizzo dell’intelligenza artificiale nel proprio Libro bianco, è essenziale fornire un quadro giuridico adeguato e completo per gli aspetti etici di tali tecnologie, nonché per la liability, transparency and accountability (per la responsabilità, la trasparenza e l’affidabilità).

Pertanto, attraverso questa risoluzione provvisoria, si chiede alla Commissione europea di adottare le seguenti definizioni:

– “sistema di intelligenza artificiale (IA)”: un sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l’intelligenza, tra l’altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e intraprendendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici;

– “autonomo”: sistema basato sull’intelligenza artificiale, che opera interpretando determinati dati forniti e utilizzando una serie di istruzioni predeterminate, senza essere limitato a tali istruzioni, nonostante il comportamento del sistema sia legato e volto al conseguimento dell’obiettivo impartito e ad altre scelte operate dallo sviluppatore in sede di progettazione.

Le politiche di sicurezza e difesa dell’Unione europea e dei suoi Stati membri sono guidate dai principi sanciti nella Carta europea dei diritti fondamentali e nella Carta delle Nazioni Unite, nella quale si invitano tutti gli Stati ad astenersi dalla minaccia o dall’uso della forza nelle loro reciproche relazioni, e dal diritto internazionale, dai principi dei diritti umani e del rispetto della dignità umana e da una visione comune dei valori universali, rappresentati dai diritti inviolabili e inalienabili della persona, dalla libertà, dalla democrazia, dall’uguaglianza e dallo Stato di diritto.

In questo documento, si ritiene che l’IA, utilizzata in un contesto militare e civile, debba essere soggetta ad un significativo controllo umano, in modo tale che, in qualsiasi momento, un umano abbia i mezzi per correggerla, bloccarla o disattivarla, in caso di comportamento imprevisto, intervento accidentale, attacchi informatici o interferenza di terzi con tecnologie basate sull’IA, o qualora terzi acquisiscano tale tecnologia. Mai come in questo settore, emerge che «un processo decisionale autonomo non dovrebbe esonerare gli esseri umani dalla responsabilità e che le persone devono sempre avere la responsabilità ultima dei processi decisionali, in modo da poter identificare l’essere umano responsabile della decisione».

Al contempo, si plaude alle possibilità di utilizzare i sistemi di intelligenza artificiale a fini di addestramento ed esercitazione (civile e militare), oltre che come sostegno anche del personale di servizio delle forze armate, attraverso il trattamento di massa dei loro dati sanitari e l’estensione del monitoraggio sanitario, riuscendo più agevolmente ad individuare i fattori di rischio connessi al loro ambiente e alle loro condizioni di lavoro.

«gli sforzi normativi devono essere sostenuti da validi sistemi di certificazione e sorveglianza, nonché da chiari meccanismi di verificabilità, spiegabilità, responsabilità e tracciabilità, in modo che il quadro normativo non diventi obsoleto a seguito degli sviluppi tecnologici.»

Inoltre, la robotica consentirà, al personale militare, di rimanere a distanza, ed offrirà anche una migliore autoprotezione, per esempio nel caso di operazioni in ambienti contaminati, spegnimenti di incendi, sminamenti a terra o in mare, e azioni di difesa da sciami di droni.

Si auspica un controllo serrato sulle esportazioni di tali tecnologie in ambito militare, nel pieno rispetto dei principi, ribaditi dalla Convenzione di Roma del 17 luglio 1998, di proibizione di crimini di genocidio, contro l’umanità e dei crimini di guerra, e i principi di responsabilità, equità, governabilità, precauzione, responsabilità, imputabilità, prevedibilità, tracciabilità, attendibilità, affidabilità, trasparenza, spiegabilità, capacità di individuare eventuali cambiamenti nelle circostanze e nell’ambiente operativo, distinzione tra combattenti e non combattenti e proporzionalità; si sottolinea che detto principio subordina la legittimità di un’azione militare al rispetto di un equilibrio tra l’obiettivo e i mezzi utilizzati, e che la valutazione della proporzionalità debba essere sempre effettuata da una persona umana.

Il Parlamento ha chiesto l’elaborazione e l’adozione urgente di una posizione comune sui “sistemi d’arma autonomi letali” (SALA) (utilizzabili solo come ultima risorsa e leciti solo se soggetti a un rigoroso controllo umano, con una persona in grado di assumere il comando in qualsiasi momento), il divieto dello sviluppo, della produzione e dell’utilizzo di sistemi di detto tipo, in grado di sferrare attacchi, senza un controllo umano significativo, nonché l’avvio di negoziati fruttuosi per vietare tali armi, come anticipato dalla risoluzione del 12 settembre 2018 sui sistemi d’arma autonomi. Ha inoltre richiesto un divieto per i cosiddetti “robot assassini”: l’Intelligenza Artificiale, impiegata in un contesto militare, deve soddisfare una serie di requisiti minimi, come essere in grado di distinguere tra combattenti, non combattenti e combattenti sul campo di battaglia, riconoscere quando un combattente si arrende o è fuori combattimento, non avere effetti indiscriminati, non causare sofferenze inutili alle persone, non essere falsato né formato intenzionalmente sulla base di dati incompleti e rispettare i principi del diritto internazionale umanitario, di proporzionalità nell’uso della forza e di precauzione prima dell’intervento!

Ne consegue un divieto assoluto dei sistemi totalmente privi del controllo umano (“human off the loop”) e della supervisione umana, senza eccezioni e in qualsiasi circostanza, e divieto di antropomorfizzare i SALA, onde evitare qualsiasi confusione tra una persona umana e un robot.

Dato che i nostri alleati nel quadro nazionale, dell’UE e della NATO stanno integrando l’IA nei loro sistemi militari, si ritiene necessario preservare l’interoperabilità con i nostri alleati, mediante norme comuni, che sono essenziali per svolgere operazioni in coalizione.

Fondamentale l’accento sull’importanza della cybersecurity per l’IA, in scenari sia offensivi che difensivi, cui si aggiunge profonda preoccupazione per le tecnologie di deepfake, che consentono di produrre foto, audio e video falsificati sempre più realistici, che potrebbero essere utilizzati per compiere ricatti, creare notizie false o minare la fiducia dei cittadini e influenzare il dibattito pubblico: poiché tali pratiche sono in grado di destabilizzare paesi, diffondere la disinformazione e influenzare le consultazioni elettorali, si chiede l’introduzione di un obbligo, in base al quale tutti i materiali deepfake o altri video artificiali realizzati in modo realistico, debbano essere etichettati come “non originali” dal loro creatore, con severi limiti al loro utilizzo a fini elettorali, e che tale obbligo sia applicato rigorosamente.

Immagine computerizer-pixabay

Previous Story

I principali programmi della Difesa Ceca nel 2021

Next Story

I nuovi satelliti da osservazione CSO

Lascia un commento

Your email address will not be published.

Latest from Blog

Rapid Trident 2023 per NATO e Moldavia

Gli Alleati della NATO, Romania e Stati Uniti, hanno rafforzato le loro relazioni con la Repubblica di Moldova – un partner della NATO – attraverso l’esercitazione Rapid Trident 2023 ,…

Ultime notizie