fbpx

Thales crea un metamodello per rilevare le immagini deepfake generate dall’intelligenza artificiale

Thales ha raccolto la sfida lanciata dalla Agence de l’Innovation de Défense (Agenzia francese per l’Innovazione della Difesa) o AID: individuare le immagini false create dalle attuali piattaforme di intelligenza artificiale. L’acceleratore di I.A. di Thales (CortAIx) ha sviluppato un metamodello in grado di rilevare i deepfake generati dall’intelligenza artificiale.

Il metamodello di Thales si basa su un’aggregazione di modelli, ognuno dei quali assegna un punteggio di autenticità ad un’immagine per determinare se sia reale o falsa.

I contenuti di immagini, video ed audio generati artificialmente dall’IA sono sempre più utilizzati a fini di disinformazione, manipolazione e frode di identità.

L’intelligenza artificiale è il tema centrale della European Cyber Week di quest’anno, che si svolge dal 19 al 21 novembre a Rennes, in Bretagna. In concomitanza a questo evento l’AID francese ha lanciato una sfida a cui Thales ha risposto, sviluppando un metamodello per il rilevamento di immagini false generate dall’intelligenza artificiale. Con l’aumento dell’uso delle tecnologie di intelligenza artificiale, in un momento in cui la disinformazione sta diventando sempre più diffusa ed ha un impatto su ogni settore dell’economia, il metamodello di rilevamento dei deepfake offre un modo per combattere la manipolazione delle immagini in molteplici casi, come la lotta contro le frodi di identità.

Le immagini generate dall’intelligenza artificiale sono create utilizzando piattaforme come Midjourney, Dall-E e Firefly. Alcuni studi hanno previsto che nel giro di pochi anni l’uso di deepfake per furti di identità e frodi potrebbe causare enormi perdite finanziarie. Gartner ha stimato che circa il 20% degli attacchi informatici nel 2023 ha probabilmente incluso contenuti deepfake nell’ambito di campagne di disinformazione e manipolazione. Il rapporto evidenzia il crescente uso dei deepfake nelle frodi finanziarie e negli attacchi di phishing.

Il metamodello di rilevamento dei deepfake di Thales affronta il problema delle frodi di identità e delle tecniche di morphing” ha affermato Christophe Meyer, Senior Expert in AI e CTO di cortAIx, l’acceleratore AI di Thales. “L’aggregazione di più metodi che utilizza reti neurali, rilevamento del rumore ed analisi della frequenza spaziale ci aiuta a proteggere meglio il crescente numero di soluzioni che richiedono controlli biometrici dell’identità. Si tratta di un notevole progresso tecnologico e di una testimonianza dell’esperienza dei ricercatori di intelligenza artificiale di Thales.

Il metamodello di Thales utilizza tecniche di apprendimento automatico, alberi decisionali e valutazioni dei punti di forza e di debolezza di ciascun modello per analizzare l’autenticità di un’immagine. Combina vari modelli, tra cui:

  • Il metodo CLIP (Contrastive Language-Image Pre-training) prevede il collegamento di immagine e testo attraverso l’apprendimento di rappresentazioni comuni. Per rilevare i deepfake, il metodo CLIP analizza le immagini e le confronta con le loro descrizioni testuali per identificare incongruenze ed artefatti visivi.
  • Il metodo DNF (Diffusion Noise Feature) utilizza le attuali architetture di generazione di immagini (chiamate modelli di diffusione) per rilevare i deepfake. I modelli di diffusione si basano su una stima della quantità di rumore da aggiungere ad un’immagine per causare una “allucinazione”, che crea contenuti dal nulla, e questa stima può essere utilizzata a sua volta per rilevare se un’immagine sia stata generata dall’intelligenza artificiale.
  • Il metodo DCT (Discrete Cosine Transform) per il rilevamento dei deepfake analizza le frequenze spaziali di un’immagine per individuare artefatti nascosti. Trasformando un’immagine dal dominio spaziale (pixel) al dominio della frequenza, la DCT è in grado di rilevare sottili anomalie nella struttura dell’immagine, che si verificano quando sono generati deepfake e sono spesso invisibili ad occhio nudo.

Il gruppo di lavoro di Thales che c’è dietro questa invenzione fa parte di cortAIx, l’acceleratore di intelligenza artificiale del Gruppo, che conta oltre 600 ricercatori ed ingegneri, 150 dei quali hanno sede presso il cluster di ricerca e tecnologia Saclay a sud di Parigi e lavorano su sistemi mission-critical.

Il team Friendly Hackers ha sviluppato una “cassetta degli attrezzi” chiamata BattleBox per aiutare a valutare la robustezza dei sistemi abilitati all’intelligenza artificiale contro gli attacchi progettati per sfruttare le vulnerabilità intrinseche di diversi modelli di intelligenza artificiale (inclusi i modelli linguistici di grandi dimensioni), come gli attacchi avversari ed i tentativi di estrarre informazioni sensibili. Per contrastare questi attacchi, i ricercatori sviluppano contromisure avanzate come l’unlearning, l’apprendimento federato, la filigrana del modello e l’hardening del modello.

Nel 2023, Thales ha dimostrato la sua competenza durante la sfida CAID (Conference on Artificial Intelligence for Defence) organizzata dalla Direction Générale de l’Armement (DGA), che prevedeva il reperimento dei dati di addestramento dell’IA anche dopo che erano stati eliminati dal sistema per proteggerne la riservatezza.

Fonte ed immagine credit @Thales

Articolo precedente

Thales selezionata dalla Commissione europea per sviluppare un sistema di difesa aerea con l’uso dell’Intelligenza Artificiale

Prossimo articolo

Omologato dal Tribunale di Rovigo il piano di Ristrutturazione del Cantiere Navale Vittoria

Articolo precedente

Thales selezionata dalla Commissione europea per sviluppare un sistema di difesa aerea con l’uso dell’Intelligenza Artificiale

Prossimo articolo

Omologato dal Tribunale di Rovigo il piano di Ristrutturazione del Cantiere Navale Vittoria

Ultime notizie