Si intitola Malicious Uses and Abuses of Artificial Intelligence, il report realizzato da Europol, United Nations Interregional Crime and Justice Research Institute (Unicri) e Trend Micro, disponibile a questo LINK.

Dal Report emerge come l’intelligenza artificiale possa essere sfruttata sia come vettore sia come elemento per ampliare la superficie di attacco e come le minacce che si basano su questa tecnologia si stiano evolvendo da Deep Fake ad attacchi sempre più complessi.

Lo studio approfondisce il presente e i possibili scenari futuri dell’utilizzo dell’intelligenza artificiale in ambito cybercriminale e si propone come uno strumento per aiutare le organizzazioni pubbliche, private e le Forze dell’Ordine a mitigare i rischi.

“La promessa dell’intelligenza artificiale è quella di una grande efficienza, automazione e autonomia. Nel momento in cui il grande pubblico è sempre più preoccupato sull’utilizzo di questa tecnologia, però, dobbiamo essere completamente trasparenti circa le possibili minacce, non focalizzarci solo sui benefici che ci può portare – ha affermato Edvardas Šileris, Head of Europol’s Cybercrime Centre -. Questo studio ci aiuterà ad anticipare i possibili utilizzi malevoli dell’intelligenza artificiale ma anche a prevenire e mitigare le minacce in maniera proattiva. In questo modo possiamo sfruttare il potenziale dell’intelligenza artificiale e trarre benefici”.

I Deep Fake sono al momento l’esempio più famoso dell’utilizzo dell’IA come vettore di attacco, e presto, sempre basate su questa tecnologia, verranno progettate nuove campagne di disinformazione ed estorsione che renderanno necessari nuovi strumenti di screening.

L’intelligenza artificiale, inoltre, potrebbe essere utilizzata per:

  • Realizzare attacchi di ingegneria sociale su larga scala
  • Progettare malware per il furto di documenti con lo scopo di rendere gli attacchi più efficaci
  • Evitare il riconoscimento facciale o biometrico
  • Lanciare attacchi ransomware che sfruttano una profilazione intelligente
  • Inquinare i dati, identificando falle nelle regole di rilevamento

“Nel momento in cui le applicazioni dell’intelligenza artificiale iniziano ad avere un impatto maggiore nel mondo reale, appare chiaro come questa sarà una tecnologia fondamentale per il futuro – ha dichiarato Irakli Beridze, Head of the Centre for AI and Robotics at Unicri -. Ma non sono solo i benefici dell’IA ad essere reali, purtroppo lo sono anche i rischi. Siamo orgogliosi di essere partner di Europol e Trend Micro nel portare un po’ di luce nel lato oscuro dell’IA, stimolando ulteriori discussioni sull’argomento”. 

Lo studio avverte anche che i sistemi di intelligenza artificiale sono sviluppati per migliorare l’efficacia dei malware e per bloccare i sistemi anti-malware o di riconoscimento facciale.

“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste. Come sottolinea lo studio è già utilizzata per indovinare password, rompere CAPTCHA e clonare le voci, ma altri utilizzi sono in via di definizione – ha affermato Vincenzo Ciancaglini, Senior Threat Researcher di Trend Micro -.Siamo molto soddisfatti di fare squadra con Europol e UNICRI per aumentare il livello di consapevolezza su queste minacce, creando un futuro digitale più sicuro per tutti”.

Alcune raccomandazioni per approcciarsi al meglio all’intelligenza artificiale:

  • Utilizzare il potenziale dell’intelligenza artificiale come uno strumento per combattere il crimine e per rendere la cybersecurity e le Forze dell’Ordine a prova di futuro
  • Investire nella ricerca per sviluppare tecnologie di difesa
  • Promuovere e sviluppare framework di progettazione IA sicuri
  • Ridurre la retorica politica dell’utilizzo dell’intelligenza artificiale per scopi di cybersecurity
  • Sfruttare partnership pubblico-privato e creare gruppi di lavoro multidisciplinari

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.