Negli ultimi mesi, il caso di Taylor Swift, la nota cantautrice che è stata oggetto di alcune immagini false generate con l’intelligenza artificiale e che sono diventate subito virali, ha sollevato ulteriori timori sui pericoli legati all’utilizzo di tool basati sull’AI.
“Consideriamo il caso di Taylor Swift – sottolinea Morgan Wright, Chief Security Advisor di SentinelOne – è una donna molto ricca, ha un esercito di avvocati a disposizione e ha conoscenze in tutto il mondo. Persino lei ha avuto difficoltà a difendersi dalle immagini deep-fake sessualmente esplicite che circolavano sui social media. Sebbene sia riuscita a bloccarle (ci sono volute ventiquattro ore per farlo), le immagini continuano a circolare su migliaia di altri siti e, il problema aumenta per chi dispone di meno disponibilità economiche di Taylor Swift.”
Quello che accade è che un malintenzionato decida di ottenere riproduzioni audio, video e grafiche del bersaglio identificato per perseguire un obiettivo. A seconda di quale sia la finalità, potrebbe essere la combinazione di un qualunque volto con quello di una seconda persona (di solito si intreccia con la pornografia, in quanto tende a infliggere i danni maggiori alla reputazione del personaggio individuato), l’immagine, il video o la riproduzione audio che ne deriva viene fatta circolare sui social e descritta con titoli in stile pettegolezzo per attirare l’attenzione e avviare il fenomeno virale.
“Esistono altre varietà di deepfake – prosegue Wright di SentinelOne – tra cui quelle di natura politica, relazionale, retributiva e di influenza negativa (manipolazione da parte dei governi per influenzare le opinioni) visto che le capacità di generare queste riproduzioni dannose sono diventate più facili e più economiche”.
Quali sono le prime cose da fare se si teme essere vittima di deep-fake?
“Il consiglio è di avvisare immediatamente la polizia postale e di sporgere denuncia – conclude Wright -. Inoltre, a seconda della tipologia della piattaforma coinvolta, esistono alcune disposizioni che consentono alla persona interessata di presentare un reclamo al provider del servizio e di segnalare la criticità. Dopo un evento di deep-fake si sconsiglia di condividere foto, video o file audio sui siti di social media. Per quanto possibile, è opportuno rimuovere ciò che sappiamo essere in circolazione o mettere offline gli account fino a quando non si potrà verificare il rischio.”
In conclusione, si suggerisce di valutare la possibilità di modificare tutte le impostazioni sulla privacy dei canali social per poter limitare l’accesso ai nostri contenuti online. Non sarà facile, ma può aiutare a limitare l’impatto futuro.