L’evoluzione tecnologica ha aperto scenari inimmaginabili, ma ha anche fornito nuovi, pericolosi strumenti per alimentare forme di abuso preesistenti, colpendo in modo sproporzionato le donne e le persone più vulnerabili.

I deepfake nati come curiosità tecnica o strumento di intrattenimento, possono trasformarsi in armi di violenza di genere capaci di distruggere la reputazione e il benessere psicofisico di chi ne diventa vittima senza alcun consenso.

Riflettere su come la tecnologia possa diventare strumento di abuso è fondamentale per costruire una cultura digitale basata sul rispetto dei diritti umani e sulla tutela dell’autodeterminazione.

In questo articolo approfondiremo:

  • Cosa sono i deepfake e come funzionano le manipolazioni basate sull’intelligenza artificiale
  • Il legame tra deepfake e violenza di genere digitale
  • Tipologie di abusi: diffusione illecita di immagini, molestie online e danno reputazionale
  • Suggerimenti pratici per riconoscere, difendersi e denunciare questi abusi

Deepfake e violenza di genere digitale

Il confine tra reale e virtuale è sempre più labile. I deepfake rappresentano una delle frontiere più preoccupanti di questa trasformazione, specialmente quando vengono utilizzati per colpire l'identità e la dignità delle persone, alimentando nuove forme di violenza che si propagano alla velocità della rete.

Cosa sono i deepfake

I deepfake sono video, immagini o file audio manipolati attraverso l'uso di software sofisticati basati sull'intelligenza artificiale e sul deep learning. Questa tecnologia permette di sovrapporre il volto o la voce di una persona a un contenuto esistente, creando rappresentazioni estremamente realistiche di situazioni che non sono mai avvenute nella realtà.

Sebbene possano essere usati per scopi creativi o satirici, il loro utilizzo distorto è in netta crescita. Secondo un rapporto della società di cybersicurezza Sensity AI, circa il 90-95% dei video deepfake online sono pornografici e non consensuali, e quasi la totalità delle persone colpite -oltre il 90%- è di genere femminile. Questo dato sottolinea come la tecnologia, in assenza di etica, tenda a replicare e amplificare le disparità e le violenze sistemiche già presenti nella società offline.

Inoltre un’indagine Ipsos mette in luce come il 38% degli intervistati non sappia cosa sia davvero il deepfake. Diventa quindi fondamentale fare chiarezza sul tema e sensibilizzare sui rischi di questo fenomeno, soprattutto per le categorie considerate più a rischio.

Dal punto di vista legale ad oggi è stata approvata la Legge 132/2025 che ha sancito il reato di diffusione illecita di contenuti generati o manipolati tramite Intelligenza Artificiale. La strada però è ancora lunga.

Deepfake e violenza di genere digitale: una connessione profonda

I deepfake sono strumenti di violenza digitale quando vengono impiegati per diffondere contenuti sessuali falsi, usati per ricattare, molestare o umiliare. Entrano in un quadro più ampio di cyberviolenza di genere, che comprende ogni forma di violenza attraverso strumenti digitali e internet.

Tra le manifestazioni più gravi troviamo:

  • Diffusione illecita di immagini (NCII): Conosciuta impropriamente come revenge porn, consiste nella pubblicazione o condivisione di contenuti intimi (veri o manipolati tramite deepfake) senza il consenso della persona ritratta.
  • Molestie online: L'uso di profili falsi o contenuti manipolati per perseguitare sistematicamente una persona.
  • Danno reputazionale: La creazione di falsi video che mirano a screditare la vittima in ambito professionale o privato.

Il trauma subito da chi è vittima di queste pratiche è reale e profondo. Non si tratta di "semplici pixel", ma di attacchi che ledono il diritto alla privacy, all’autodeterminazione e incidono fortemente sulla salute psicologica delle persone coinvolte.

Come difendersi e denunciare

Affrontare la violenza digitale richiede consapevolezza e azioni tempestive. Ecco alcuni spunti di riflessione e passi pratici.

Protezione preventiva

È importante gestire con cura la propria presenza online, limitando la visibilità dei dati personali e delle foto ad alta risoluzione che potrebbero essere facilmente utilizzate dagli algoritmi di AI per creare deepfake.

Raccogliere le prove

Se ti accorgi di essere vittima di un deepfake, non cancellare immediatamente tutto. Salva gli URL, fai degli screenshot o dei video dello schermo che possano servire come prova legale.

Come si denuncia

In Italia, la diffusione illecita di immagini è un reato perseguibile penalmente (Art. 612-ter c.p.). È possibile sporgere denuncia presso la Polizia Postale o i Carabinieri. Inoltre, piattaforme come Facebook e Instagram hanno strumenti specifici per segnalare e rimuovere contenuti intimi non consensuali.

Cerca supporto

Non affrontare tutto da sola o da solo. Esistono centri antiviolenza e associazioni specializzate nel supporto psicologico e legale per le vittime di cyberviolenza.