Quando la tecnologia si trasforma in arma di violenza digitale
L'intelligenza artificiale ha rivoluzionato il modo in cui creiamo e manipoliamo le immagini. Ma insieme ai progressi sono arrivati anche abusi preoccupanti: i "deepnude", immagini false che mostrano persone reali in situazioni intime, create senza il loro consenso e diffuse online. Non si tratta solo di un problema tecnologico, ma di una questione che tocca diritti fondamentali, dignità delle persone e limiti della legge.
Come siamo arrivati fin qui: la storia dei deepfake
Tutto è iniziato con i "deepfake", video manipolati con l'intelligenza artificiale che permettevano di sovrapporre il volto di una persona su un corpo diverso. I primi casi risalgono al 2017, quando cominciarono a circolare video falsi di celebrità in contesti compromettenti.
La tecnologia però non si è fermata. Oggi basta una singola fotografia, magari presa dai social network, per generare immagini intime false ma incredibilmente realistiche. Il risultato è devastante: contenuti che mostrano una persona nuda, anche se quella situazione non è mai esistita nella realtà.
Le vittime non sono più solo personaggi famosi. Studentesse, giovani donne, persone comuni: chiunque abbia una foto online può diventare un bersaglio. E i numeri sono in crescita sia in Italia che nel resto del mondo.
Perché è così complicato contrastare questo fenomeno
Server lontani e leggi che non arrivano
Molti siti che offrono questi "servizi" si trovano fisicamente in paesi dove le nostre leggi non hanno alcun potere. I server sono ospitati in giurisdizioni che non collaborano con le autorità internazionali, rendendo quasi impossibile qualsiasi intervento diretto.
Inoltre, su piattaforme di messaggistica come Telegram esistono bot automatici che "spogliano" le persone in pochi secondi. L'apparente anonimato e la facilità d'uso incoraggiano comportamenti che molti non avrebbero mai in un contesto reale.
Un vero e proprio business della violazione
Non parliamo di episodi isolati o marginali. Questi servizi funzionano come vere aziende: offrono abbonamenti, periodi di prova gratuiti, sconti per chi invita amici. Alcuni costano pochi centesimi, altri regalano "crediti virtuali" per ogni nuovo utente portato. Questa struttura commerciale trasforma la violenza digitale in un fenomeno di massa.
Trovare questi siti è fin troppo facile
Contrariamente a quanto si pensa, molti di questi servizi non si nascondono nel "dark web": sono perfettamente visibili su Google e altri motori di ricerca. Chiunque può trovarli con una semplice ricerca.
Anche i sistemi di pagamento sono quelli normali: carte di credito, circuiti internazionali comuni. Questo significa che l'intera infrastruttura della rete (motori di ricerca, hosting, pagamenti) diventa complice, anche involontariamente, di questa catena.
Le leggi non bastano ancora
In Italia, dall'ottobre 2025 esiste un reato specifico che punisce chi diffonde contenuti falsificati con l'intelligenza artificiale senza consenso. È un passo avanti importante, ma la legge presenta ancora dei limiti.
Per esempio, non distingue sempre chiaramente tra deepfake satirici, quelli politici e i deepnude, anche se sono fenomeni molto diversi tra loro per gravità e conseguenze.
Inoltre, spesso sono le vittime stesse che devono cercare i contenuti, raccogliere le prove e chiedere la rimozione. Questo processo è lungo, pesante e spesso inefficace, causando una seconda sofferenza dopo quella iniziale.
Una questione culturale: la violenza di genere online
Dietro quasi ogni deepnude c'è una vittima donna. Non si tratta di satira o arte: l'obiettivo è umiliare, dominare, esercitare potere attraverso la riduzione del corpo femminile a oggetto.
Quello che sembra un "problema dell'algoritmo" è in realtà un problema sociale e culturale: un abuso che si diffonde grazie a mentalità basate sulla disuguaglianza di genere e sul dominio.
Cosa si può fare concretamente
Fermare i deepnude richiede un approccio che unisca diversi strumenti, non solo la tecnologia o le leggi.
Educazione e consapevolezza: è fondamentale formare giovani, genitori e insegnanti al rispetto online, al valore del consenso e della dignità delle persone. La prevenzione parte dalla cultura.
Aiuto alle vittime: servono strutture che offrano assistenza legale, psicologica e pratica per chi subisce questi abusi. In diversi paesi europei esistono già organizzazioni che forniscono questo supporto gratuitamente.
Leggi più forti e applicate meglio: le norme esistono, ma vanno rese più chiare e applicate in modo uniforme. Chi si occupa di contrastare questi crimini (polizia, magistratura, piattaforme) deve essere formato specificamente sul tema della violenza digitale di genere.
Responsabilità delle piattaforme: motori di ricerca, social network, servizi di hosting e circuiti di pagamento non possono rimanere neutrali quando facilitano la circolazione di contenuti illegali. Devono adottare sistemi di moderazione efficaci e rapidi, con trasparenza sui criteri utilizzati.
Perché è importante parlarne adesso
I deepnude non sono un allarme isolato: sono la punta di un iceberg che mescola tecnologia, economia, cultura e violenza. Ogni immagine creata senza consenso è un atto di violenza, una lesione della dignità, una minaccia alla libertà individuale.
Ignorare o minimizzare questi fenomeni significa accettare che il corpo, in particolare quello femminile, possa essere modificato, riprodotto e commercializzato a piacimento. Significa normalizzare la mercificazione digitale delle persone.
Parlarne in modo chiaro e informato, invece, significa difendere diritti, dignità e rispetto. Significa ricordare che dietro ogni immagine falsa, ogni bot, ogni sito c'è una persona reale. E che internet, per come la costruiamo e la regoliamo, riguarda tutti noi.
La tecnologia continuerà a evolversi, ma tocca a noi decidere in quale direzione: verso una società digitale più giusta o verso la normalizzazione della violenza online. La scelta, come sempre, dipende dalle azioni che compiamo oggi.
Cristiano Pivato
Torna ad Articoli e News