Sappiamo tutti quanto sia difficile gestire con serenità e certezza la prova digitale nei tribunali oggi.
Tuttavia, con le giuste procedure e un approccio critico aggiornato, è possibile tutelare i propri assistiti, smascherare le alterazioni ed evitare condanne ingiuste.
L'Avvento dell'Intelligenza Artificiale nel Rito Penale
L’irruzione dell’intelligenza artificiale generativa all'interno del nostro sistema giudiziario sta causando un vero e proprio terremoto. Stiamo assistendo a quello che possiamo definire un trauma epistemologico senza precedenti.
Per decenni, avvocati e magistrati hanno riposto una fiducia quasi assoluta nel dato audiovisivo. Il video o la registrazione audio sono sempre stati considerati la prova regina, capace di congelare la realtà storica.
Oggi, questa granitica certezza sta crollando. La tecnologia ci mette di fronte a una realtà parallela, indistinguibile dal vero, che mina alla base le fondamenta del nostro rito penale.
Cos'è Esattamente un Deepfake?
I deepfake non sono semplici alterazioni o fotomontaggi. Sono artefatti multimediali complessi, generati attraverso reti neurali avanzate (GAN).
Questi sistemi riescono a ricalcare con una perfezione millimetrica le sembianze, la voce e persino la gestualità di soggetti reali. Il risultato estetico è la genuinità assoluta.
Il problema per noi legali non è più solo verificare la corretta catena di custodia del reperto. Dobbiamo letteralmente mettere in discussione la natura stessa di ciò che i nostri occhi stanno guardando.
La Crisi dell'Articolo 234 c.p.p.
Quando il legislatore del 1988 ha redatto l'art. 234 del Codice di procedura penale, aveva in mente un documento inteso come "rappresentazione" passiva di fatti o persone.
La carta, la pellicola o il nastro magnetico erano supporti che ricevevano una traccia dalla realtà. Ma un video generato dall'AI può ancora rientrare in questa categoria codicistica?
Molti giuristi iniziano a chiedersi se questi file non debbano piuttosto essere inquadrati come prova atipica ex art. 189 c.p.p., richiedendo filtri di ammissibilità molto più stringenti.
Il Nuovo Falso Documentale
Il deepfake rappresenta un enorme paradosso giuridico: esso simula un fatto che non è mai storicamente avvenuto. È la nascita di un nuovo falso documentale.
Ecco perché sfugge alle categorie tradizionali:
-
Falsità materiale: Presuppone l'alterazione di un originale. Nel deepfake, l'originale non esiste.
-
Falsità ideologica: Riguarda la veridicità di quanto attestato, ma qui manca proprio il referente fenomenico.
-
Natura digitale: Il documento nasce falso fin dalla sua prima stringa di codice.
Nonostante le aperture della giurisprudenza di legittimità sui documenti informatici (come le Sezioni Unite n. 40517/2016 sui metadati), il sistema non ha ancora metabolizzato questo livello di manipolazione profonda.
Il Giudice e il Libero Convincimento Sotto Assedio
Il principio del libero convincimento del giudice (art. 192 c.p.p.) sta vivendo una stagione di profonda e pericolosa incertezza.
Il magistrato, per quanto preparato in diritto, è pur sempre un "non esperto" in informatica avanzata. Di fronte al video di un imputato che confessa un reato, l'impatto psicologico è devastante.
La psicologia forense definisce questo fenomeno come fallacia dell'evidenza: la mente umana tende a credere ciecamente a ciò che vede, ignorando che l'immagine possa derivare da un calcolo computazionale.
La Pericolosa Delega ai Software Forensi
Il rischio concreto è che la decisione giudiziaria subisca una mutazione genetica. Il processo logico-giuridico rischia di trasformarsi in un mero recepimento acritico.
Il giudice potrebbe finire per delegare la propria giurisdizione al responso di un consulente tecnico o di un software di deepfake detection.
In questo modo, il magistrato si ridurrebbe a un notaio di verità prodotte in laboratorio, svuotando di significato il contraddittorio dibattimentale.
Digital Forensics e Parità delle Armi
La digital forensics, un tempo nostro baluardo inattaccabile per la certezza probatoria, si trova oggi in evidente e strutturale affanno.
Le intelligenze artificiali generative sono programmate proprio per superare i filtri di controllo. Esiste un sistema che "crea" il falso e uno che tenta di smascherarlo, in un ciclo di apprendimento continuo.
Questo significa che in sede processuale la prova dell'autenticità diventa meramente probabilistica. Nessuna perizia potrà mai garantire al 100% che un video sia reale.
La Sfida per il Diritto di Difesa
Emerge qui un vulnus gravissimo per il diritto di difesa. L'imputato che deve smentire un falso ben fatto ha bisogno di risorse tecniche ed economiche immense.
La parità delle armi (art. 111 Cost.) rischia di diventare lettera morta se la difesa non può accedere agli stessi supercomputer usati dall'accusa.
La sola catena di custodia garantisce che il file non sia stato alterato dopo il sequestro, ma non ci dice assolutamente nulla su come quel file sia stato generato in origine.
Il Paradosso del "Dividendo del Bugiardo"
Forse l'insidia più grande che noi avvocati dobbiamo affrontare oggi è il cosiddetto Liar’s Dividend, ovvero il dividendo del bugiardo.
In un clima dove la manipolazione universale è tecnicamente possibile, la semplice esistenza dell'intelligenza artificiale offre una comoda via d'uscita ai colpevoli.
Un imputato realmente colpevole, inchiodato da un video genuino, può difendersi insinuando che quella prova sia un artefatto algoritmico.
Come Cambia il Ragionevole Dubbio
Questo fenomeno distorce in modo patologico il sacro canone del ragionevole dubbio previsto dall'art. 533 c.p.p.
Il dubbio non scaturisce più da lacune nelle indagini o da reali incongruenze processuali, ma da una possibilità teorica onnipresente e, di fatto, indimostrabile.
Se tutto può essere falso, nulla merita più di essere creduto. Questo scetticismo iperbolico rischia di condurci verso un'impunità diffusa e sistematica.
Come Preservare la Verità Dibattimentale
Di fronte a questa "eclissi della verità", il diritto penale non può restare immobile ad aspettare un miracolo tecnologico. Serve un'azione legale decisa.
La prova documentale digitale ha perso la sua aura di infallibilità. Ora deve tornare a essere considerata solo un tassello di un mosaico molto più ampio.
È fondamentale che il magistrato torni a valutare il file multimediale non in isolamento, ma incrociandolo rigorosamente con tutte le altre evidenze.
Un Modello Pratico per gli Avvocati
Per noi professionisti del diritto, ecco un modello operativo in 3 step per affrontare le prove digitali sospette:
-
Rivalutare la prova dichiarativa: Il testimone oculare torna a essere cruciale. L'esame incrociato (cross-examination) permette di saggiare la credibilità umana in modi che sfuggono alle macchine.
-
Cercare riscontri esterni: Non fermarsi mai al video. Pretendere sempre riscontri logici, tabulati telefonici, celle di aggancio ed evidenze materiali fisiche a supporto.
-
Sfruttare la Provenance Technology: Richiedere e promuovere l'uso della blockchain per certificare l'origine dei file, creando un "fascicolo digitale" inalterabile che tracci la vita del reperto dalla sua genesi. ⛓️
Solo unendo rigore tecnologico, garanzie difensive proattive e una sana cultura del dubbio metodico, potremo salvare il processo penale dalla notte della giustizia digitale.
Torna ad Articoli e News