Author: Prof. Marco Bacini
Committee: Cybersecurity Strategic Committee
Date: 12/01/2026

La lotta al riciclaggio e ai reati finanziari sta attraversando una fase di profonda riconfigurazione. I modelli tradizionali, fondati su controlli formali, verifiche documentali e presidi ex post, risultano sempre più esposti a schemi criminali capaci di sfruttare la digitalizzazione per frammentare le operazioni, disintermediare i luoghi fisici e separare l’esecutore materiale dal beneficiario effettivo. La vera novità è l’intelligenza artificiale che non rappresenta semplicemente un nuovo strumento tecnologico, ma diventa fattore strutturale di trasformazione del rischio.

Le organizzazioni criminali transnazionali hanno dimostrato una crescente capacità di utilizzare tecniche di AI generativa per costruire identità sintetiche, produrre documentazione apparentemente autentica, aggirare i sistemi biometrici e manipolare i processi di onboarding digitale. Deepfake, frodi documentali automatizzate e modelli evoluti di social engineering stanno diventando elementi ricorrenti nei meccanismi di riciclaggio e finanziamento illecito. L’uso dell’AI consente di scalare il crimine, riducendo i costi operativi e aumentando l’opacità delle responsabilità, con un impatto diretto sulla capacità degli Stati di esercitare una sovranità penale effettiva.

Parallelamente, le stesse tecnologie stanno ridefinendo in profondità anche le capacità di contrasto. Machine learning, anomaly detection, analisi dei grafici e blockchain analytics consentono oggi di individuare pattern anomali che sfuggono ai controlli basati su regole statiche. Le Financial Intelligence Units, le autorità fiscali e gli intermediari finanziari stanno progressivamente integrando sistemi capaci di correlare grandi volumi di dati eterogenei, ricostruire reti multilivello e anticipare comportamenti sospetti prima che si traducano in eventi dannosi. In ambito crypto, l’analisi dei registri distribuiti ha dimostrato come la presunta anonimizzazione degli asset digitali sia compatibile con forme avanzate di tracciabilità investigativa.

Questo dualismo, intelligenza artificiale come strumento di attacco e, allo stesso tempo, di difesa, impone però una riflessione che va oltre la dimensione tecnologica. L’automazione dei processi decisionali, se non adeguatamente governata, rischia di introdurre nuove vulnerabilità sistemiche. L’adozione di soluzioni RegTech sviluppate da terzi, spesso caratterizzate da modelli opachi e da limitata spiegabilità, può generare dipendenze tecnologiche e ridurre il controllo umano effettivo. In assenza di una governance rigorosa, la tecnologia rischia di diventare un fattore di esposizione anziché uno strumento di rafforzamento della sicurezza.

È in questo passaggio che la cybersecurity assume un ruolo centrale, non come ambito settoriale, ma come infrastruttura abilitante dell’intero sistema di contrasto. La protezione dei dati investigativi, l’integrità dei flussi informativi, la resilienza delle piattaforme condivise e la sicurezza delle interconnessioni tra autorità nazionali ed europee rappresentano prerequisiti essenziali per qualsiasi utilizzo avanzato dell’intelligenza artificiale. Senza un adeguato livello di sicurezza cibernetica, l’AI applicata al contrasto dei reati finanziari rischia di amplificare le superfici di attacco e di compromettere la fiducia nelle istituzioni.

Va collocato all’interno di questo contesto il ruolo di EPPO, che rappresenta un elemento di discontinuità rispetto alle tradizionali architetture di contrasto. La Procura Europea incarna il primo tentativo concreto di esercitare una funzione investigativa e requirente realmente sovranazionale, nella quale la dimensione digitale e la sicurezza delle infrastrutture informatiche non costituiscono un mero supporto tecnico, ma una componente intrinseca della capacità operativa. Le indagini su frodi complesse, reati finanziari transfrontalieri e utilizzo illecito di fondi europei richiedono ambienti digitali sicuri, interoperabili e governati, all’interno dei quali l’uso dell’intelligenza artificiale sia giuridicamente sostenibile e tecnicamente affidabile. Per questo la cybersecurity diventa strumento fondamentale per garantire l’efficacia dell’azione giudiziaria europea.

Il nuovo assetto antiriciclaggio dell’Unione, con l’istituzione dell’AMLA (la nuova Autorità europea per l’antiriciclaggio e il contrasto al finanziamento del terrorismo) e il rafforzamento dei meccanismi di condivisione informativa, va letto proprio in questa chiave sistemica. L’obiettivo non è soltanto l’armonizzazione normativa, ma la costruzione di un ecosistema tecnologico e istituzionale capace di sostenere l’impiego avanzato dell’intelligenza artificiale senza compromettere i principi fondamentali dello Stato di diritto. Tracciabilità delle decisioni, qualità dei dati, accountability degli algoritmi e supervisione umana rappresentano condizioni di legittimità dell’azione pubblica, non meri requisiti tecnici.

La sfida che si delinea è quindi duplice. Da un lato, sfruttare il potenziale dell’AI per rafforzare il “follow the money” in domini sempre più digitalizzati e smaterializzati. Dall’altro, evitare che l’automazione decisionale produca effetti distorsivi sulle garanzie fondamentali, dalla presunzione di innocenza alla tutela dei dati personali. Questo equilibrio non può essere affidato esclusivamente alla tecnologia ma richiede una cooperazione strutturata tra autorità giudiziarie, intermediari finanziari, operatori tecnologici e comunità accademica.

La cybersecurity applicata ai processi giudiziari e finanziari non può essere affrontata come tema isolato ma deve diventare uno spazio di convergenza tra diritto europeo, governance dei dati e capacità di intelligence. Perché solo un dialogo strutturato e continuativo tra istituzioni, mondo accademico e operatori consentirà di trasformare l’intelligenza artificiale da fattore di rischio a leva di resilienza sistemica.

La sicurezza economica europea passa oggi anche dalla capacità di integrare competenze giuridiche, cyber e tecnologiche in un quadro coerente e responsabile. Ed è su questo terreno che si gioca la credibilità dell’azione di contrasto ai reati finanziari nell’era dell’intelligenza artificiale.

 

0
Would love your thoughts, please comment.x