L’intelligenza artificiale è la nuova, drammatica, frontiera della pedofilia e della pedopornografia. E’ questo l’altrettanto drammatico allarme lanciato da Meter onlus, l’associazione fondata e diretta da don Fortunato Di Noto contro gli abusi sui minori, che questa mattina ha presentato a Roma il primo Dossier mai realizzato sui legami tra AI e, appunto, pedopornografia. Lungi, ovviamente, dal voler demonizzare a prescindere uno strumento dalle potenzialità straordinarie come l'intelligenza artificiale, ma proprio perché è uno strumento - che come tutti può essere usato bene o male - presenza dei legami con il mondo criminale che sono già una vera e propria emergenza, con numeri inquietanti. Basti pensare, infatti, che il Dossier denuncia almeno 507 gruppi di pedofili sull’app Signal e che quasi 3.000 bambini sono stati “spogliati” utilizzando i sistemi di intelligenza artificiale in soli sei mesi. L’appello di Don Di Noto è eloquente: «siamo all’anno zero, non c’è tempo da perdere!».
«Attraverso questo Dossier – ha aggiunto sempre don Di Noto – abbiamo voluto denunciare e sollevare una forte presa di posizione della società, della politica e della chiesa, perché norme più uniformi e severe permettano di combattere questo abietto fenomeno. Offriamo la nostra competenza a Papa Leone XIV nel momento in cui egli annuncia la stesura di una lettera enciclica sull’AI. Anche questo è un fronte che non dev’essere ignorato»,
AI, chatbot e deepfake
Chi abusa, come spiega il Dossier di Meter onlus, si rivolge a chatbot, sistemi che interagiscono online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo: è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nella prima metà del 2025) e farli agire dentro situazioni di abuso grazie al deepfake, le immagini truffa. Le foto e i video deepfake potenziano così la produzione e aprono ad una drammatica svolta: la «normalizzazione» dell’abuso perché in fondo sono immagini virtuali, non ci sono vittime fisiche dunque non è un crimine, secondo questi criminali. Messa così, dunque, la cosa sembrerebbe in fondo un gioco innocuo. Invece no, perché pone ulteriori sfide.
Le nuove sfide: identificazione, prove, lacune normative
Partiamo innanzitutto dalle difficoltà nell’identificazione: non riuscendo a riconoscere le vittime vere da quelle fake, si potrebbe rallentare di fatto il lavoro delle forze dell’ordine, permettendo una diffusione di materiale CSAM - Child Sexual Abuse Material su larga scala. C’è poi la falsificazione delle prove: in questo caso si potrebbe generare materiale per incastrare qualcuno, calunniarlo, diffamarlo; oppure dei criminali potrebbero manipolare prove per scopi illegali (inducendo i soggetti ad azioni suicidarie). Non riuscire a distinguere tra vero e falso creerebbe problemi enormi nell’amministrazione della giustizia. L’altro, enorme e drammatico, problema è l’aumento della domanda di materiale pedopornografico: più prodotti e più diffusione delle pratiche pedopornografiche, verso una normalizzazione dell’abuso «perché tanto sono immagini virtuali». Infine, ma non per importante, la sfida rappresentata dagli ostacoli giuridici e normativi: le norme attuali potrebbero dare adito a vuoti normativi che permetterebbero ai criminali di sfuggire alla giustizia. Semplicemente, come spiega Meter, non sono adeguate a rispondere alla questione posta dalle immagini deepfake.
Una produzione troppo facile
Ma come si “produce” questo materiale così pericoloso? Non mancano online applicazioni e software che permettono di spogliare i bambini o creare situazioni per nulla innocenti, tutto questo partendo da fotografie magari scattate durante momenti di gioco, sport, feste. La macchina virtuale sovrappone ai vestiti un «corpo» modellato pezzo per pezzo, dando pose maliziose e alterando il contesto dell’immagine. Le violazioni sono tante, dalla privacy alle manipolazioni delle immagini, provocando un danno alla reputazione del minore..
Come l’AI adesca i bambini
Lo sviluppo dell’AI ha permesso ai pedofili il massimo risultato col minimo sforzo: mentre prima per adescare un bambino si doveva chattare di persona, adesso è possibile reperire un chatbot, cioè un programma che interagisce con i minori e usa il loro linguaggio al fine di creare una relazione empatica ed indurli anche e persino allo scambio di materiale intimo. L’obiettivo è far sentire il bambino compreso, accettato, complice. In sostanza l’AI può manipolare i minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla accettabili. Purtroppo, però, non finisce qui. Perché i chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli e bloccare. Secondo i dati diffusi dal Dossier di Meter, raccolti dall’OSMOCOP (Osservatorio Mondiale di Contrasto alla Pedofilia di Meter) il sistema di messaggistica più usato è Signal (80%) che peraltro offre crittografia e alto anonimato, seguito da Telegram (canali pubblici e scarsa moderazione), Viber a pari merito con Whatsapp (3%, chat private e gruppi chiusi con comunicazione diretta), per chiudere con Instagram (2% di casi di adescamenti con profili falsi), e altre piattaforme (1% di cloud, forum, darknet).
I ragazzi non distinguono tra realtà e finzione
La ricerca di Meter è andata oltre: in collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza Episcopale Italiana, ha proposto un questionario a 989 studenti degli Istituti secondari di secondo grado, fascia d’età 14-18. Tema delle domande il deepfake e il deepnude. Il 92,2% di essi hanno interagito con un chatbot, e l’81% del campione è convinto che i deepfake possano rovinare la reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il 42,3% ha visto qualcosa che l’ha messo a disagio. Inoltre il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei giovani non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza, però, sapere che il 90,5% ritiene che diffondere un deepfake e deepnude sia un serio pericolo e che il 65,1% di essi denuncerebbe senza indugio.