Società / Meter pubblica il primo dossier nazionale su Intelligenza Artificiale e minori

0
118

Presentato a Roma il primo dossier nazionale su Intelligenza artificiale e minori, realizzato dall’associazione Meter ETS. Lunedì 23 giugno la sede CEI di via Aurelia ha visto la presentazione del fascicolo dal titolo “Intelligenza artificiale: conoscere per prevenire, dalla pedopornografia ai deepnude”.

Ad intervenire, portando i risultati dello studio condotto sulle frontiere e i rischi dell’intelligenza artificiale, sono stati don Fortunato Di Noto, presidente e fondatore dell’associazione Meter, Maria Teresa Bellucci, vice ministro del Lavoro e delle Politiche sociali, Ivano Gabrielli, direttore della Polizia Postale e per la sicurezza cibernetica, Chiara Griffini, presidente del Servizio CEI per la tutela dei minori, e Vincenzo Corrado, direttore dell’Ufficio CEI per le comunicazioni sociali. Tramite nota ufficiale presenti le voci del cardinale Matteo Zuppi, presidente della CEI e di monsignor Giuseppe Baturi, segretario generale della stessa.

L’incontro, moderato dal presidente del Copercom, Stefano Di Battista, nasce dall’esperienza trentennale che l’associazione Meter ha potuto sviluppare grazie all’impegno nel campo della lotta a pedofilia e pedopornografia e dal desiderio di fare luce su argomenti quanto mai delicati.

Lo studio

Lo studio, condotto dall’associazione capitanata da don Fortunato Di Noto, è un unicum nel panorama italiano. Se già era particolamente allarmante il grooming, ovvero la strategia con cui il pedofilo avvicina il minore attraverso i social e costruisce relazioni di fiducia che poi conducono all’abuso prima psicologico e poi sessuale, i dati emersi dalla ricerca sono ancora più spaventosi.

Nel dossier di Meter viene evidenziato come l’intelligenza artificiale abbia aperto le porte alla pedofilia: nuove frontiere vengono quotidianamente varcate grazie alle chatbot, programmi che consentono di abbordare il minore spingendolo ad accettare l’invio di foto personali ma anche a lasciarsi coinvolgere in situazioni di rischio crescente.

Si evince, da un’indagine condotta con il Servizio per la Tutela dei Minori della CEI, che 989 studenti tra i 14 e i 18 anni conoscono l’IA, la utilizzano per motivi scolastici ma anche interagiscono con chatbot e affrontano rischi legati alle molestie online.

Il deep nude

Particolarmente preoccupante ed inquietante, nel cuore dell’era digitale, si mostra essere il fenomeno del “deep nude”, nuova insidia del mondo virtuale. L’Intelligenza Artificiale (IA) viene sfruttata per generare child sexual abuse material (Csam), alterare immagini e favorire l’adescamento on line. Se non bastassero deep e dark web, sexing e grooming ad inficiare il mondo del web, si comincia a parlare recentemente anche di deep nude.

ll deep nude è sicuramente una delle formule più sudbolde di violenza sessuale online: rende possibile infatti richiedere all’intelligenza artificiale di spogliare virtualmente i minori, ampliando il mercato di abusi, grazie ad un algoritmo capace di manipolare un’immagine fino a farla apparire vera all’occhio inesperto. Nato nel 2019 grazie ad un’applicazione che risulta oggi rimossa dal web, ma che ha continuato a circolare clandestinamente tra dark web e forum anonimi. Nonostante la chiusura dell’applicazione il suo codice e la tecnologia che le ha dato vita sono sopravvissuti.

Il fenomeno, ancora poco conosciuto al grande pubblico italiano ma noto da anni nel mondo americano, è già causa di gravi danni sia per i minori che per moltissime donne coinvolte. Basta una foto innocente, rubata o inviata, affinchè un software basato sull’IA elabori l’immagine spogliandola, generando in questo modo un falso nudo realistico.

I rischi del fenomeno “deep nude”

Il Deep Nude è sinonimo di una società in cui l’assenza di educazione etica rende anche gli strumenti positivi forieri di abusi. Bisogna infatti sottolineare che non è pericolosa la tecnologia ma l’uso errato che se ne fa. Il deep nude è strumento di ricatto, vendetta ed umiliazione a cui la vittima è sottoposta nel momento in cui viene divulgata in rete a propria insaputa, con immagini che minano reputazione, vita privata, benessere psicologico e dignità.

E’ forma abietta di pornografia non consensuale e di pedopornografia, e anche se le immagini non sono reali lo sono le sue conseguenze. Sempre più piattaforme permettono di segnalare e rimuovere le immagini modificate, ma la diffusione in rete è talmente veloce da rendere difficile l’intervento. Solo un’educazione all’uso consapevole delle immagini e la promozione della cultura del rispetto, anche online, può disarmare questa nuova forma abusante.

meter e intelligenza artificiale

Il dossier

Il dossier ha fatto emergere come siano quasi tremila i bambini che sono vittima di deepnude su signal, nuovo social, in un arco temporaneo relativamente breve: sei mesi. L’addescamento, che avviene tramite chatbot, ha portato a raggiungere numeri impressionati ai quali si affianca il numero di gruppi finora segnalati, a sua volta significativo: 507. Le chatbot, sistemi capaci di interagire online con i minori, sono pensati per creare un rapporto intimo con essi, conducendoli verso la fiducia e, in seguito, a farli protagonisti di situazioni abusanti tramite deepnude. Questo ha portato a 2.967 bambini “spogliati” nei mesi da dicembre 2024 a maggio 2025.

Per costruire il dossier Meter ha realizzato un progetto pilota, partendo da un questionario rivolto a 989 studenti degli Istituti secondari di secondo grado, nella fascia d’età che va dai 14 ai 18 anni d’età. Il dato emerso resta preoccupante: sul totale dei partecipanti il 92,2% degli studenti ha interagito con chatbot. Un buon 81% è consapevole che i deepfake hanno ripercussioni anche per la reputazione di una persona, con conseguenze sulla sua stessa vita.

Ancora il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione. Il 52,3% non sa distinguere un video deepfake da uno reale. Il 90,5% ritiene che diffondere un deepfake e deepnude costituisce un serio pericolo e che il 65,1% di essi denuncerebbe senza indugio.

È possibile scaricare qui il dossier completo: https://associazionemeter.org/chi-siamo/report-annuali/dossier-2025-intelligenza-artificiale-conoscere-per-prevenire-dalla-pedopornografia-ai-deepnude/

La conferenza stampa

Tramite la pagina facebook dell’associazione Meter di don Fortunato Di Noto ecco alcuni stralci degli interventi. Il dossier Meter riporta che sono 2967 i minori vittima di deepnude, monitorati in sei mesi. Su questi dati così si sono espressi i presenti alla conferenza stampa.

meter intelligenza artificiale

Iniziamo con il cardinale Matteo Maria Zuppi, che così si è espresso:“la Chiesa continuerà a farsi carico di questa responsabilità, promuovendo con determinazione un discernimento pubblico che non separi mai l’innovazione dalla giustizia, la potenza dalla cura, la tecnica dalla coscienza”

Ha proseguito l’onorevole Maria Teresa Bellucci, vice ministro del Lavoro e delle Politiche Sociali: “Dobbiamo guardare i nostri figli: loro saranno l’umanità che verrà. Se sarà migliore o peggiore, dipenderà da noi. La sfida è urgente. L’Italia, ha recepito una regolazione sull’IA che rimette al centro l’uomo”.

Per la Polizia Postale e della Sicurezza Cibernetica era presente il dottor Ivano Gabrielli: “IA e criptoasset sono le nuove sfide investigative. La rete espone i minori: ogni immagine condivisa può violare la loro dignità. Rimuovere questi contenuti dal web è quasi impossibile. L’IA è uno strumento potente, ma serve coscienza e controllo. Ogni giorno nuovi casi, nuovi arresti”.

Ancora era presente la dottoressa Chiara Griffini, presidente Servizio nazionale tutela minori: “Non possiamo educare i giovani al digitale se prima non educhiamo noi adulti. Serve un’alleanza educativa tra scuola, famiglia, Chiesa e istituzioni”. Ha concluso il direttore Ufficio Nazionale per le Comunciazioni Sociali CEI, il dottor Vincenzo Corrado, che ha voluto sottolineare il prezioso contributo che viene dato dall’associazione di don Fortunato: “Grazie a Meter per aver trasformato un’azione concreta in uno studio prezioso”.

Don Fortunato Di Noto ai microfoni dei media vaticani

Intervistato da Francesco Ricupero così si è espresso don Fortunato, confrontando lo studio di Meter sull’intelligenza artificiale correlata agli abusi: “Non possiamo permetterci di distrarci poiché si rischia di alimentare un mercato di abusi. L’IA è un pericolo per gli adolescenti poiché, come si evince dal nostro dossier, sta sfruttando l’innocenza dei bambini per quanto riguarda le chatbot, poiché non hanno la possibilità di verificare che dall’altra parete c’è una macchina che quindi influenza moltissimo la loro vita e li condiziona  a tal punto di creare immagini pedopornografiche e rielaborale. 

don Fortunato Di Noto

Abbiamo analizzato circa tremila minori che con il deepnude sono stati spogliati e questo ha creato in loro tanta preoccupazione poiché si sentono feriti nella propria dignità. La percezione del pericolo da parte dei giovani c’è ma dall’altra parte manca a volte una continuata prevenzione. Dobbiamo entrare nei meccanismi dell’IA per garantire un’etica e offrire una possibilità di percorsi positivi necessari per evitare che minori e adolescenti vengano sempre più coinvolti dal turpe fenomeno della pedopornografia sul web”.

L’educazione non solo ai giovani, ma anche alle famiglie

Fondamentale diventa la formazione per genitori e caregivers. Un cuore, un’emoji o un adesivo sul viso o sulle parti intime dei bambini non corrispondono a protezione reale. Come già evidenziato parlando del deep fake, le tecnologie basate sull’intelligenza artificiale sono perfettamente in grado di “ricostruire” la parte coperta, rimuovendo quanto aggiunto per preservare il proprio figlio.

La ricostruzione degli elementi grafici permette di rimuovere l’emoji tanto quanto di rimuovere un costume da bagno, generando immagini non reali ma comunque allettanti nelle mani sbagliate. Bisogna educare alla consapevolezza, per permettere di condividere contenuti veramente non sensibili.

La situazione italiana

In Italia, pur correndo l’obbligo di evidenziare gli sforzi messi in atto per tutelare i minori, le norme in tema di IA attualmente in vigore non sono abbastanza salvifiche. Raramente sono sufficienti ad affrontare il problema e la loro velocità, come la loro incisività, non è sufficiente. Questo diventa maggiormente insufficiente a livello globale, e Meter sottolinea che servono leggi che siano foriere di pene severe per coloro che utilizzano l’intelligenza artificiale in maniera scorretta e abusante. La richiesta, a tutti i governi mondiali è di spingere le software house a dotare i prodotti IA con misure adeguate a identificare e bloccare la produzione di materiale pedopornografico, rimuovendolo e segnalando chi se ne è servito.

Chiara Costanzo