Attualità

Oltre trecento milioni di bambini ogni anno sono vittime di sfruttamento e abusi sessuali online

Il primo studio globale di questo tipo rivela la “scala sconcertante” del crimine, con un uomo su nove negli Stati Uniti che ammette il reato. Secondo una ricerca, ogni anno più di trecento milioni di bambini in tutto il mondo sono vittime di sfruttamento e abusi sessuali online.

In quella che si ritiene sia la prima stima globale della portata della crisi, i ricercatori dell’Università di Edimburgo hanno scoperto che il 12,6 per cento dei bambini nel mondo sono stati vittime di conversazioni, condivisioni ed esposizione non consensuali a immagini e video di natura sessuale nell’ultimo anno: 302 milioni di minorenni.

Una percentuale simile – il 12,5 per cento – è stata oggetto di adescamento online, come discorsi sessuali indesiderati che possono includere sexting, domande sessuali e richieste di atti sessuali da parte di adulti o altri giovani.

Il sondaggio esamina un campione rappresentativo di 4.918 uomini di età superiore ai 18 anni che vivono in Australia , Regno Unito e Stati Uniti. Ecco alcuni risultati sorprendenti.

Un uomo su nove negli Stati Uniti (pari a quasi 14 milioni di uomini) ha ammesso di aver commesso reati sessuali online contro bambini ad un certo punto della sua vita: un numero di delinquenti tale da formare una linea che si estende dalla California, sulla costa occidentale, alla Carolina del Nord, a est, o da riempire uno stadio del Super Bowl più di 200 volte.

I sondaggi hanno rilevato che il sette per cento degli uomini nel Regno Unito ha ammesso la stessa cosa, il che equivale a 1,8 milioni di autori di reato nonché il 7,5 per cento degli uomini in Australia, quasi settecentomila.

Nel frattempo, milioni di persone in tutti e tre i paesi hanno affermato che avrebbero cercato di commettere reati sessuali contro bambini se avessero saputo che nessuno li avrebbe scoperto. Altre ricerche indicano che coloro che guardano materiale pedopornografico sono a rischio. Ad alto rischio di contattare o abusare fisicamente di un bambino.

Internet ha consentito alle comunità di autori di reati sessuali di condividere facilmente e rapidamente immagini di abusi e sfruttamento sui minori su scala sconcertante e questo, a sua volta, aumenta la domanda di tali contenuti tra i nuovi utenti e aumenta i tassi di abuso sui minori, distruggendo innumerevoli vite.

Nel 2023 sono state presentate agli organi di vigilanza più di 36 milioni di segnalazioni di immagini sessuali online di bambini vittime di ogni forma di sfruttamento e abuso sessuale da parte di aziende come X, Facebook, Instagram, Google, WhatsApp e membri del pubblico. . Ciò equivale a un rapporto ogni singolo secondo.

Come ovunque nel mondo, l’Ecuador è nella morsa di questo problema moderno e transnazionale: la rapida diffusione dello sfruttamento sessuale dei minori e degli abusi online. Può vedere un violentatore, ad esempio, a Londra, pagare un altro violentatore in qualche posto come le Filippine per produrre immagini di atrocità contro un bambino che sono a loro volta ospitate da un data center nei Paesi Bassi e disperse istantaneamente in molti altri paesi.

Quando Lay, direttore dell’impegno e del rischio di Childlight, era a Quito nel 2024, un grande hotel normalmente occupato da turisti che affollavano le delizie delle Isole Galápagos, era stranamente silenzioso, ad eccezione di un gruppo di 40 forze dell’ordine: analisti, ricercatori e pubblici ministeri che avevano più di 15mila immagini e video di abusi sessuali su minori da analizzare.

La cache dei file includeva materiale registrato annualmente presso le autorità, contenuti provenienti da dispositivi sequestrati e dal database del database International Child Sexual Exploitation (ICSE) dell’Interpol . I file erano potenzialmente collegati ad autori di reati in dieci paesi dell’America Latina e dei Caraibi: Argentina, Cile, Colombia, Costa Rica, Ecuador, El Salvador, Honduras, Guatemala, Perù e Repubblica Dominicana.

Lo sfruttamento minorile esiste in ogni parte del mondo ma, sulla base delle informazioni fornite da numerosi partner sul campo, si stima che la maggior parte dei paesi membri dell’Interpol non abbia la formazione e le risorse necessarie per rispondere adeguatamente alle prove di materiale pedopornografico condiviso con loro dalle organizzazioni. Come il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC).

L’NCMEC è un organismo creato dal Congresso degli Stati Uniti per registrare ed elaborare le prove di materiale pedopornografico caricato in tutto il mondo e individuato, in gran parte, dai giganti della tecnologia. Tuttavia, si ritiene che questa mancanza di capacità significhi che milioni di segnalazioni che avvisano le forze dell’ordine di materiale abusivo non vengono nemmeno aperte.

L’operazione in Ecuador, in collaborazione con il Centro internazionale per i bambini scomparsi e sfruttati (ICMEC) e la Homeland Security degli Stati Uniti, mirava a contribuire a cambiare la situazione aiutando le autorità a sviluppare ulteriori competenze e fiducia per identificare e localizzare gli autori di reati sessuali e salvare le vittime minorenni.

Al centro dell’operazione di Quito c’era il database dell’Interpol che contiene circa cinque milioni di immagini e video che gli investigatori specializzati di più di 68 paesi utilizzano per condividere dati e collaborare sui casi.

Utilizzando un software di confronto di immagini e video – essenzialmente un lavoro di identificazione fotografica che riconosce istantaneamente l’impronta digitale delle immagini – gli investigatori possono confrontare rapidamente le immagini nel database. Il software può creare istantaneamente connessioni tra vittime, autori di abusi e luoghi. Inoltre, evita la duplicazione degli sforzi e fa risparmiare tempo prezioso consentendo agli investigatori di sapere se le immagini sono già state scoperte o identificate in un altro Paese. Finora ha contribuito a identificare più di 37.900 vittime in tutto il mondo.

Lay ha una significativa esperienza sul campo nell’utilizzo di queste risorse per aiutare Childlight a trasformare i dati in azione, fornendo recentemente consulenza tecnica alle forze dell’ordine in Kenya, dove i successi includono l’utilizzo dei dati per arrestare il pedofilo Thomas Scheller. Nel 2023, Scheller, 74 anni, è stato condannato a 81 anni di reclusione . Il cittadino tedesco è stato giudicato colpevole da un tribunale di Nairobi di tre capi d’imputazione di tratta, atti indecenti con minori e possesso di materiale pedopornografico.

Ma nonostante questi progressi nei dati, ci sono preoccupazioni sull’incapacità delle forze dell’ordine di tenere il passo con un problema troppo grande perché gli agenti possano arrestarlo per uscirne. È reso possibile dai progressi tecnologici emergenti, comprese le immagini di abusi generate dall’intelligenza artificiale, che minacciano di sopraffare le autorità con la loro portata.

A Quito, durante un pasto caldo della stagione delle piogge a base di encocado de pescado, un gustoso piatto regionale di pesce in salsa di cocco servito con riso bianco, Lay ha spiegato:

Ciò non significa certamente isolare l’America Latina, ma è ormai chiaro che esiste uno squilibrio nel modo in cui i paesi di tutto il mondo gestiscono i dati. Ce ne sono alcuni che si occupano praticamente di ogni segnalazione che arriva e, se non viene gestita e succede qualcosa, le persone possono perdere il lavoro. Sul lato opposto della medaglia, alcuni paesi ricevono migliaia di indirizzi e-mail al giorno che non vengono nemmeno aperti.

Ora stiamo vedendo prove che i progressi tecnologici possono essere utilizzati anche per combattere i predatori sessuali online. Ma l’uso di tale tecnologia solleva questioni etiche.

Il potente ma controverso strumento di intelligenza artificiale che ha lasciato Lay senza parole è stato un esempio calzante: uno dei molteplici strumenti di riconoscimento facciale AI arrivati ​​sul mercato e con molteplici applicazioni. La tecnologia può aiutare a identificare le persone utilizzando miliardi di immagini recuperate da Internet, compresi i social media.

Secondo quanto riferito, un software di riconoscimento facciale basato sull’intelligenza artificiale come questo è stato utilizzato dall’Ucraina. Secondo quanto riferito, è stato utilizzato anche per identificare i rivoltosi che hanno preso d’assalto la capitale degli Stati Uniti nel 2021.

La rivista New York Times ha riportato un altro caso straordinario. Nel maggio 2019, un provider Internet ha allertato le autorità dopo che un utente ha ricevuto immagini raffiguranti l’abuso sessuale di una giovane ragazza.

Un’immagine sgranata conteneva un indizio vitale: un volto adulto visibile sullo sfondo che la società di riconoscimento facciale è stata in grado di abbinare a un’immagine su un account Instagram con lo stesso uomo, sempre sullo sfondo. Ciò nonostante il fatto che l’immagine del suo volto sarebbe apparsa grande circa la metà di un’unghia umana durante la visualizzazione. Ha aiutato gli investigatori a individuare la sua identità e il luogo di Las Vegas in cui è stato scoperto che creava materiale pedopornografico da vendere sul dark web. Ciò ha portato al salvataggio di una bambina di sette anni e alla sua condanna a 35 anni di carcere.

Nel frattempo, da parte sua, il governo britannico ha recentemente sostenuto che il software di riconoscimento facciale può consentire alla polizia di “stare un passo avanti rispetto ai criminali” e rendere le strade della Gran Bretagna più sicure. Tuttavia, al momento, l’utilizzo di tale software non è consentito nel Regno Unito.

Quando Lay si offrì volontario per consentire l’analisi delle sue caratteristiche, rimase sbalordito dal fatto che in pochi secondi l’app producesse una grande quantità di immagini, inclusa una che lo aveva catturato sullo sfondo di una foto scattata durante la partita di rugby anni prima. Pensa a come gli investigatori possono ugualmente individuare un tatuaggio distintivo o uno sfondo insolito in cui si è verificato un abuso e il potenziale di questo come strumento di lotta alla criminalità è facile da apprezzare.

Naturalmente, è anche facile comprendere le preoccupazioni di alcune persone per motivi di libertà civili che hanno limitato l’uso di tale tecnologia in tutta Europa. Nelle mani sbagliate, cosa potrebbe significare tale tecnologia per un dissidente politico che si nasconde, ad esempio? Una startup cinese di riconoscimento facciale è stata messa sotto esame dal governo degli Stati Uniti per il suo presunto ruolo nella sorveglianza del gruppo di minoranza uigura, ad esempio.

Punti simili vengono talvolta sollevati dai grandi sostenitori della tecnologia della crittografia end-to-end sulle app più popolari: app che vengono utilizzate anche per condividere file di abusi e sfruttamento minorile su scala industriale , spegnendo di fatto le luci su alcuni dei crimini più oscuri del mondo.

Perché – si chiedono i puristi della privacy – qualcun altro dovrebbe avere il diritto di conoscere contenuti privati?

E così, ad alcuni potrebbe sembrare che siamo arrivati ​​a un punto kafkiano in cui il diritto alla privacy degli autori di abusi rischia di prevalere sui diritti alla privacy e alla sicurezza dei bambini di cui stanno abusando.

Chiaramente quindi, se la crittografia delle popolari app di condivisione file deve diventare la norma, è necessario trovare un equilibrio che soddisfi il desiderio di privacy di tutti gli utenti, con il rilevamento proattivo di materiale pedopornografico online.

Meta ha recentemente dimostrato che esiste il potenziale per un compromesso che potrebbe migliorare la sicurezza dei bambini, almeno in una certa misura. Instagram, recentemente descritta dall’NSPCC come la piattaforma più utilizzata per l’adescamento , ha sviluppato un nuovo strumento volto a bloccare l’invio di immagini sessuali ai bambini – anche se, in particolare, le autorità non verranno avvisate di coloro che inviano il materiale.

Ciò comporterebbe la cosiddetta scansione lato client che, secondo Meta, mina la principale caratteristica di protezione della privacy della crittografia: solo il mittente e il destinatario conoscono il contenuto dei messaggi. Meta ha affermato di segnalare all’NCMEC tutti i casi evidenti di sfruttamento minorile che compaiono sul suo sito da qualsiasi parte del mondo.

Un compromesso con l’uso dell’intelligenza artificiale per individuare i trasgressori, suggerisce Lay, è semplice: garantire che possa essere utilizzata solo sotto rigorosa licenza di professionisti della protezione dei minori con controlli adeguati in atto. Non è “una soluzione miracolosa”, ha spiegato. L’identificazione basata sull’intelligenza artificiale dovrà sempre essere seguita dal lavoro di polizia vecchio stile, ma tutto ciò che può “ottenere in 15 secondi ciò che prima passavamo ore e ore cercando di ottenere” è degno di attenta considerazione, a suo avviso.

L’operazione in Ecuador, che combina l’intelligenza artificiale con il lavoro tradizionale, ha avuto un impatto immediato a marzo. L’ICMEC riferisce che ha portato all’identificazione positiva di un totale di 115 vittime (principalmente ragazze e per lo più di età compresa tra 6-12 e 13-15 anni) e 37 autori di reato (principalmente uomini adulti) in tutto il mondo. Nel giro di tre settimane, l’ICMEC ha affermato che hanno avuto luogo 18 interventi internazionali, con 45 vittime salvate e sette autori di abusi arrestati.

Fotosintesi è una testata giornalistica finanziata da lettori come te. Ci piacerebbe essere al tuo fianco qualora volessi condividere l’informazione internazionale e le battaglie per i diritti umani.

 

Condividi