Deepfake pedopornografici su X: rubano foto di bambini da TikTok e l’IA le trasforma
Un minore su cinque nel campione è vittima. La piattaforma ignora il 90% delle segnalazioni

CRONACA / SOCIAL
Meter denuncia X: foto di minori rubate da TikTok e trasformate in deepfake pedopornografici
La piattaforma di Elon Musk rimuove solo il 10% dei contenuti segnalati dall’associazione siciliana. “Per X non violano le norme”
La tecnologia che dovrebbe semplificarci la vita si sta trasformando in un incubo per la sicurezza dei minori. Mentre genitori ignari pubblicano video dei propri figli su TikTok, qualcuno li scarica, li carica su X e chiede all’intelligenza artificiale di trasformarli in materiale pedopornografico. E quando l’associazione Meter di Avola prova a fermarlo, la piattaforma di Elon Musk risponde: “Non viola le nostre norme”.
Una risposta che gela il sangue.
Il furto sistematico che parte da TikTok
L’ultimo monitoraggio tecnico condotto dall’Associazione Meter ha portato alla luce un meccanismo criminale tanto semplice quanto agghiacciante. I predatori digitali cercano profili pubblici di minori su TikTok, scaricano foto e video, e li trasferiscono su X. Un minore su cinque nel campione analizzato dall’organizzazione siciliana è stato vittima di questo sistema.
La tecnica si chiama “nudify” e sfrutta strumenti di intelligenza artificiale generativa. Gli utenti malintenzionati caricano le immagini rubate e richiedono al sistema Grok, l’intelligenza artificiale sviluppata proprio da X, di elaborare falsi nudi partendo dalle foto reali dei bambini. Il risultato sono deepfake pedopornografici creati con pochi clic.
La risposta di X: “Non viola le norme”
Meter opera come Trusted Flagger, un ruolo riconosciuto che dovrebbe garantire una corsia preferenziale nelle segnalazioni di contenuti illegali. Eppure i numeri raccontano una storia di sostanziale indifferenza. Solo il 10% del materiale segnalato è stato rimosso dalla piattaforma. Per tutto il resto, X ha respinto le richieste sostenendo che i contenuti generati dall’intelligenza artificiale “non violano le normative” della community.
La piattaforma distingue tra immagini reali di abusi e contenuti generati artificialmente, una linea di difesa che gli esperti di protezione dell’infanzia considerano inaccettabile. Ogni deepfake pedopornografico parte comunque dall’immagine reale di un minore, rubata senza consenso e violata nella sua dignità.
Il silenzio assordante delle piattaforme
L’associazione siciliana ha documentato come TikTok rappresenti il serbatoio principale da cui attingono i predatori. Account pubblici di famiglie che condividono momenti di vita quotidiana diventano cataloghi per chi cerca materiale da rielaborare. La catena di responsabilità coinvolge entrambe le piattaforme: TikTok che non protegge adeguatamente i contenuti dei minori, e X che si rifiuta di rimuovere il materiale illegale derivato.
Il monitoraggio di Meter solleva domande inquietanti sull’efficacia dei sistemi di moderazione delle grandi piattaforme social quando si tratta di proteggere i più vulnerabili. Se un’organizzazione riconosciuta come affidabile vede respinte nove segnalazioni su dieci, quale speranza hanno i genitori comuni di proteggere i propri figli?
Mentre l’intelligenza artificiale corre verso traguardi sempre più ambiziosi, la protezione dei minori sembra ferma al palo. Le piattaforme social continuano a nascondersi dietro le loro “norme della community”, documenti scritti da loro stesse che interpretano a proprio vantaggio. Nel frattempo, migliaia di bambini inconsapevoli diventano vittime di una violenza digitale che lascia cicatrici invisibili ma profonde. E la domanda resta senza risposta: quando la tecnologia smetterà di essere complice e diventerà soluzione?



