Cerca e trova immobili

C’è chi usa l’intelligenza artificiale per creare pedopornografia

Aumentano le preoccupazioni sulla sicurezza dei minori e sulla necessità di una regolamentazione più rigorosa.
Aumentano le preoccupazioni sulla sicurezza dei minori e sulla necessità di una regolamentazione più rigorosa.

L'intelligenza artificiale è oggetto di discussione quotidiana. Ci si chiede se possa rappresentare una valida alleata per lo sviluppo della nostra civiltà o se, come molti pensano, si rivelerà essere una forza nemica pronta a rivoltarsi contro i suoi stessi creatori. Questi interrogativi non sono un puro esercizio di stile, ma questioni pratiche che necessitano, in maniera sempre più pressante, di risposte certe visto il ritmo con cui tale tecnologia progredisce. Da mesi, è stato lanciato un ulteriore allarme, legato all'utilizzo dell'intelligenza artificiale, riguardante il proliferare di contenuti pedopornografici online creati appunto dall'I.A.

Depositphotos

Identificazione del problema: indagine del Stanford Internet Observatory - Un'indagine condotta dallo Stanford Internet Observatory, pubblicata lo scorso anno, ha identificato la presenza di migliaia di immagini di abusi su minori creati da modelli che generano immagini da descrizioni testuali, come ad esempio Stable Diffusion.

In un precedente rapporto, curato in collaborazione con l'associazione senza scopo di lucro di tutela dei minori Thorn, era già stato denunciato il fatto che i rapidi progressi tecnologici legati all'apprendimento automatico consentono, con sempre maggiore facilità, «di creare immagini realistiche che facilitino lo sfruttamento sessuale dei bambini utilizzando modelli di generazione di immagini A.I open source».

Addestramento di modelli e raccolta dati - Nell'ultima indagine condotta dalla Stanford Internet Observatory si apprende che questi modelli vengono addestrati utilizzando miliardi di immagini, raccolte dai principali social media e siti contenenti video per adulti, contenuti in un enorme database, noto come Laion-5B. L'attività di raccolta di dati e immagini necessarie all'intelligenza artificiale viene di solito delegate a grandi aziende che si occupano di tale servizio.

Come riferito da La Repubblica, la Laion, il cui nome significa Large-scale Artificial Intelligence Open Network, raggruppa, nel suo ultimo prodotto Laion 5B, oltre sei miliardi di immagini con relative didascalie esplicative. Il suo ideatore, l'insegnante tedesco Cristoph Schuhmann, ha dichiarato che ciò che lo ha spinto a ideare un database di immagini così vasto è stata la volontà «di garantire che il futuro dello sviluppo dell'I.A. non fosse controllato da una manciata di potenti aziende».

Criticità nell'approccio - Tale database, come detto, viene usato per l'allenamento, tra gli altri, di Stable Diffusion che può creare immagini fotorealistiche partendo dalle istruzioni date dagli utenti attraverso un testo scritto. Secondo il gruppo investigativo di Stanford, la presenza di tali immagini illegali nei data base ha favorito la capacità degli strumenti di intelligenza artificiale di produrre immagini realistiche ed esplicite di minori, o di trasformare le immagini pubblicate sui social media di modo da far apparire, ad esempio, un adolescente vestito completamente nudo.

Come dichiarato al Guardian da David Thiel, capo tecnico dello Stanford Internet Observatory, e autore del rapporto, «creare quell'insieme di dati per addestrare modelli è qualcosa che avrebbe dovuto essere confinato a un'operazione di ricerca, e non è qualcosa che avrebbe dovuto essere open source senza un'attenzione molto più rigorosa».

Depositphotos

Un cambio di paradigma nella concezione di un servizio - La start up londinese Stability Ai, creatrice dei modelli text-to-image Stable Diffusion, ha fatto largo uso del data base Laion 5B, e se è vero che la nuova versione del modello è stata modificata per rendere più difficile la creazione di contenuti dannosi, la versione precedente è ormai in possesso di un numero indeterminato di persone dato che, come scritto nel rapporto di Stanford, «rimane il modello più popolare per generare immagini esplicite».

Così come altri programmi, Stable Diffusion permette di creare immagini basandosi sulla descrizione scritta fornita dall'utente. Nato inizialmente per scopi artistici o creazioni grafiche, è stato anche utilizzato, come visto, per generare immagini pedopornografiche, che includevano anche scene di stupro a danno di minori, proprio per la sua natura open source che, come spiegato su Open, «gli permette di girare in locale bypassando le restrizioni sui contenuti sessuali previste nella versione originale e sui competitor Midjourney e Dall-E».

Laion nel mirino - I set di dati di Laion sono stati utilizzati anche da altri modelli di produzione di immagini, come Imagen di Google, anche se quest'ultima si è affrettata a dichiarare di aver utilizzato Laion 400M solo per addestrare la prima versione del suo modello mai reso pubblico.

Il problema, quindi, è molto serio, e anche se, alla luce dei sempre più numerosi report sul tema, gli ingegneri della Laion hanno dichiarato di aver adottato «una politica di tolleranza zero verso i contenuti illegali», è pur vero che il portale 404 Media ha riferito, così come riportato da Wired, che almeno dal 2021 i leader delle organizzazioni erano consapevoli della possibilità che i set di dati di apprendimento potessero includere anche materiale pedopornografico.

Depositphotos

Impatto sociale e legale dell'abuso di intelligenza artificiale - La quasi impossibilità di riconoscere le immagini vere da quelle create con l'A.I. sta generando ulteriori problemi, come l'aumento delle estorsioni legate alla circolazione di questo materiale illegale. Dopo aver manipolato l'immagine di un minore, capita sempre più spesso che si avanzino richieste di denaro ai famigliari della vittima per ottenere grosse somme di denaro.

Dalla legittimità alla allarmante diffusione - L'utilizzo dell'intelligenza artificiale per creare contenuti pedopornografici è in costante aumento, anche se vi è ancora molta confusione sulle reali potenzialità di questa tecnologia che, in molti casi, si dimostra essere più pericolosa di quanto preventivato.

L'anno scorso è stato diffuso un allarmante rapporto in merito pubblicato dalla Internet Watch Foundation, Iwf, secondo il quale circolano migliaia di immagini criminali di minori nel dark web. «Stiamo vedendo immagini di materiale inerente abusi su minori - ha dichiarato la Ceo di Iwf Susie Hargreaves - che usano i volti di vittime conosciute e reali. Stiamo vedendo come la tecnologia sta "nudificando" i bambini le cui immagini con i vestiti sono stati caricate online per motivi perfettamente legittimi. E stiamo vedendo come tutti questi contenuti vengono commercializzati».

Enorme facilità nella creazione di contenuti - La cosa sembra incredibile, eppure creare dei contenuti pornografici partendo da normalissime fotografie di bambini è sempre più semplice. Come spiegato su Neue Zürcher Zeitung da John Shehan, operatore del Centro nazionale per i bambini scomparsi e sfruttati, NCMEC, con sede a Washington D.C., «tutto ciò di cui hai bisogno è una foto o un video di un bambino che mostri il suo volto. Sono sufficienti anche semplici foto di classe del primo giorno di scuola o immagini di viaggi che i nonni hanno caricato su internet». Tutto questo materiale all'apparenza innocuo viene quindi trasformato, attraverso l'utilizzo dei modelli di elaborazione delle immagini, in materiale pedopornografico.

Depositphotos

L'urgenza di azioni normative per contrastare il fenomeno - Come ribadito da tutti gli operatori che si occupano di tutela all'infanzia, la pornografia che coinvolge immagini di minori create con l'intelligenza artificiale non deve essere intesa in nessun modo meno grave di quella riguardante bambini reali, in quanto entrambi i fenomeni sono tra loro concatenati, e vanno a nutrire il bacino, sempre più ampio, di persone che richiedono contenuti sessuali espliciti riguardanti i minori.

Davanti al rapido progredire dello sviluppo dell'intelligenza artificiale, sempre più Paesi stanno adottando delle normative specifiche per poter garantire la protezione dei più deboli, anche davanti all'avanzare di questi preoccupanti fenomeni. È al vaglio della Commissione europea, ad esempio, un aggiornamento del quadro normativo riguardante l'abuso e lo sfruttamento sessuale dei minori, che possa comprendere anche nuovi reati come il livestreaming di abusi sessuali, il possesso e lo scambio di manuali di pedofilia, e la distribuzione di materiale pedopornografico, anche se creato tramite l'intelligenza artificiale.

Come rimarcato dall'esecutivo comunitario, infatti, su Eunews, nel 2022 sul territorio comunitario sono state registrate oltre un milione di segnalazioni di abusi sessuali su minori e «un bambino su cinque subisce una qualche forma di violenza sessuale sia offline che online». Dati allarmanti, a fronte dei quali serve un intervento normativo urgente a tutela dei minori.


Appendice 1

Gallery


Depositphotos

Depositphotos

Depositphotos

Depositphotos