Salta al contenuto
Allarme deepfake Fonte foto: iStock

Allarme foto hot false a scuola: i rischi del deepfake in Italia

Allarme deepfake e deepnude nelle scuole in America, ma anche in Italia il fenomeno delle foto hot false è in aumento: cosa dice la legge e i rischi

Virgilio Scuola

Virgilio Scuola

REDAZIONE

Virgilio Scuola è un progetto di Italiaonline nato a settembre 2023, che ha l’obiettivo di supportare nell’apprendimento gli studenti di ogni ordine e grado scolastico: un hub dedicato non solo giovani studenti, ma anche genitori e insegnanti con più di 1.500 lezioni ed esercizi online, video di approfondimento e infografiche. Ogni lezione è pensata e realizzata da docenti esperti della propria materia che trattano tutti gli argomenti affrontati dagli studenti durante il percorso scolastico, anche quelli più ostici, con un linguaggio semplice e immediato e l'ausilio di contenuti multimediali a supporto della spiegazione testuale.

È allarme deepfake e deepnude in America, dove il fenomeno della generazione e diffusione di immagini hot false sta dilagando nelle scuole. La legge, in molti casi, non riesce ancora a tutelare le vittime. Ma anche in Italia si sta assistendo a un aumento dei casi di deepfake nelle scuole e il governo sta lavorando a una legge per contrastare la diffusione del fenomeno. Ecco cosa sta succedendo.

Allarme deepfake in America: foto hot false a scuola

Arriva dalla Florida l’ultimo allarme legato ai deepfake e deepnude: immagini e video di persone ignare che vengono modificate dall’IA ricreando materiale a luci rosse e pornografico.

Sono già numerosi i casi registrati di deepfake nelle scuole americane dall’avvento di queste tecnologie. Sempre più adolescenti delle scuole medie e superiori (ma anche insegnanti) sono spesso vittime di immagini pornografiche elaborate e diffuse dai loro compagni di scuola, usando programmi e app che si trovano facilmente online.

L’ultimo caso riguarda due ragazzini delle medie (12 e 13 anni) che, secondo quanto riporta la Repubblica, sono stati arrestati per aver diffuso materiale pedo-pornografico. Un fenomeno preoccupante che si sta allargando molto velocemente, ma che in molti casi non è ancora normato. Infatti, in America sono pochi gli stati che hanno previsto leggi a contrasto di tale fenomeno. Soltanto Florida, Texas e Virginia hanno adottato leggi contro la diffusione di immagini deepfake e deepnude in maniera non consensuale.

I deepfake nelle scuole in Italia: normativa e rischi

Quello accaduto in Florida non è l’unico caso di immagini pornografiche diffuse tra compagni di scuola e online. Sono molteplici i precedenti negli Stati Uniti e il fenomeno, purtroppo, si è allargato anche in Europa. In Italia, infatti, si contano diversi casi di deepnude che hanno fatto notizia, come il “caso BikiniOff”, che vide due studenti delle medie di Roma accusati di aver modificato e poi condiviso foto hot di compagne di classe attraverso l’uso di questa app francese. Un altro caso è accaduto a Latina, dove un’insegnante è stata “denudata” con l’IA da alcuni studenti che hanno diffuso le immagini su siti pornografici.

Se in America, in molti casi, mancano leggi ad hoc per il contrasto del deepfake, in Europa alcuni stati stanno iniziando a muoversi per adottare misure e soluzioni al rischio dell’uso improprio dei tali tecnologie.

In Italia, dove dal 2019 esiste il cosiddetto Codice Rosso (che punisce penalmente il “revenge porn”), si sta lavorando sulla proposta di legge sull’Intelligenza Artificiale che segue l’approccio utilizzato dall’AI Act, il regolamento comunitario sul settore. Nei nove articoli della bozza, c’è anche spazio per una norma anti-deepfake, che intende punire “chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza”. Secondo quanto si legge nella bozza, tali reati sarebbero punibili con la reclusione da uno a cinque anni.

Cosa sono il deepfake e il deepnude

Con il termine deepfake, neologismo nato dall’unione dei termini “deep learning” e “fake”, si intendono tutti quei materiali virtuali (foto, video, audio) che vengono elaborati con l’IA partendo da contenuti “reali”. Grazie alla potenza di calcolo ed elaborazione dell’Intelligenza Artificiale, possono essere ricreati in maniera quasi del tutto realistica tutti gli elementi del corpo di una persona, oppure la sua voce.

Le tecnologie deepfake, inizialmente molto costose, sono ormai diventate strumenti alla portata di tutti, tramite app e siti web aperti al pubblico. Con l’aumento della loro diffusione sono aumentati anche i rischi e i reati connessi all’uso improprio di tali strumenti, come il furto d’identità, il deepnude, il “revenge porn”, il sexting (ovvero la diffusione di immagini di nudo, che coinvolge anche soggetti minori), la pornografia illegale la pedopornografia.

In particolare, il deepnude riguarda l’uso delle tecnologie deepfake per “spogliare” persone ignare di quanto stia succedendo. Tramite l’IA, vengono tolti i i vestiti e ricreate parti intime di una persona, oppure vengono “sovrapposti” i visi di specifiche persone su corpi nudi, in pose o atti di natura sessuale. Tutto questo creando immagini e video estremamente realistici che sempre più spesso vengono diffusi nelle chat e sui siti pornografici.