Francesca, 14 anni, come Taylor Swift: «Vittima dell'intelligenza artificiale, la sua immagine usata per creare contenuti sessuali»

Venerdì 2 Febbraio 2024, 17:16 - Ultimo aggiornamento: 19:25
Deepfake, Francesca vittima dell'intelligenza artificiale a 14 anni. La sua immagine usata per creare contenuti sessuali come successo a Tylor Swift
di Nikita Moro
1 Minuto di Lettura

Si chiama Deepfake ed è una tecnica basata sull'intelligenza artificiale che permette di combinare e sovrapporre immagini e video esistenti con immagini o video prodotti automaticamente, risultando così fasulli: una tecnologia che può essere potente quanto pericolosa, perché si possono mostrare contenuti in cui sembra di vedere una persona fare o dire cose che non hai mai fatto o detto.

In America questa pratica è diventata comune fra i giovani e il prezzo da pagare è molto alto, soprattutto se i contenuti prodotti associano immagini di minori alla sfera sessuale. Francesca ha 14 anni e un paio di mesi fa ha scoperto che alcuni compagni di classe della Westfield High School (Usa) avevano diffuso in rete una foto che la ritraeva nuda, creata attraverso l'intelligenza artificiale. Un caso che ricorda ciò che è successo a Taylor Swift nei giorni scorsi, con la diffusione di false foto pornografiche della pop star.

© RIPRODUZIONE RISERVATA