Francesca, 14 anni, come Taylor Swift: «Vittima dell'intelligenza artificiale, la sua immagine usata per creare contenuti sessuali»

1 di 4
Deepfake, Francesca vittima dell'intelligenza artificiale a 14 anni. La sua immagine usata per creare contenuti sessuali come successo a Tylor Swift

Si chiama Deepfake ed è una tecnica basata sull'intelligenza artificiale che permette di combinare e sovrapporre immagini e video esistenti con immagini o video prodotti automaticamente, risultando così fasulli: una tecnologia che può essere potente quanto pericolosa, perché si possono mostrare contenuti in cui sembra di vedere una persona fare o dire cose che non hai mai fatto o detto.

In America questa pratica è diventata comune fra i giovani e il prezzo da pagare è molto alto, soprattutto se i contenuti prodotti associano immagini di minori alla sfera sessuale. Francesca ha 14 anni e un paio di mesi fa ha scoperto che alcuni compagni di classe della Westfield High School (Usa) avevano diffuso in rete una foto che la ritraeva nuda, creata attraverso l'intelligenza artificiale. Un caso che ricorda ciò che è successo a Taylor Swift nei giorni scorsi, con la diffusione di false foto pornografiche della pop star.

1 di 4
Bambini e insegnanti intossicati a scuola, nausea e vomito per oltre 130 alunni: due studenti al pronto soccorso
Muore soffocata in casa, mistero a Fiumicino: ipotesi omicidio, la figlia interrogata in caserma
San Pietroburgo, autobus cade dal Ponte dei Baci: 8 morti, arrestato l'autista
​Estrazioni Superenalotto, Lotto e 10eLotto di venerdì 10 maggio 2024: numeri vincenti e quote
Kate e il tumore, William rompe il silenzio in ospedale: la lettera commovente alla moglie