Se accetti "tutti i cookie", compresi quelli di profilazione, oltre a sostenere la nostra offerta gratuita, riceverai annunci pubblicitari in linea con i tuoi interessi.
Se invece accetti solo i cookie "strettamente necessari" riceverai pubblicità generalista di cui non sarà possibile limitare il numero e la ripetizione.
Facebook cancella 8,7 milioni di foto pedopornografiche grazie ad algoritmo intelligente
di Paolo Travisi
Quasi nove milioni di immagini pedopornografiche tra i post di Facebook. In tre mesi un algoritmo messo a punto dal social di Mark Zuckerberg ha scovato 8,7 milioni di foto contenenti nudi di minori o comunque allusive allo sfruttamento di bambini. Facebook ha fatto ricorso alle nuove potenzialità dell'intelligenza artificiale per setacciare materiale con nudità infantili e contrastare le reti pericolose di pedofili che si nascondono tra i post della piattaforma.
Ed è inquietante la quantità di immagini cancellate in appena un trimestre, da luglio a settembre. Il sistema d'intelligenza artificiale, creato dall'azienda americana, supera le potenzialità di un singolo essere umano o di un gruppo di lavoro, per i quali sarebbe impensabile esaminare ogni singola foto, tra i due miliardi di utenti.
Invece l'algoritmo di machine learning, impara a riconoscere i bambini ed eventuali nudità, le cui immagini vengono bloccate, e “segnalate ad organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati, che a sua volta collabora con le forze dell'ordine” ha precisato in un post Antigone Davis, responsabile sicurezza di Facebook.
Profilo Interessi e notifiche Newsletter Utilità Contattaci
Logout